Systemy generatywnej sztucznej inteligencji nie mają potencjału do rozwinięcia świadomości

  • Prof. Aleksandra Przegalińska. Fot. Dariusz Jemielniak (
    Prof. Aleksandra Przegalińska. Fot. Dariusz Jemielniak ("pundit")
  • Nie jestem zwolenniczką skrajnie materialistycznego podejścia do człowieka, według którego jesteśmy jedynie biologicznymi mechanizmami. Wierzę, że jesteśmy czymś więcej.
  • Co więcej, należy rozróżnić inteligencję od świadomości. Nawet jeśli uznamy, że dzisiejsze systemy AI są „inteligentne” w sensie obliczeniowym – przewidują, co odpowiedzieć na podstawie danych – nie oznacza to, że posiadają świadomość.
  • ChatGPT opiera się na fundamentalnych algorytmach, takich jak enkodery. Pierwsze prace matematyczne na ich temat pojawiły się w 1921 roku.
  • Wzmożone wysiłki Europy, by budować własne rozwiązania AI, są reakcją na zmieniające się relacje ze Stanami Zjednoczonymi. Sojusz, który przez dekady wydawał się niewzruszony, został ostatnio wyraźnie osłabiony.
  • Zaawansowana technologia nie jest już wyłącznie domeną największych graczy. Widzimy próby tworzenia rozwiązań na lokalnych rynkach: w Europie, na Bliskim Wschodzie, a nawet w Indiach, gdzie sztuczna inteligencja rozwija się bardzo dynamicznie.
  • W miejscach, gdzie przeważają zawody oparte na wiedzy, sztuczna inteligencja może stanowić wartościowe wsparcie. Ale czy zastąpi ludzi? Na razie nie widzimy takich oznak.

Z prof. Aleksandrą Przegalińska rozmawia Kamil Broszko.

Kamil Broszko: Jaka jest pani koncepcja człowieka? Czy jesteśmy jedynie biologicznymi strukturami przetwarzającymi informacje, czy może raczej czymś więcej – istotami metafizycznymi?

Aleksandra Przegalińska: Przyznam, że nie spodziewałam się tak fundamentalnego pytania na początek. Nie jestem zwolenniczką skrajnie materialistycznego podejścia do człowieka, według którego jesteśmy jedynie biologicznymi mechanizmami. Tego rodzaju analogie, na przykład przedstawianie mózgu jako komputera, wydają mi się zbyt uproszczone. Chociaż istnieją pewne podobieństwa, mam głębokie przekonanie, że w człowieku wciąż kryje się coś, co wykracza poza materialny opis.

Jeśli spojrzymy na rozwój sztucznej inteligencji, dostrzeżemy, że od dwóch lat intensywnie staramy się uchwycić to, co wyróżnia ludzki umysł. Obecne systemy AI, choć niezwykle skuteczne w rozwiązywaniu konkretnych zadań, nadal nie posiadają tzw. qualiów – subiektywnych jakości doświadczenia. Człowiek pozostaje dla mnie zagadką. Materialistyczne koncepcje, traktujące nas jak zwykłe mechanizmy, nie przemawiają do mnie. Wierzę, że jesteśmy czymś więcej.

KB: A co z koncepcją testu Turinga? Czy uważa pani, że powinniśmy ją dziś zredefiniować? Jakie kryteria mogłyby świadczyć o tym, że sztuczna inteligencja rzeczywiście przekracza granicę i zbliża się do człowieczeństwa?

AP: Test Turinga to fascynujące i prowokacyjne narzędzie, które od lat budzi intensywne dyskusje. Alan Turing zaproponował je jako sposób na zbadanie zdolności maszyny do prowadzenia rozmowy w sposób nierozróżnialny od człowieka. Warto jednak zauważyć, że Turing mówił wyłącznie o inteligencji – nigdy nie twierdził, że zdanie tego testu świadczy o świadomości czy woli. To fundamentalne rozróżnienie.

Dziś, kiedy systemy AI potrafią bardzo sprawnie odpowiadać na pytania, test Turinga traci na znaczeniu jako miara postępu w rozwoju sztucznej inteligencji. Przypomnijmy chociażby eksperyment myślowy Johna Searle'a – tzw. chiński pokój. Pokazuje on, że system może świetnie odpowiadać na pytania dzięki zestawowi instrukcji, ale to nie oznacza, że rozumie swoje odpowiedzi. Współczesne systemy działające na podstawie algorytmów probabilistycznych i ogromnych zasobów danych również często generują adekwatne odpowiedzi, ale ich skuteczność wynika z zaawansowanych obliczeń, a nie zrozumienia.

Co więcej, należy rozróżnić inteligencję od świadomości. Nawet jeśli uznamy, że dzisiejsze systemy AI są „inteligentne” w sensie obliczeniowym – przewidują, co odpowiedzieć na podstawie danych – nie oznacza to, że posiadają świadomość. Świadomość, jaką znamy u ludzi, jest dla nas samych tajemnicą i cechą, której nie sposób obecnie przypisać maszynom.

Podsumowując, test Turinga, choć historycznie istotny, nie może być jedynym narzędziem oceny AI. Potrzebujemy nowych miar, uwzględniających różnorodne aspekty ludzkiej inteligencji – emocjonalnej, społecznej, cielesnej – oraz tę trudną do zdefiniowania, ale fundamentalną jakość, jaką jest świadomość.

KB: Widzi pani świadomość na samym końcu drogi rozwoju maszyn?

AP: Trudno przewidywać z pewnością. Myślę, że nie ma nikogo, kto mógłby dziś zająć naprawdę twarde stanowisko w tej sprawie, bo po prostu nie wiemy. Gdyby zapytał mnie pan o moją intuicję, powiedziałabym, że systemy generatywnej sztucznej inteligencji – takie jak te, które dziś znamy: ChatGPT, Gemini, Bielik, Claude, Mistral – nie mają potencjału do rozwinięcia ogólnej inteligencji, a tym bardziej superinteligencji, nie wspominając już o świadomości.

Oczywiście to nie oznacza, że rozwój sztucznej inteligencji zatrzyma się na obecnym paradygmacie. Historia AI nie kończy się na generatywnych modelach językowych, takich jak ChatGPT. Myślę, że czeka nas eksploracja nowych paradygmatów. Coraz więcej mówi się na przykład o modelach generujących wideo. Obecnie takie systemy, choć imponujące, są ograniczone. Ich produkcje często przypominają fantasmagoryczne, wręcz psychodeliczne wizje: ręka przechodząca w nogę, głowa zmieniająca się w coś nieoczekiwanego, wszystko w chaosie ruchu i formy. Artystycznie to może fascynować, ale w żadnym razie nie odwzorowuje rzeczywistości fizycznej, w której funkcjonujemy.

Niektórzy sugerują, że nadanie tym systemom „intuicji fizycznej” mogłoby otworzyć nowe możliwości. Gdyby modele zaczęły funkcjonować w symulacjach świata z realistycznymi konsekwencjami, gdzie, powiedzmy, przewrócenie się „boli”, a wejście po schodach wymaga zrozumienia zasad motoryki – moglibyśmy być świadkami zupełnie nowych jakości. Równocześnie pojawia się koncepcja tzw. Living AI, łącząca sztuczną inteligencję z biologią syntetyczną. Chodzi tu o systemy operujące na poziomie biologicznym, przetwarzające informacje przy użyciu białek, wspierane przez technologie podobne do ChatGPT. Czy takie istoty – materialne, fizyczne, syntetyczne – mogłyby osiągnąć świadomość poprzez przyspieszoną ewolucję? Nie da się tego wykluczyć. Jednak jeśli chodzi o generatywne modele, które znamy dzisiaj, nie widzę takiej możliwości.

KB: A co z bardziej zaawansowaną integracją człowieka i technologii, nie tylko na poziomie mentalnym, ale także fizycznym?

AP: Obserwujemy bardzo szybki rozwój, ale szczególnie dzieje się to w obszarach, które mają wytyczony tor – tam, gdzie istnieje jasna agenda badawcza i pewien poziom technologicznej dojrzałości. Aby jednak uchwycić pełny obraz, warto spojrzeć na rozwój AI z szerszej perspektywy. Na przykład ChatGPT opiera się na fundamentalnych algorytmach, takich jak enkodery. A czy wie pan, kiedy pojawiły się pierwsze prace matematyczne na ich temat? W roku 1921. Tymczasem ChatGPT zadebiutował w 2022 r. To, co dziś widzimy jako gwałtowny rozwój, jest efektem stu lat badań. Dopiero teraz pojawiły się odpowiednie dane, infrastruktura i wiedza, by wcielić te idee w życie. Od lat 40. i 50. XX w. rozwijano tzw. koneksjonizm, próbując naśladować struktury mózgowe, ale postęp był mozolny. Gwałtowny skok technologiczny, który obserwujemy, jest w istocie ostatnim odcinkiem znacznie dłuższej podróży.

Jeśli chodzi o Living AI, o biologię syntetyczną, genetykę czy ewolucję – to są dopiero niezbadane terytoria. To obszary pełne tajemnic, podobnie jak ludzki mózg, którego funkcjonowania wciąż nie rozumiemy w pełni. Nawet pytania o świadomość zwierząt pozostają otwarte – odpowiedzi są często bardziej etyczne niż naukowe. W tym kontekście trudno mi uwierzyć w opowieści entuzjastów Doliny Krzemowej, że takie zmiany wydarzą się w ciągu dwóch, trzech czy nawet dziesięciu lat. Moim zdaniem to perspektywa o wiele bardziej odległa.

KB: Jak rysuje się przyszłość branży technologicznej? Kiedy ogłoszono powstanie ChatGPT, wiele osób miało wrażenie, że ten przełom uczyni OpenAI gigantem w biznesie i technologii. Ale potem pojawiły się kolejne modele: Claude, DeepSeek, a nawet Bielik. Czy za chwilę nie okaże się, że przy takiej dynamice rozwoju AI gigantom coraz trudniej będzie budować przewagę?

AP: To niezwykle trafne pytanie, jedno z tych, na które wciąż nie mamy jednoznacznej odpowiedzi. Sama często o tym myślę. Czy zmierzamy w stronę nowego oligopolu technologicznego, gdzie dominować będzie zaledwie kilku graczy, czy może przyszłość okaże się bardziej pluralistyczna?

Nie sposób zastanawiać się nad tym zagadnieniem bez uwzględnienia kontekstu geopolitycznego. Wzmożone wysiłki Europy, by budować własne rozwiązania AI, są reakcją na zmieniające się relacje ze Stanami Zjednoczonymi. Sojusz, który przez dekady wydawał się niewzruszony, został ostatnio wyraźnie osłabiony. Amerykańska administracja nie kryje swojego sceptycyzmu wobec Europy, co widać w klarownym przekazie płynącym zza oceanu.

Wydaje mi się, że świat stanie się bardziej fragmentaryczny, niż mogłoby się wydawać. Przyzwyczailiśmy się do globalizacji – jej blasków i cieni – i dominacji kilku kluczowych podmiotów, zarówno w mediach społecznościowych, jak i technologii. Sztuczna inteligencja mogłaby podążyć podobną ścieżką, z kilkoma gigantami dyktującymi warunki.

Jednak wydarzenia ostatnich miesięcy sugerują coś innego. Gdy Stany Zjednoczone ogłosiły ogromne inwestycje w AI na początku roku, Chińczycy szybko odpowiedzieli, prezentując DeepSeeka – model wytrenowany za zaledwie 6 mln dolarów. Dla porównania amerykańskie projekty wymagały nakładów rzędu setek miliardów. To było subtelne, ale wyraźne geopolityczne przesłanie: można osiągnąć wiele, wykorzystując otwarte modele, dane oraz dostęp do infrastruktury.

Ten przykład pokazuje, że zaawansowana technologia nie jest już wyłącznie domeną największych graczy. Widzimy próby tworzenia rozwiązań na lokalnych rynkach: w Europie, na Bliskim Wschodzie, a nawet w Indiach, gdzie sztuczna inteligencja rozwija się bardzo dynamicznie. Możliwe, że przyszłość przyniesie bardziej pluralistyczny krajobraz – amerykańska AI rywalizująca z europejską, chińską, a może i polską czy hinduską.

Europa intensywnie inwestuje w swoje rozwiązania. Być może to dziś brzmi jak fantazja, ale dlaczego nie wyobrazić sobie sytuacji, w której polska lub francuska AI stają się równorzędnym konkurentem dla modeli amerykańskich czy chińskich? Również Bliski Wschód wyraźnie zaznacza swoje zainteresowanie tą dziedziną. Możemy zatem zmierzać w stronę bardziej zróżnicowanego, konkurencyjnego świata technologii, który wymknie się prostym schematom globalizacji, jakie znaliśmy dotychczas.

KB: Zastanawiając się nad wpływem sztucznej inteligencji na rynek pracy, nie sposób pominąć wielkiej debaty ostatnich lat o przyszłości pracy. Kiedy globalna społeczność poznała pierwsze duże modele językowe, w mediach zaroiło się od nagłówków mówiących o masowym bezrobociu. Pojawiły się też rankingi zawodów, które przetrwają; na szczycie znaleźli się rehabilitanci. Jak z perspektywy dwóch lat badań i obserwacji ocenia pani tę dyskusję?

AP: Obserwacje związane z rynkiem pracy są pełne paradoksów. Najbardziej zaskakującą i jednocześnie groteskową sytuacją jest to, że szczególnie zagrożoną grupą zawodową wydają się… programiści, czyli ci, którzy stworzyli technologie stojące za sztuczną inteligencją.

Widzimy wyraźną zmianę: potrzeba ich mniej, niż można było przypuszczać jeszcze kilka lat temu. Pewną nadpodaż wywołała pandemia COVID-19 – wirtualizacja życia stworzyła zapotrzebowanie na oprogramowanie, które w rzeczywistości okazało się częściowo sztuczne, chwilowe. Gdy powróciliśmy do bardziej fizycznych kontaktów, część aplikacji okazała się zbędna.

Programowanie to zawód oparty na formalnym języku i jasno określonych zasadach, co sprawia, że sztuczna inteligencja doskonale się w nim odnajduje. Możemy więc spodziewać się przekształceń w tej dziedzinie: programiści staną się raczej menedżerami systemów AI, nadzorcami agentów AI niż osobami piszącymi kod. Jednakże istnieje tutaj pewne zagrożenie: aby dobrze zarządzać takimi systemami, trzeba rozumieć podstawy programowania. Jeśli zatem przestaniemy kształcić młodych adeptów programowania, kto w przyszłości będzie w stanie pełnić te funkcje?

Natomiast w innych zawodach nie widać oznak masowego zastępowania ludzi przez AI. Prognozy Elona Muska sprzed kilku lat o masowym bezrobociu wydają się na razie nieuzasadnione. Obserwacje różnią się w zależności od regionu świata. Przeprowadziliśmy niedawno badanie w ramach raportu Campus AI, analizując implementację generatywnej sztucznej inteligencji w czterech krajach: Stanach Zjednoczonych, Wielkiej Brytanii, Polsce i Hiszpanii. Wyniki pokazały zróżnicowanie w stopniu adaptacji tej technologii.

W Hiszpanii, gdzie rynek pracy opiera się w dużej mierze na usługach i migracji, AI nie odgrywa jeszcze dużej roli. W Polsce sytuacja wygląda zupełnie inaczej – dominują tu call center, centra usług wspólnych i korporacje, które masowo korzystają z narzędzi AI. W badanej grupie 60 proc. respondentów w Polsce zadeklarowało użycie generatywnej sztucznej inteligencji w swojej pracy, podczas gdy w USA było to 50 proc., a w Hiszpanii jedynie 40 proc.

To, jak AI wpłynie na rynek pracy, zależy od struktury zatrudnienia w danym kraju. W miejscach, gdzie przeważają zawody oparte na wiedzy, sztuczna inteligencja może stanowić wartościowe wsparcie. Ale czy zastąpi ludzi? Na razie nie widzimy takich oznak.

KB: Czyli na razie doświadczamy raczej zmian w obszarze pracy?

AP: Dokładnie tak. Weźmy mój własny przykład: korzystam z AI do pisania wniosków grantowych i dokumentów, co ułatwia pracę, ale nie czyni mnie mniej aktywną naukowo czy dydaktycznie. To narzędzie wspierające, nie zastępujące.

Co więcej, obserwujemy ciekawe zjawisko, mianowicie firmy częściej inwestują w doszkalanie obecnych pracowników, niż szukają nowych talentów na rynku. Może to wynikać z ogólnej niepewności gospodarczej, a może z faktu, że technologia wciąż nie jest w stanie zastąpić ludzkiej kreatywności i zdolności adaptacji.

Ostatecznie sztuczna inteligencja zmienia rynek pracy w subtelny sposób, przekształcając go raczej, niż niszcząc. To proces długotrwały, pełen niuansów i zależności od lokalnych warunków. Wiele jeszcze przed nami.

KB: Dodatkowo w świecie wciąż dokonują się inne procesy, które na razie wydają się mieć większy wpływ na rynek pracy czy gospodarkę. Wystarczy wspomnieć amerykański izolacjonizm i wprowadzanie ceł czy Europę z postulatem dozbrojenia i zmianą paradygmatu wydatków publicznych.

AP: Dziś towarzyszy nam duża niepewność, sprawy mogą się potoczyć w różnych kierunkach. Europa, zmuszona do reagowania na gospodarcze manewry Stanów Zjednoczonych, może w odpowiedzi zacząć zamykać się na produkty amerykańskie. Oczywiście USA to ogromny rynek zbytu, którego Europa nie chciałaby stracić, ale wyobraźmy sobie scenariusz, który jeszcze niedawno wydawał się niemożliwy: sojusz Eurazji z Chinami, stający się ważniejszym rynkiem niż Ameryka. Jeśli Stany Zjednoczone zdecydują się na izolacjonizm, Europa być może będzie musiała szukać nowych partnerów handlowych.

Do dziś nie jestem w stanie ocenić, czy cła wprowadzone za administracji Trumpa – tak zwane taryfy Trumpa – były jedynie narzędziem politycznego szantażu, czy rzeczywiście mają na celu przekształcenie międzynarodowych rynków. Mimo haseł o „wielkiej amerykańskiej prosperity” głoszonych w trakcie kampanii wyborczej teraz prezydent Trump w wywiadzie dla Fox News zapowiada możliwość recesji.

Nastroje w Stanach Zjednoczonych są wyraźnie niepokojące. Rynki finansowe odzwierciedlają tę atmosferę – wskaźniki giełdowe malują się na czerwono. To rodzi pytanie, czy istnieje długofalowy plan. Czy podejmowane decyzje mają charakter strategiczny, czy są jedynie reakcją na bieżące wyzwania?

Sytuacja w przemyśle samochodowym jest szczególnie interesująca. W przypadku tych ceł pojawił się jeden wyraźny zwycięzca – Elon Musk. Jego fabryki znajdują się w Stanach Zjednoczonych, co pozwala mu uniknąć wielu problemów, z którymi muszą zmagać się producenci japońscy czy europejscy. Ci ostatni stają wobec bardziej skomplikowanej rzeczywistości, niepewności co do przyszłości rynku.

Niedawno słuchałam podcastu politycznego, w którym ekspert z dziedziny ekonomii tłumaczył, że Donald Trump ma osobliwe podejście do ceł. Według niego cła to coś, co fascynuje prezydenta od lat 80. Wydaje się, że decyzje w tej kwestii wynikają bardziej z jego osobistych upodobań niż z długofalowej strategii. A czy za tym wszystkim stoi głęboko przemyślana polityka gospodarcza? Cóż, nic nie wskazuje na to, by tak było.

To skomplikowany obraz, pełen sprzeczności i zależności, gdzie decyzje jednego kraju mogą przynieść skutki, które w pierwszej chwili wydają się wręcz nieprzewidywalne.

KB: Pani profesor, chciałem jeszcze zapytać o Campus AI. Zrozumiałem z pani wcześniejszej wypowiedzi, że w Polsce przyjmujemy nowe technologie z entuzjazmem większym niż w niektórych krajach europejskich. Jak w tę tendencję wpisuje się Campus AI?

AP: Doradzam w tym projekcie, który – muszę przyznać – fascynuje mnie w sposób wyjątkowy. To dla mnie pierwszy raz, kiedy angażuję się tak głęboko w życie start-upu. Campus AI jest czymś więcej niż przestrzenią edukacyjną – to prawdziwy kampus poświęcony nauce i praktyce związanej ze sztuczną inteligencją.

Campus AI opiera się na wizji, którą w pełni podzielam. Sztuczna inteligencja powinna wspierać człowieka, a nie go zastępować. W odpowiednich rękach może przynieść ogromne korzyści. Istotne jest jednak, by traktować ją narzędziowo – jako wsparcie, a nie mechanizm wykonujący za nas całą pracę. Próby przerzucania odpowiedzialności na AI rzadko prowadzą do pozytywnych rezultatów.

W praktyce Campus AI to dziś platforma edukacyjna, a w niedalekiej przyszłości stanie się także przestrzenią wirtualną – swoistym metawersum w modelu single-player. Użytkownicy będą mogli swobodnie eksplorować ten świat, rozwijając kompetencje w zakresie sztucznej inteligencji, takie jak tworzenie wideo, dźwięku, systemów złożonych, współprojektowanie czy modelowanie 3D. Kampus kładzie nacisk na rozwijanie umiejętności specyficznych dla różnych dziedzin, ale jednocześnie przypomina o odpowiedzialności za korzystanie z tych narzędzi. Zakres tej odpowiedzialności różni się w zależności od kontekstu i użycia, co jest kluczowym elementem nauczania.

To jedyna taka inicjatywa w tej części Europy, wyróżniająca się unikalnym podejściem i dostarczająca wiedzę na najwyższym poziomie. Campus AI nieustannie się rozwija, wchodząc na kolejne rynki, a dla mnie osobiście jest to fascynująca przygoda – obserwowanie, jak teoretyczne badania przekładają się na realne produkty i żywy ekosystem, w który zaangażowały się już tysiące osób.

KB: Czyli właściciel nawet niewielkiej firmy – załóżmy, że produkuje złączki, buty, cokolwiek – słyszy o sztucznej inteligencji, myśli o budowaniu przewagi konkurencyjnej i mówi: „Wchodzę w to”. Czy może skierować swoje kroki do Campusu AI? Czy to rzeczywiście inicjatywa dla każdego?

AP: Tak, absolutnie. Campus AI jest agnostyczny pod względem specjalizacji – niezależnie od poziomu zaawansowania w pracy z AI, każdy znajdzie tam coś dla siebie. Ważnym elementem oferty jest przestrzeń reskillingowa, którą nazywamy AI Gym. To miejsce, gdzie można zmienić zakres swoich umiejętności i przystosować się do nowych wymagań zawodowych. Grafik może nauczyć się korzystać z AI w swoim fachu, a sprzedawca nieruchomości – używać AI do analizy gentryfikacji warszawskich dzielnic.

Dla firm sytuacja jest klarowna: jeśli przedsiębiorstwo zakłada, że za pięć lat będzie mogło działać tak samo, bez korzystania z AI, to popełnia błąd. Sztuczna inteligencja już teraz zmienia sposób, w jaki pracujemy. Ignorowanie jej potencjału to ryzyko pozostania w tyle wobec rynku, który za kilka lat może być nie do poznania.

---

Aleksandra Przegalińska-Skierkowska – prof. Akademii Leona Koźmińskiego, dr hab., filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych. Stopień doktora nauk humanistycznych w dyscyplinie filozofia uzyskała w 2014 r. w Instytucie Filozofii Uniwersytetu Warszawskiego. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life. Wykładała m.in. w ESCP Europe w Berlinie, Uniwersytecie Harvarda, Uniwersytecie w St. Gallen, Uniwersytecie Columbia. Napisała m.in. „Converging Minds: The Creative Potential of Collaborative AI” (wraz z Tamillą Triantoro; 2024, CRC Press / Balkema), „Strategizing AI in Business and Education: Emerging Technologies and Business Strategy” (wraz z Dariuszem Jemielniakiem; 2023, Cambridge University Press), „Debating Universal Basic Income” (wraz z Robertem E. Wrightem; 2022, Palgrave Macmillan), „Collaborative Society” (wraz z Dariuszem Jemielniakiem; 2020, MIT Press).

Czytaj także

Najciekawsze artykuły i wywiady wprost na Twoją skrzynkę pocztową!

Administratorem Państwa danych osobowych jest Fundacja Best Place Europejski Instytut Marketingu Miejsc z siedzibą w Warszawie (00-033), przy ul. Górskiego 1. Z administratorem danych można się skontaktować poprzez adres e-mail: bestplace@bestplaceinstitute.org, telefonicznie pod numerem +48 22 201 26 94 lub pisemnie na adres Fundacji.

Państwa dane są i będą przetwarzane w celu wysyłki newslettera, na podstawie prawnie uzasadnionego interesu administratora. Uzasadnionymi interesami administratora jest prowadzenie newslettera i informowanie osób zainteresowanych o działaniach Fundacji.

Dane osobowe będą udostępniane do wglądu dostawcom usług IT w zakresie niezbędnym do utrzymania infrastruktury IT.

Państwa dane osobowe będą przetwarzane wyłącznie przez okres istnienia prawnie uzasadnionego interesu administratora, chyba że wyrażą Państwo sprzeciw wobec przetwarzania danych w wymienionym celu.

Uprzejmie informujemy, iż przysługuje Państwu prawo do żądania od administratora dostępu do danych osobowych, do ich sprostowania, do usunięcia, prawo do ograniczenia przetwarzania, do sprzeciwu na przetwarzanie a także prawo do przenoszenia danych (o ile będzie to technicznie możliwe). Przysługuje Państwu także możliwość skargi do Urzędu Ochrony Danych Osobowych lub do właściwego sądu.

Podanie danych jest niezbędne do subskrypcji newslettera, niepodanie danych uniemożliwi wysyłkę.