Przedsiębiorca i badacz AI o odpowiedzialności za algorytmy, dzieciach bez social mediów i kraju, który zniechęca przyszłe jednorożce

  • Dr Krzysztof Wojewodzic. Fot. ESCOLA SA
    Dr Krzysztof Wojewodzic. Fot. ESCOLA SA

*Social media jak alkohol, AI jak narzędzie pracy. Jak wychować dzieci i budować biznes w świecie algorytmów.

*AI już zmienia firmy szybciej niż strategie zarządów. Dlaczego większość organizacji wciąż używa jej źle?

*Szkoły zakazują uczniom korzystania z AI. Tymczasem firmy już oczekują, że pracownicy będą jej używać codziennie.

Sztuczna inteligencja w ciągu kilku lat stała się jednym z najważniejszych czynników wpływających na produktywność firm, sposób pracy ludzi i kierunek rozwoju gospodarek. Jednocześnie coraz wyraźniej widać, że sama technologia nie wystarczy. O tym, dlaczego większość organizacji wciąż używa AI w sposób powierzchowny, co blokuje rozwój globalnych firm technologicznych w Polsce i jak zmieni się edukacja w świecie generatywnych modeli mówi przedsiębiorca i badacz sztucznej inteligencji.

Z dr Krzysztofem Wojewodzicem rozmawia Kamil Broszko.

Kamil Broszko: Łączymy się w formie wideokonferencji, więc pozwoli pan, że zacznę od pytania, które jeszcze niedawno brzmiałoby jak żart, a dziś – już niekoniecznie. Czy ja rozmawiam z panem doktorem Wojewodzicem, czy z jego avatarem? Może w tej sytuacji jeszcze małe podsumowanie z mojej strony: ja jestem rzeczywisty. Przy tworzeniu pytań podpierałem się Perplexity i trochę klasycznym Google’em — ale teraz jest pan w interakcji z człowiekiem.

Krzysztof Wojewodzic: Jeżeli pan twierdzi, że jest rzeczywisty, to w 2030 roku — a może już w 2027 — poprosiłbym pana, żeby się pan odwrócił i podrapał tu, z tyłu głowy. Avatary są dziś wytrenowane na ogromnych zbiorach danych, ale wciąż gorzej radzą sobie z improwizowaną, nieco absurdalną motoryką. To jeszcze działa jak test Turinga w wersji kinestetycznej.

Natomiast prawda jest taka, że technologia już dziś pozwalałaby, aby odpowiadał mój avatar. Ekspert zapewne by to wychwycił, ale po montażu całość byłaby nie do odróżnienia. To, co widzimy w internecie — na Instagramie, YouTubie, TikToku — nawet gdy jest wygenerowane, bywa dla niewprawnego oka całkowicie nieodróżnialne od rzeczywistości. W roku 2026 jesteśmy właśnie w tym punkcie, co niesie ze sobą ogromne implikacje społeczne i epistemologiczne, choć nie o tym było pytanie.

KB: Dwa lata temu AI, zwłaszcza w wydaniu LLM-ów, było już imponujące, pobudzało wyobraźnię. Rozmawiałem wtedy z rektorem Akademii Koźmińskiego, nestorem ekonomii i nauk o biznesie w Polsce, człowiekiem bardzo otwartym. Powiedział mi jednak: „Z AI bym nie rozmawiał, z panem — tak”. A czy pan dopuszcza rozmowę z AI, w takim rozumieniu włączenia do jakiejś kluczowej debaty, wymiany idei czy współtworzenia pana wizerunku publicznego?

KW: Rozdzielmy dwie rzeczy. Po pierwsze: czy w ogóle rozmawiać z AI? To pytanie z tej samej kategorii co: pisać książkę ręcznie czy w Wordzie, lub w Pages. Są puryści, którzy twierdzą, że prawdziwa książka powstaje piórem, a dopiero potem ktoś ją przepisuje.

Z AI jest podobnie. Można jej nie używać. Ale narzędzie oferuje też konkretne korzyści. Błyskawiczną redakcję tekstu — co dla mnie ma spore znaczenie, bo mam dysleksję. Nie jestem jedynym, który popełnia błędy; zaś program poprawia mnie na bieżąco. To żadna magia, tylko technologia znana od lat, tyle że dziś działa szybciej i szerzej.

Moglibyśmy komunikować się z maszyną wyłącznie za pomocą pisania. My jednak z jakiegoś powodu rozmawiamy, a nie wymieniamy się mailami. Bo rozmowa jest szybsza i bogatsza. Mamy głos, mamy wideo. Ja często „rozmawiam” z komputerem, by szybciej przelać myśli na cyfrowy ślad, który potem ktoś czyta jako tekst, ogląda jako obraz, analizuje jako dane.

A czy to, co mówi do nas AI może zastąpić człowieka? Były już próby audycji radiowych prowadzonych przez AI — także w Polsce. Powstawały podcasty, nawet eksperyment pod tytułem *Joe Rogan AI Experience*, gdzie wirtualni goście — choćby Donald Trump — „występowali” u najsłynniejszego podcastera na świecie. Reakcje w każdej sytuacji były podobne, po chwilowym zachwycie słuchacze się zniechęcali.

Dlaczego? Z tego samego powodu, dla którego nie chcemy żywić się wyłącznie szejkami marki Huel — choć teoretycznie zawierają wszystkie niezbędne składniki odżywcze. Można by przeżyć na nich dwa lata. A nawet całe życie. A jednak nie chcemy. Albo weźmy wino: przewidywalne, powtarzalne „nowoświatowe” kontra francuskie, gdzie rocznik bywa kapryśny, bardziej wietrzny, bardziej deszczowy. Albo piwa kraftowe i przemysłowe. AI dziś daje jakość bardzo dobrą, ale jeszcze nie wybitną.

W zeszłym roku siedemnaście z pięćdziesięciu najpopularniejszych utworów na Spotify powstało z istotnym udziałem AI. A jednak najlepsze piosenki wciąż tworzą ludzie. Nie wiem, czy tak będzie zawsze. Przewiduję raczej model hybrydowy.

Kiedy czterdzieści lat temu pojawiło się CGI, oburzano się: to oszustwo, to nie jest prawdziwe kino. Dziś każdy film korzysta z efektów komputerowych. Proszę porównać Władca Pierścieni: Drużyna Pierścienia i Hobbit: Niezwykła podróż. W pierwszym — armie statystów, kostiumy, fizyczność planu. W drugim — znacznie więcej greenscreenu i efektów cyfrowych. To tańsze, a niewprawne oko różnicy nie dostrzeże. Z AI będzie podobnie. Będzie jej więcej. Ale wciąż będziemy chcieli słuchać wybitnych mówców w Davos, a nie botów „rozmawiających” na niszowych portalach. Te drugie są ciekawostką na kilka dni.

AI jest świetna do draftów, proof of concept, pierwszej wersji produktu cyfrowego, pierwszej wersji tekstu, grafiki, nawet muzyki czy filmu. Może coś uzupełnić, przyspieszyć, zoptymalizować. Była próba stworzenia w pełni wygenerowanego przez AI filmu na 250-lecie Stanów Zjednoczonych — magazyn Time pokazał to na swoim kanale YouTube. Jakość nie powaliła.

Jeszcze tam nie jesteśmy. I sądzę, że długo nie będziemy. AI jest jak ten proszkowany posiłek — zawiera wszystkie mikro- i makroelementy ludzkiej wiedzy, zmielone i przetworzone. Ale „smak” wciąż mają ludzie. Smak, o którym tak dużo się mówi. To różnica między odżywką a kolacją.

KB: Obserwuję niekiedy fascynację AI, która wykracza poza pragmatyzm, a nawet przypomina podejście quasi-religijne? W Dolinie Krzemowej są liderzy technologiczni, którzy o AGI, o kolejnych iteracjach, o przełomie technologicznym mówią w sposób mistyczny. Są też grupy fanów AI, które organizują się na wzór jakiegoś kościoła. Czy taka aura, taki entuzjazm są panu w jakiś sposób bliskie?

KW: To nie jest obszar, który mnie szczególnie zajmuje. Ludzie zakochują się w psach, w samochodach, w swoich projektach. Była medialna historia kobiety w Japonii, która rzekomo „poślubiła” model językowy. Był film Her — oczywiście rozumiem, skąd bierze się ta fascynacja.

Ale ja nie jestem psychologiem ani teologiem technologii. Zajmuję się zwiększaniem efektywności pracy menedżerów i przedsiębiorstw przy użyciu AI. Interesuje mnie produktywność, proces, mierzalny wzrost wydajności.

Emocjonalne projekcje, quasi-religijne narracje, antropomorfizowanie modeli — zostawiam innym badaczom. Dla mnie AI jest narzędziem. Bardzo potężnym. Czasem olśniewającym. Ale nadal tylko narzędziem.

KB: Dobrze, że pan zasygnalizował swoją specjalizację, bo właśnie chciałem przejść z poziomu idei na poziom warsztatu i zapytać o konkret: o projekty, które pojawiają się w pańskich afiliacjach i o to, czym właściwie zajmuje się badacz i architekt sztucznej inteligencji?

KW: Faktycznie – to może być ciekawsze niż wszystkie dyskusje o przyszłości. Pierwszy projekt to system optymalizujący zarządzanie salami operacyjnymi, o nazwie Promedheus. Lubię o nim mówić, że to system, który realnie ratuje życie. Dziś harmonogramy układa człowiek, według swojej najlepszej wiedzy — tyle, że liczba zmiennych jest ogromna: pogoda, absencje personelu, nagłe odwołania zabiegów, dostępność sprzętu. Modele potrafią te wektory przeliczać i uczyć się na ich podstawie w trybie uczenia ze wzmocnieniem. Efekt: o dwanaście procent lepsze wykorzystanie sal operacyjnych. To już działa w kilku szpitalach w Polsce, wdrażają to dwie konkurujące ze sobą firmy. Jeśli któraś z nich odniesie globalny sukces, będziemy mieli coś w rodzaju narodowego skarbu technologicznego.

Drugi projekt dotyczy edukacji i realizowany jest pod parasolową marką Bliskoedu — doradztwa dla rodziców i nauczycieli. Modele językowe znakomicie analizują dane, które i tak zostawiamy w systemach takich jak Librus czy właśnie Bliskoedu: opinie nauczycieli, obserwacje zachowań, reakcje dzieci. Z czasem te systemy będą w stanie analizować nie tylko tekst, lecz także obraz — obserwować proces uczenia się i podpowiadać, jak pracować z konkretnym dzieckiem. My robimy to w duchu pedagogiki Reggio Emilia, która, choć powstała w XX wieku, pozostaje zadziwiająco aktualna.

Trzeci projekt to Wellms – rozpoznawanie emocji w czasie rzeczywistym. Często słyszy się, że AI emocji rozpoznawać nie potrafi, więc — jak mówią Anglosasi — *hold my beer*. Nasz model z dokładnością sięgającą dziś osiemdziesięciu dwóch procent wykrywa, czy uczestnik telekonferencji jest skupiony; z dokładnością sześćdziesięciu ośmiu procent identyfikuje konkretne emocje: smutek, strach, złość, zadowolenie. Widzimy zastosowania w szkoleniach, prezentacjach produktowych, edukacji, ale to wciąż faza eksperymentalna. Budowa modelu to coś zupełnie innego niż korzystanie z modelu — to jak różnica między prowadzeniem samochodu a jego konstruowaniem.

Kolejny obszar to multimodalne tłumaczenie języka migowego: osoba migająca mówi do kamery, a my słyszymy w słuchawce jej wypowiedź; w drugą stronę — głos zamieniany jest w awatara migającego w czasie rzeczywistym.

Najświeższy projekt dotyczy smartobroży i smartchipów dla psów, które pozwolą przewidywać choroby. W sieci partnerskiej jest już blisko tysiąc gabinetów weterynaryjnych, a inwestorem została największa w Europie grupa w tej branży. Skoro za chwilę czipowanie zwierząt stanie się obowiązkowe, to dlaczego ma to być tylko identyfikator, a nie narzędzie diagnostyczne?

To wszystko brzmi efektownie, ale trzeba powiedzieć jasno: to procesy żmudne i drogie. Model rozpoznający emocje wymaga setek tysięcy zarejestrowanych ekspresji twarzy. Ludzie muszą wyrazić zgodę, trzeba im zapłacić, dane trzeba anonimizować, przechowywać w prywatnych centrach danych, opłacić moc obliczeniową. Korzystamy z istniejących komponentów, ale składamy z nich nowy pojazd — raz terenowy, raz wyścigowy, raz miejski — zawsze zoptymalizowany pod konkretne zadanie. Na tym polega praca badacza.

KB: Czyli biznes z AI, to nie tylko programowanie, albo rozmowa z modelem, ale także praca organizacyjno-administracyjna, pozyskanie danych itd.?

KW: Najprościej wyobrazić to sobie jako kuchnię. Najpierw ktoś zdobywa składniki — dane. W przypadku emocji: ludzie przychodzą na webinary, podpisują zgody, dostają w zamian choćby vouchery na Allegro. Potem ktoś te składniki oczyszcza: odrzuca nagrania z wyłączoną kamerą, z błędnym oświetleniem. Następnie je „gotujemy” — trenujemy model, przyprawiamy hiperparametrami. Na końcu trzeba danie podać: podłączyć je do Microsoft Teams, do Zoom, do Google Meet, zaprojektować interfejs. Dopiero wtedy ktoś może z tego skorzystać.

KB: A w przypadku smartobroży dla czworonogów dochodzi jeszcze wątek hardware?

KW: Tak. W świecie zwierząt domowych wchodzimy właśnie w moment regulacyjny — czipowanie stanie się obowiązkowe. Pytanie brzmi: czy to ma być pasywny identyfikator, czy inteligentny sensor.

KB: Chciałbym zapytać o zagrożenia związane z rozwojem AI. W publicystyce i dyskusjach ścierają się dwie wizje: pierwsza rodem z science fiction — superinteligencji, która nudzi się ludźmi i usuwa ich z planszy; druga wizja dotyczy zagrożeń konkretnych, manipulacji informacją, utraty kontroli nad danymi, zagrożeń dla bezpieczeństwa, demokracji.

KW: Wróćmy do metafory samochodu. Konstruktor musi spełnić wymogi prawa — na przykład system ostrzegający o przekroczeniu prędkości — ale może też wprowadzać własną filozofię bezpieczeństwa. Volvo ograniczyło prędkość swoich nowych aut do 180 kilometrów na godzinę. Czy to przesada, skoro w większości Europy i tak nie wolno jechać szybciej? A może racjonalna decyzja?

Tak samo jest z modelami. Są rozwiązania bardzo liberalne — jak Grok — z minimalnymi restrykcjami i już dziś obciążone sporami prawnymi dotyczącymi generowanych treści. Są też modele, które blokują określone zapytania, uczą się reagować na sygnały kryzysowe, kierują użytkownika do specjalisty. To odpowiedniki pasów bezpieczeństwa i poduszek powietrznych.

Obarczanie modelu odpowiedzialnością za dramatyczne decyzje użytkownika jest dla mnie jak obwinianie samochodu o wypadek. To złożone, wielowarstwowe zjawiska. Jako konstruktor czuję odpowiedzialność za zwiększanie bezpieczeństwa — ale gdybyśmy ograniczyli wszystkie systemy do „siedemdziesięciu kilometrów na godzinę”, użytkownicy przestaliby z nich korzystać.

Między bezpieczeństwem a swobodą istnieje linia napięcia. I tak jak w motoryzacji, tak w AI — różne „marki” będą tę linię rysować w różnych miejscach.

KB: A ta najcięższa klasa zagrożeń, dotyczących na przykład geopolityki, stabilności ekonomicznej, czy wręcz najczarniejsze perspektywy, eschatologiczne — zajmują panu głowę? Najpierw może ten środkowy poziom: AI jako broń, jako narzędzie kontroli, jako element infrastruktury państwa.

KW: Jeżeli pytamy, czy sztuczna inteligencja jest dziś bronią, to odpowiedź brzmi: tak — tak samo jak każda przełomowa technologia. Jest potężnym narzędziem i może służyć zarówno zwiększaniu dobrobytu, jak i kontroli społecznej. W Chinach widać to najpełniej, ale dla polskiego czytelnika bardziej namacalny jest przykład pochodzący z Rosji: system identyfikacji twarzy w metrze oparty na AI pozwala ustalić, gdzie ktoś wsiadł i gdzie wysiadł. Ułatwia to łapanie przestępców kryminalnych, ale też „przestępców politycznych”, w rozumieniu reżimu.

Równolegle Rosja wykorzystując możliwości AI, pracuje nad czymś w rodzaju własnego firewalla — próbą stworzenia półzamkniętego internetu. Czy to jest „wina AI”? Nie. To jest technologia jako taka, która wchodzi w aparat państwa. Tak samo jak autonomiczne i półautonomiczne drony, jak roje dronów — nowy, dość przerażający obraz wojny. I jedyny racjonalny wniosek z polskiej perspektywy jest taki, że powinniśmy budować systemy obronne, na wzór izraelskiej tarczy antyrakietowej.

Natomiast ten trzeci poziom — superinteligencja, która wymyka się spod kontroli i dochodzi do wniosku, że ludzkość jest zbędna — to już obszar filozofii technologii. Nick Bostrom opisał to w książce „Superintelligence” za pomocą słynnego eksperymentu myślowego ze spinaczami: prosimy system, by produkował paper clips, a on optymalizuje proces tak skutecznie, że zamienia w spinacze całą materię, łącznie z nami. To skrajny scenariusz — tej samej kategorii co globalna wojna nuklearna. Oczywiście możliwy, ale na razie nieuchronny tylko w literaturze.

Zresztą historia zna analogię. Projekt Manhattan doprowadził do powstania broni, która mogła zniszczyć ludzkość — a jednocześnie, jak twierdzą niektórzy historycy, przyczynił się do epoki względnej stabilności, bo świadomość wzajemnego zniszczenia działa odstraszająco. Yuval Noah Harari często o tym mówi: broń jądrowa paradoksalnie zwiększyła bezpieczeństwo. Liczę na podobny efekt w przypadku AI — że stanie się narzędziem zwiększania produktywności, a nie zagłady.

Tu wracam do mojej ulubionej metafory motoryzacyjnej. Samochody zmieniły wszystko: tempo życia, geografię miast, klimat, strukturę wydatków energetycznych. Spowodowały wypadki i karambole, a jednak jako cywilizacja uznaliśmy, że bilans jest dodatni. Tak samo widzę przyszłość sztucznej inteligencji.

KB: Harari powiedziałby jednak, że samochody nie opracowują nowych idei i nie podejmują samodzielnych decyzji.

KW: I tu się z nim zgadzam — AI jest technologią jakościowo inną, bo potrafi nas zaskoczyć. Ale proszę zauważyć: my też potrafimy zaskoczyć samych siebie. Każdy z nas powiedział kiedyś zdanie, którego później nie rozumiał. Jesteśmy dla siebie trochę czarną skrzynką — i komputery też nią są.

Natomiast może dodać, co pozytywnego wynika z AI? Z mojej perspektywy przede wszystkim ogromny wzrost produktywności. Automatyzacja rutynowych czynności: maili, raportów, podań, przerzucania informacji między systemami. Polska jest tu dobrym przykładem — jeszcze niedawno wyrobienie dziecku dowodu oznaczało serię wizyt w urzędach i zakładzie fotograficznym; dziś robimy to przez aplikację mObywatel. To są godziny odzyskanego czasu.

Natomiast nie wierzę w świat, w którym przestajemy pracować. Paradoks Jevonsa mówi jasno: kiedy coś staje się tańsze i bardziej efektywne, robimy tego więcej. Tańszy rezonans magnetyczny nie zmniejszył liczby badań — zwiększył ją. Vibe coding nie zmniejszył liczby programistów — spowodował eksplozję kodu, z którego często korzysta tylko autor.

Tak samo z jedzeniem: kiedyś było zbyt drogie, by je marnować; dziś wyrzucamy ogromne ilości, bo produkcja jest tania. W świecie software’u koszt marginalny jest jeszcze niższy, więc produkujemy go w nadmiarze. AI przyspieszy ten proces.

KB: Chciałbym zapytać o Europę. Działa pan globalnie, ale jest pan zanurzony w rzeczywistości Polskiej i europejskiej, a także obecny w strukturach, które tworzą ramy normatywne — choćby AI Act. Czy europejski styl biurokratyczny to hamulec, czy przewaga?

KW: Najpierw muszę obalić pewien mit: to nie regulacje są główną przyczyną technologicznej słabości Europy. Są nią brak kapitału i brak jednolitego rynku. Stany Zjednoczone mają oba. My — wciąż nie.

Europa potrzebuje wspólnego budżetu na AI, dużego wspólnego długu i silnych ośrodków badawczych. Euro powinno stać się realną globalną walutą. W ten sposób aspekt rozwoju technologii jest także geopolityczny.

Nie chodzi o to, by Polska „dominowała” w Unii — tak jak stan Georgia nie dominuje nad USA — lecz by była silnym regionem w silnej całości. Wspólny podatek cyfrowy powinien być wprowadzony na poziomie unijnym. Unia potrafiła narzucić standard USB-C nawet Apple. To jest realna siła regulacyjna.

Mamy europejskie sukcesy: Spotify, Booking.com, w Polsce CD Projekt czy InPost. Problem w tym, że nie potrafimy skalować ich kapitałowo w skali kontynentu.

Moje stanowisko jest proste: więcej integracji gospodarczej, więcej wspólnego finansowania innowacji. Polityka idzie dziś w przeciwną stronę, więc brzmi to jak głos wołającego na puszczy. Ale bez tego będziemy producentem pomysłów, które komercjalizują inni.

KB: A gdyby pan spróbował — mimo wszystkich wspomnianych ograniczeń, barier — sformułować pozytywny program rozwijania AI w Polsce, realnie, tu i teraz, bez futurologii.

KW: Zacznijmy od rzeczy najprostszej i najrzadziej wypowiadanej wprost: Polska jest dziś jednym z najbardziej dynamicznie rozwijających się krajów Unii. Mamy wzrost gospodarczy, mamy — użyję nieco staroświeckiego określenia — nadzwyczajną koncentrację mądrych głów. Talent to modne słowo; ja wolę mówić o inteligencji i pracowitości. Wystarczy spojrzeć na środowisko skupione kiedyś wokół Funduszu Zdolni. To stamtąd wyszedł Wojciech Zaremba, współtwórca OpenAI, ale też dziesiątki innych ludzi, którzy dziś budują największe spółki technologiczne świata. Ja również byłem częścią tego programu i należę do tej grupy, która zdecydowała się zostać w Polsce — i to jest wybór równie sensowny jak kariera globalna.

Dlaczego wielu z nich wyjechało? Bo tam mieli infrastrukturę, finansowanie, ośrodki badawcze, które działają w skali, o jakiej my dopiero rozmawiamy. Jeżeli chcemy odwrócić ten trend, potrzebujemy uczelni i laboratoriów finansowanych na poziomie naprawdę konkurencyjnym. I musimy zaakceptować rzecz, która w polskiej kulturze inwestycyjnej wciąż brzmi podejrzanie: większość projektów innowacyjnych kończy się porażką. Z tych, o których dziś opowiadałem, znaczna część najprawdopodobniej nie przetrwa. Ale jeśli jeden odniesie globalny sukces — powiedzmy, że będą to smart-obroże — to zwrot z inwestycji w podatkach, w miejscach pracy, w kolejnych firmach zakładanych przez ludzi z „exitu”, będzie milionowy.

Mamy już przykład spółki o polskim DNA, choć formalnie niepolskiej — ElevenLabs. Pięć lat działalności i wycena rzędu jedenastu miliardów dolarów. Dla porównania: to około 10 procent wyceny Orlenu. To pokazuje skalę istniejącą w technologiach. Pytanie brzmi nie, czy to jest możliwe, lecz dlaczego takie firmy powstają w Londynie, a nie w Warszawie.

Odpowiedź jest boleśnie prozaiczna: prawo. Nie wysokość podatków — te w Polsce wcale nie są szczególnie wysokie — tylko ich złożoność i nieprzejrzystość. U nas tworzy się kolejne prawne nakładki, kolejne wyjątki. Przedsiębiorca, który sprzedaje firmę, często nie płaci dziewiętnastu procent podatku od zysków kapitałowych, lecz — po doliczeniu daniny solidarnościowej — dwadzieścia trzy. To jest sygnał demotywujący, zwłaszcza gdy istnieją legalne konstrukcje pozwalające tego uniknąć przez przeniesienie aktywów do fundacji rodzinnej albo za granicę. I to się działo masowo.

Chcemy w Polsce ludzi takich jak Paweł Marchewka z Techlandu — ludzi, którzy po sprzedaży firmy reinwestują kapitał w kolejne przedsięwzięcia, budują ekosystem, kupują — owszem — samochody i hotele, ale przede wszystkim finansują nowe spółki. Tak pracuje kapitał. Przy stawce dwudziestu trzech procent jest niemal pewne, że takie transakcje będą strukturyzowane poza tym reżimem podatkowym.

Dlatego zamiast kolejnych programów strategicznych potrzebujemy radykalnego uproszczenia prawa gospodarczego i realnej deregulacji — mierzonej nie konferencjami prasowymi, lecz liczbą zmienionych ustaw.

KB: Chciałbym dotknąć jednego wątku — bliskiego nazwie pana firmy Escola i temu, czym pan się zajmuje prywatnie. Jak w epoce AI powinien zachować się odpowiedzialny rodzic i odpowiedzialna szkoła?

KW: Odpowiem nie jako prezes, tylko jako ojciec trójki dzieci. Moja zasada jest prosta i wielu osobom wyda się radykalna: brak mediów społecznościowych co najmniej do trzynastego roku życia, a być może do szesnastego. Traktuję je jak alkohol. Uzależniają, są neurobiologicznie szkodliwe, wywołują skoki dopaminy i permanentne pobudzenie. Dzieci nie powinny pić alkoholu, energetyków — i nie powinny korzystać z social mediów. Są państwa, które wprowadzają to ustawowo. Uważam, że podobną debatę powinna przeprowadzić Unia Europejska. Co innego komunikatory — tu diabeł tkwi w szczegółach — ale sama idea jest dla mnie jasna.

Druga sprawa to sztuczna inteligencja w edukacji. To narzędzie może być protezą myślenia albo jego katalizatorem. Jeżeli dziecko używa go do pogłębiania wiedzy — do tworzenia quizów, gier edukacyjnych, wspólnej zabawy z rodzicem — to jest to wspaniałe. Jeżeli generuje gotowe eseje, których nie rozumie, mamy do czynienia z fundamentalnym kryzysem modelu edukacyjnego.

Dlatego na uczelni robię rzecz bardzo prostą: proszę studentów o wystąpienia na żywo. Wygenerowałeś prezentację — opowiedz mi ją. Nie czytaj slajdów. Zrozum, co tam jest. Tego samego wymagam w firmie. Nie interesuje mnie „AI-slop” — dokumenty produkowane masowo i bezrefleksyjnie. Interesuje mnie człowiek, który potrafi wyjaśnić sens tego, co wygenerowała maszyna.

Gdybym miał sformułować dwa postulaty: po pierwsze — radykalne ograniczenie mediów społecznościowych w życiu dzieci. Po drugie — bezwzględne egzekwowanie rozumienia treści tworzonych z pomocą AI. Reszta — wszystkie wielkie reformy edukacji — i tak nas czeka, bo system w obecnej formie nie przetrwa.

--

Dr Krzysztof Wojewodzic – naukowiec i strateg technologiczny specjalizujący się w AI. Założyciel i CEO Escola S.A., jednej z najszybciej rosnących firm technologicznych w Europie według rankingu Deloitte Fast 500 oraz Financial Times, zajmujacej się wdrożeniemi AI w biznesie. Przez technologiczną transformację przeprowadził ponad 100 przedsiębiorstw, a w ramach programu AI_Managers przeszkolił blisko 2500 menedżerów. Zarządza przełomowymi badaniami i projektami wdrożeniowymi AI o łącznej wartości ponad 60 mln PLN.

Czytaj także

Najciekawsze artykuły i wywiady wprost na Twoją skrzynkę pocztową!

Administratorem Państwa danych osobowych jest Fundacja Best Place Europejski Instytut Marketingu Miejsc z siedzibą w Warszawie (00-033), przy ul. Górskiego 1. Z administratorem danych można się skontaktować poprzez adres e-mail: bestplace@bestplaceinstitute.org, telefonicznie pod numerem +48 22 201 26 94 lub pisemnie na adres Fundacji.

Państwa dane są i będą przetwarzane w celu wysyłki newslettera, na podstawie prawnie uzasadnionego interesu administratora. Uzasadnionymi interesami administratora jest prowadzenie newslettera i informowanie osób zainteresowanych o działaniach Fundacji.

Dane osobowe będą udostępniane do wglądu dostawcom usług IT w zakresie niezbędnym do utrzymania infrastruktury IT.

Państwa dane osobowe będą przetwarzane wyłącznie przez okres istnienia prawnie uzasadnionego interesu administratora, chyba że wyrażą Państwo sprzeciw wobec przetwarzania danych w wymienionym celu.

Uprzejmie informujemy, iż przysługuje Państwu prawo do żądania od administratora dostępu do danych osobowych, do ich sprostowania, do usunięcia, prawo do ograniczenia przetwarzania, do sprzeciwu na przetwarzanie a także prawo do przenoszenia danych (o ile będzie to technicznie możliwe). Przysługuje Państwu także możliwość skargi do Urzędu Ochrony Danych Osobowych lub do właściwego sądu.

Podanie danych jest niezbędne do subskrypcji newslettera, niepodanie danych uniemożliwi wysyłkę.