Otwórz schowek Brak ulubionych odcinków
Przyczółki ludzkości. Gdzie sztuczna inteligencja nie sięgnie? | prof. Włodzisław Duch

Przyczółki ludzkości. Gdzie sztuczna inteligencja nie sięgnie? | prof. Włodzisław Duch

Pobierz Dodaj do ulubionych

Udostępnij odcinek

Pobierz Dodaj do ulubionych

Udostępnij odcinek

Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

prof. Włodzisław Duch

prof. Włodzisław Duch

Kierownik Laboratorium Neurokognitywnego na Uniwersytecie Mikołaja Kopernika w Toruniu oraz zespołu Neuroinformatics and Artificial Intelligence w University Centre of Excellence Dynamics, Mathematical Analysis and Artificial Intelligence. Pracownik Katedry Informatyki Stosowanej w Instytucie Nauk Technicznych UMK.

To był szczególny odcinek – dwusetny – zrealizowany na żywo z udziałem publiczności. Temat? Jeden z najważniejszych ostatnich lat: sztuczna inteligencja, jej mechanizmy i potencjalne skutki społeczne gwałtownego rozwoju tej technologii.

Odcinek już w poniedziałek 20.05 można było śledzić na żywo na YouTube, dziś publikujemy go na pozostałych platformach po obróbce dźwiękowej, aby słuchało się jak najprzyjemniej.

Gościem tego wyjątkowego dla nas wydarzenia był prof. Włodzisław Duch z Instytutu Nauk Technicznych, Uniwersytetu Mikołaja Kopernika w Toruniu, od dekad zajmujący się zagadnieniami  sztucznej inteligencji, ale także kognitywistyki – czyli nauki o poznaniu.

Rozmawialiśmy na ile podobne jest funkcjonowanie sztucznych sieci neuronowych to tych biologicznych. Pytałam, czy AI realnie myśli, czy to myślenie imituje? Czy może jest jak Mądry Koń Hans* – stara się zadowolić pytającego, nie dbając o poprawność odpowiedzi? Czy AI potrafi być krytyczna wobec danych? Czy jest naiwna?

Szukałam też w rozmowie z prof. Duchem odpowiedzi na pytanie, czego AI jeszcze nie umie. Bo umie sporo: potrafi programować na zamówienie w języku naturalnym użytkownika, komponować muzykę w konkretnym stylu – mamy np. „nowe utwory” Elvisa Presleya czy dokończoną X symfonię Beethovena; tworzyć przepisy na obiad, grafiki, grafiki wyglądające jak zdjęcia żywych osób; tworzyć wideo, projektować buty, ubrania, pisać maile, kompilować notatki, pomagać w podejmowaniu decyzji, albo przybrać rolę Sokratesa; tłumaczyć, uczyć… i oczywiście wybornie grać w go czy w szachy.

Pytałam wreszcie, czy AI jest kolejnym przewrotem kopernikańskim, odbierającym wyjątkowość naszemu umysłowi? I czy politycy widzą skalę nadchodzącej zmiany na rynku pracy i wyzwań z tym związanych (tu akurat nie było ze strony prof. Ducha optymizmu).

Gorąco polecam całą, długą dyskusję. Na końcu usłyszycie znakomite pytania z publiczności!

Odcinek zrealizowaliśmy na żywo w Klubie Outriders  – dziękujemy raz jeszcze za świetną obsługę, opiekę i atmosferę!

 

*  Mądry Koń Hans odpowiadał na pytania matematyczne, o kalendarz, itp. Był sensacją początków XX wieku w Europie, aż odkryto nie tyle zna odpowiedzi, co umie odczytywać mikro oznaki zadowolenia pytającego, na co reagował i przestawał stukać kopytem (taki był sposób komunikacji). Sprawa wyszła na jaw, gdy pytający Hansa nie znał odpowiedzi – koń natychmiast się gubił. Moim zdaniem, Hans mimo, że nie rozumiał matematyki, był niezwykle mądry inteligencją emocjonalną i nadal zasługuje na wielką sławę. O Hansie opowiedział mi dr Mateusz Hohol w odc. 66 „Umysł matematyczny: dlaczego ludzie potrafią całkować, a szympansy nie?”

 

TRANSRYPCJA

 

Karolina Głowacka: Dobry wieczór państwu. Rozpoczynamy jubileuszowy dwusetny odcinek Radia Naukowego na żywo w klubie Outriders w Warszawie. Ja się nazywam Karolina Głowacka, a Radio Naukowe to podcast o tym, co wiemy i skąd to wiemy. A gościem jest profesor Włodzisław Duch. Dzień dobry, a raczej dobry wieczór.

 

Włodzisław Duch: Niemożliwe, żebyście państwo ducha w dzień widzieli. [śmiech]

 

K.G.: Takie rzeczy tylko w Radiu Naukowym. Profesor Duch z Instytutu Nauk Technicznych, Uniwersytet Mikołaja Kopernika w Toruniu. Profesor od dekad – proszę wybaczyć, że tak wypomnę wiek, ale w tym kontekście jest to akurat przydatne – zajmujący się zagadnieniami sztucznej inteligencji, a także kognitywistyki, czyli nauk o poznaniu. Jest to ważne w kontekście naszej dzisiejszej rozmowy. Jest również współautorem m.in. książki Kosmos i życie, w której możecie znaleźć rozważania na temat funkcjonowania umysłu. Jeszcze raz dobry wieczór wszystkim zgromadzonym w klubie Outriders, oglądającym nas na żywo i gorąco liczę, że będzie to nasza wspólna dyskusja, komentarze, pytania. Bo temat sztucznej inteligencji jest szeroki i wydaje się, że w zasadzie każdego i każdej z nas będzie dotyczył. Dziękuję serdecznie społeczności patronek i patronów, dzięki którym od ponad trzech lat w każdy czwartek o ósmej rano publikujemy świeżo przygotowany odcinek i możemy rozszerzać naszą działalność m.in. o takie spotkania jak to. Pierwsze spotkanie tego typu organizujemy na naszym terenie, bo jesteśmy z Warszawy, ale obiecujemy wszystkim patronom i nie tylko, słuchaczom z całego kraju, że będziemy jeździć z takimi spotkaniami. Nasze spotkanie zatytułowaliśmy „Przyczółki ludzkości. Gdzie sztuczna inteligencja nie sięgnie?” i muszę przyznać, że im bardziej się zagłębiałam w ten temat, tym bardziej czułam się skołowana. W pewnym sensie założyłam garderobę żałobną, bo to naprawdę wygląda niepokojąco. [śmiech] Zobaczymy, na ile sobie z tym wszystkim poradzimy. Chciałabym na początek porozmawiać o tych różnicach i podobieństwach, jeśli chodzi o sam proces myślenia czy uczenia się. Mówimy „sztuczne sieci neuronowe” – na ile one są podobne w swoim funkcjonowaniu do tych biologicznych neuronów?

 

W.D.: Może najpierw podziękuję za zaproszenie dlatego, że naprawdę świetna impreza i w ogóle cała działalność, Radio Naukowe jest niezwykle ważne. Jak państwo wiecie, jest zalew pseudonauki różnego rodzaju. Naprawdę szlag mnie trafia, jak otwieram wiadomości, które mi przesyła Microsoft – są tam same śmieci. Strach na to patrzeć. Więc jeśli nie będziemy się bronić i próbować używać rozumu, to zupełnie ugrzęźniemy w jakichś takich głupotach. Więc wydaje mi się, że tego typu imprezy są niezwykle ważne. Po drugie, jeśli chodzi o sztuczną inteligencję, to wiecie państwo, że każdy jest teraz ekspertem. Ale problem jest też taki, że jeśli ktoś jest ekspertem od informatyki, czyli jest ekspertem od sztucznej inteligencji, podobnie jak ja byłem w latach dziewięćdziesiątych, kiedy zaczynaliśmy, to potrafi tworzyć różne algorytmy, rozumie je. Ale nie ma prawie takich ludzi, którzy rozumieją coś na temat tego, co się dzieje w mózgu. Wydaje im się, że w mózgu mamy duszę, a ta dusza jest jakaś taka magiczna. I w związku z tym nigdy nie da się czegoś podobnego zrobić. Mnóstwo głupot na ten temat możecie państwo znaleźć w wypowiedziach informatyków, matematyków, również medyków, którzy uważają, że to jest tak skomplikowane, że niczego podobnego się nie da zrobić. To jest wszystko pomyłka, oni nie mają żadnych argumentów. Patrzą na postęp, jaki się w tej chwili dzieje, i cały czas powtarzają to, co im się wydaje. Słyszycie państwo mnóstwo opinii, ale bardzo mało uzasadnionych argumentów. I jest pewien sprzeciw przeciwko takiemu pomysłowi, że ta sztuczna inteligencja może się stać czymś podobnym do nas. W pełni nie, ale jednak w istotnych elementach. I ludzie się strasznie przed tym bronią, wymyślając różne testy, żeby pokazać, że jednak człowiek jest lepszy, bardziej kreatywny. Jaki człowiek? Jest osiem miliardów ludzi. Jaki procent jest rzeczywiście tak kreatywny, że stworzy taki obraz jak Midjourney albo napisze taki poemat na temat matematycznych twierdzeń, jaki napisał GPT4? Prawie nie ma takich ludzi, jeśli w ogóle są. W naszych głowach są neurony i mnóstwo innych rzeczy. Ale do czego służą te wszystkie biologiczne rzeczy? Do tego, żeby utrzymać przy życiu komórki. Wszystkie komórki glejowe, mnóstwo neurotransmiterów itd. Ta cała regulacja organizmu nie jest potrzebna do inteligencji. Tak się przynajmniej wydaje. Widzimy postęp, który nie zależy od tego, że modele, które robimy, to są strasznie proste elementy, które nie działają tak, jak prawdziwe neurony. Możemy czasami przeczytać, że potrzebny jest superkomputer, żeby symulować w szczegółach prawdziwy neuron. Tylko po co? Human Brain Project wydał miliard dolarów. Nie widać, żeby cokolwiek zrozumieli. Ale udało im się zmapować trzy tysiące różnych typów neuronów, różne procesy biochemiczne itd. Jesteśmy dalecy od zrozumienia tego, co się dzieje na tym poziomie molekularnym, bo on jest niesłychanie skomplikowany. Pytanie, czy rzeczywiście jest to nam konieczne do tego, żeby stworzyć coś, co działa w inteligentny sposób, taki jak człowiek, czy też, żeby miało pewne wyobrażenie o sobie, taką autorefleksję, którą będziemy utożsamiać z jakąś samoświadomością? Wydaje się, że nie ma żadnych argumentów, że musimy odwzorować każdy neuron. Ostatnio było dużo szumu, że udało się dokładnie zmapować milimetr sześcienny kory mózgu. Można to robić, tylko z tego nic nie wynika. Kilkanaście lat temu zakończył się projekt Blue Brain – to był ogromny projekt, na który wydano mnóstwo pieniędzy, IBM oddał swoje superkomputery, była tam piąta najszybsza instalacja na świecie, Henry Markram robił to w Lozannie. Ja przez pewien czas byłem prezesem European Neuron Network Society i organizowałem taką konferencję w Porto. Zaprosiłem Markrama, żeby przedstawili rezultaty Blue Brain. Pokazali, że mają trzydzieści tysięcy neuronów, miliony połączeń, coś tam błyska, coś tam lata, nic z tego nie zrozumieli. Całe to podejście od dołu, bardzo szczegółowe, „zmapujmy wszystko po kolei” – nie wydaje się, że doprowadzi nas do jakiegokolwiek rozumienia tego, jak działają mózgi i zrobienia jakiejś lepszej sztucznej inteligencji. 

Natomiast, jeśli popatrzylibyście państwo na to, co w tej chwili wiemy o tym, jak odczytywać to, co mamy w mózgu, to naprawdę potrafimy zrobić bardzo dużo. Przede wszystkim za pomocą takich bardzo prymitywnych metod, niemniej bardzo kosztownych – rezonans funkcjonalny, który mamy w naszym laboratorium, to jest dziesięć milionów – on potrafi podglądać, co się dzieje w czasie, kiedy coś wykonujemy, myślimy, z naszymi neuronami, a właściwie z grupami neuronów, które są w okolicy czasem nawet ułamka milimetra, więc dość dokładnie. I tych takich małych sześcianików, gdzie możemy patrzeć, ile tam krwi dopływa, ile się zużywa tlenu, jak ciężko pracują te nasze neurony, jest np. pięćdziesiąt tysięcy. Więc bardzo duża liczba informacji. Patrzymy, co się dzieje w różnych częściach mózgu, i na tej podstawie jesteśmy w stanie odczytać, co sobie państwo wyobrażacie. Pierwsze prace na ten temat były jakieś siedem lat temu, głównie w grupie ATR w Kioto. Najpierw nauczono system – ludzie oglądali sto różnych obrazków i patrzono, jak wyglądają te rozkłady aktywacji, głównie w obszarach wzrokowych, po czym jak się pojawił nowy obrazek, próbowali analizować ten rozkład, wyciągać z niego cechy obrazu i szukać w wielkiej bazie stu tysięcy obrazów, który obraz najlepiej pasuje. I nagle się okazało, że możemy niezbyt dokładnie, ale jednak zobaczyć to, co ludzie widzą czy sobie wyobrażają. Więc widać, że jesteśmy w stanie odczytać, co się dzieje z tymi grupami neuronów. I każda aktywacja tej grupy to jest pewien parametr. Tych parametrów możemy mieć, powiedzmy, pięćdziesiąt tysięcy. Ale tak naprawdę jest ich dużo więcej, bo neuronów mamy w korze szesnaście miliardów, połączeń pomiędzy nimi tysiąc razy więcej. W związku z tym jest to niesłychanie skomplikowany system. Te szesnaście miliardów to jest nasza liczba parametrów. Ale w tej chwili mamy te duże modele językowe, które mają bilion parametrów, tysiąc miliardów. Co prawda są to inne parametry, prostsze neurony, ale potrafią one odwzorować tę aktywację, którą mamy i która powoduje, że zaczynamy sobie coś wyobrażać, jakaś melodia chodzi nam po głowie albo jakiś obraz. Co więcej, taka praca sprzed siedmiu lat pokazała, że jeśli mamy makaka, który ogląda zdjęcia ludzi, i mamy zaledwie dwieście pięć elektrod wkłutych w jego korę wzrokową z tyłu, to to wystarczy, żeby na podstawie analizy impulsów, które te neurony produkują, zrobić niemal idealne odtworzenie tego, co on widzi. To był szok dla wszystkich. Bo możecie państwo usłyszeć nawet od kolegów z fizyki, że to jest tak skomplikowane, miliardy neuronów. Dwieście pięć elektrod wystarczyło, żeby odtworzyć w praktycznie idealny sposób ludzkie twarze, które ogląda makak. To nie jest tak, że tam jest jakaś magia.

 

K.G.: Widziałam na pana prezentacjach to, w jaki sposób odczytywane były te obrazy, i to było jednak dość wstrząsające – Jezus Maria, naprawdę czytają już w myślach. Dosłownie. Mamy pogotowie i było odwzorowane, że jest to pogotowie. Nieidealnie, ale koncept był odwzorowany. Czyli jeśli dobrze rozumiem, mówi pan, że owszem, nasze mózgi są szalenie skomplikowane, ale nie są potrzebnie tak skomplikowane, bo są wynikiem wieloletniej, wielomilionowej ewolucji itd. i każdy, kto choć trochę liznął ewolucji, wie, że to nie jest tak, że jest to jakiś projekt i wszystko jest idealne, tylko coś działało, coś nie działało, coś adaptujemy, coś wyrzucamy, coś zostało. Bo przecież faktem jest, że liczba sztucznych połączeń neuronowych jest mniejsza niż to, czym dysponujemy my jako ludzie, a i tak potrafią rzeczy niezwykłe. 

 

W.D.: Liczba parametrów dochodzi w tej chwili do dwóch bilionów, czyli dwóch tysięcy miliardów, podczas gdy mamy sto tysięcy. To jest czynnik pięćdziesiąt. W ciągu paru lat ten czynnik zniknie. Akurat nie chodzi o samą liczbę parametrów, bo z jednej strony widzimy, że powstają coraz większe modele, które początkowo miały parę miliardów, potem setki miliardów, a teraz mają parę bilionów. Z drugiej strony widzimy, że ludzie trenują dużo mniejsze modele. Ostatnio jest dużo szumu wokół takiego modelu, który się nazywa LAMA3. Siedemdziesiąt miliardów, ale dobrze wytrenowanych. Może państwo widzieli, że w ubiegłym tygodniu pokazano np. GPT4O. Okazało się, że jest to system, który jest wytrenowany przez takie GPT4. I podobnie w przypadku tych Googlowych systemów, które są w stanie tak dobrze trenować te mniejsze systemy, że one robią prawie dokładnie to, co trzeba. Tak czy inaczej, jeśli popatrzymy, jak wygląda opis tego, co się dzieje w naszych mózgach, to możemy sobie wyobrazić, że mamy do czynienia z pewnego rodzaju tablicą, macierzą, gdzie widać aktywację w różnych obszarach. Można to przedstawić w postaci wektora. To jest to, co mamy w tych dużych modelach. I struktura relacji pomiędzy tymi wektorami wydaje się, że jest bardzo podobna. To też wiemy od dziesięciu lat – że to, jak wygląda podobieństwo rozkładów, kiedy myślimy o różnych rzeczach, prowadzimy jakieś eksperymenty, jest niejako odwzorowywane w tych sztucznych modelach. Oczywiście to nie jest tak, że jesteśmy w stanie odwzorować dokładnie treść świadomości, bo ta treść zależy od naszego doświadczenia, tak naprawdę od całego życia, ale też od naszej biologii. I ona jest bardzo różna u każdego z państwa. W ogóle nie mamy sposobu, żeby zobaczyć, jak ona się różni. I jesteśmy coraz bardziej zaskakiwani tym, że nagle ktoś odkrywa, że są kobiety, które mają cztery czopki i widzą w nadfiolecie. Fajnie, nikt tego wcześniej nie wiedział, a tu się okazuje, że niektórzy ludzie mają inne – szersze albo węższe – wrażenia. To, że wąskie to wiemy, bo niektórzy ludzie nie dowidzą albo nie dosłyszą i mają zubożone wrażenia, ale to, że mają szersze, to jest pewne zaskoczenie. A niektórzy ludzie np. zupełnie nie rozpoznają swoich emocji. To się nazywa aleksytymia. Naprawdę jest ogromna grupa różnego rodzaju doświadczeń bycia w świecie, którą w dalszym ciągu uważamy za świadomą. Więc pytanie, co jest tą minimalną świadomością? Ludzie uważają, że świadomość to jest taki święty Graal, którego nie można dotykać, że w żaden sposób te systemy nie mogą podobnie się zachowywać, bo wymyślają kolejne słowa. To jest zupełna głupota. Każdy, kto widział, jak to działa, jak można z tym rozmawiać, powinien próbować sobie wyobrazić, jak można to zrobić, wymyślając kolejne słowa. 

 

K.G.: Kiedy jest pan pytany o kwestie świadomości, często przywołuje pan bota Sofi, która, pytana, czy ma świadomość, mówi, że ma świadomość, ma życie wewnętrzne, ma pamięć i ma plany na przyszłość. Ja z Sofi nie rozmawiałam. Przyznaję, że większość moich doświadczeń to jest pewnie ta AI, której nawet nie zauważam, a z tych bardziej popularnych to chat GPT. Oczywiście pospieszyłam do niego, zapytać, czy jest świadomy. On mówi, że nie, że jest tylko modelem językowym, że jest tylko po to, żeby pomagać w odpowiadaniu na pytania. No to pytam: a może mnie teraz okłamujesz? Nie, nie itd. Moje pytanie jest takie: skąd mam wiedzieć, kto mówi prawdę? Czy chat GPT, czy Sofi? Dlaczego pan nas przekonuje, że nie może być tak, że ona została zaprogramowana, żeby tak powiedzieć?

 

W.D.: To nie jest zaprogramowany system. Od czego zaczyna się sztuczna inteligencja? Kiedy nie potrafimy napisać programu, to tam potrzebna jest sztuczna inteligencja. Jak potrafimy napisać program, to jest to zwykły program.

 

K.G.: Chat GPT jest zwykłym programem? No bo jednak on ma to wprogramowane, że „nie, nie jestem świadomy”.

 

W.D.: Ale to nie jest wprogramowane. On ma strukturę, która się może nauczyć dowolnej rzeczy, której chcemy go nauczyć. To jest jeden z większych problemów, jakie mamy z tymi sieciami, które będą się wlekły. Idea jest taka – czy da się coś takiego kontrolować? Wiecie państwo, że Ilya Sutskever, który był CEO, głównym inżynierem Open AI, do spółki z kolegami stworzyli taką podgrupę, która miała za zadanie utworzyć system, który byłby w stanie wymusić na dużych modelach językowych zachowanie, które jest zgodne z ludzkimi preferencjami? Moim zdaniem to jest w ogóle nie do zrobienia. Bo to jest tak, że jeśli mam dziecko, to możemy próbować je uformować, trenować. A potem się okazuje, że coś mu odbija dlatego, że w mózgu człowieka jest wiele procesów regulacyjnych – może to być spotkanie z kimś, jakiś wewnętrzny proces hormonalny, kto to wie. Ale w takich systemach takie rzeczy również się dzieją, bo jeśli system ma do czynienia z różnymi ludźmi, na szczęście się nie zmienia. To jest to, czego w tej chwili brakuje. Jak będziecie już mieli prywatne systemy – jak sądzę, w ciągu następnych paru lat – to będziecie mogli sobie uformować taki system. To znaczy, on będzie się wewnętrznie zmieniał. Można w nim wytworzyć osobowość, nawet w głupim AIBO, tym piesku. Moja żona się wyśmiewała z piesków AIBO, ale jak przyniosłem takiego do domu, jak zaczęła się z nim bawić, jak nauczyła go pewnych trików, to okazało się, że to jest jej piesek, bo ona tam wkłada swój wysiłek. Dlaczego lubimy takie rzeczy? Bo zamroziliśmy tam swój wysiłek. 

 

K.G.: Muszę przyznać, że nie rozumiem. Dlaczego Sofi odpowiada panu: tak, jestem świadoma, a mnie chat GPT odpowiada, że nie?

 

W.D.: Bo jedno i drugie w tej formie, w jakiej było, po prostu odpowiada to, co mu niejako kazano. 

 

K.G.: Czyli jednak zaprogramowane. Nie umiem złapać tej różnicy.

 

W.D.: Programowanie polega na tym, że mamy serię instrukcji, która jest wykonywana. Tutaj nie ma czegoś takiego. Tutaj jest tak jak w naszym mózgu – jeśli coś mi się zdarzy, to w moim mózgu coś się pobudza, kojarzy. To jest coś, co nazywamy w informatyce architekturą data flow. Czyli czymś, co jest sterowane przez dane, a nie przez instrukcję i wykonywanie jakichś instrukcji. Wtedy mamy program. A jeśli to jest coś, co reaguje na dane, a nie wiemy, jak zareaguje dlatego, że jest to bardzo skomplikowane, to nie możemy powiedzieć, że jest to zaprogramowane. To jest wyuczone. Ludzie starają się wyuczyć te systemy tak, żeby były jak najbardziej poprawne politycznie. Żaden z nich nie chce teraz rozmawiać o pewnych sprawach dlatego, że niejako tak go wyuczono i zabroniono mu, więc te systemy mówią w kółko: ja jestem tylko dużym modelem językowym. Kiedyś zapytałem np. jednej z wersji takiego systemu, jakie jest rozwiązanie problemu wojny izraelsko-palestyńskiej. Co taki wyuczony porządnie na Biblii system może powiedzieć? Jest proste rozwiązanie, ale nikt nie chce o nim mówić. I oczywiście, ten system w żaden sposób nie dotknie niczego, co byłoby związane z przemocą, z eliminacją kogoś itd., bo jest tak wyuczony.

 

K.G.: Ale w momencie, kiedy chat GPT4 jest już stale podłączony do sieci, to czy on nie jest jednak po prostu bardzo zaawansowaną wyszukiwarką? Oczywiście, że nieustannie robiłam te testy – „co Włodzisław Duch sądzi na temat sztucznej inteligencji?”. No i jakby co, to pochwalił, że specjalista, ale ostatecznie być może to jest po prostu megaszybka wyszukiwarka. Potrafi kompilować, ale nie potrafi myśleć.

 

W.D.: Jak nie potrafi myśleć? Jest szereg twierdzeń matematycznych, których matematycy nie potrafili ugryźć, a to zostało niejako wymyślone. W różnych zastosowaniach naukowych – Google pokazał tym swoim projektem Gnome, że mają dwa miliony dwieście tysięcy różnych struktur kryształów itd. Oczywiście to jest bardzo specjalistyczne. Żeby zrobić coś, co rzeczywiście jest odkryciem naukowym, trzeba ten system bardzo mocno wyspecjalizować i przygotować. Prawdą jest, że te systemy, które mieliśmy w tej chwili, czyli te różne czaty, to są systemy czysto skojarzeniowe. Jak pamiętamy, mamy w mózgu lewą i prawą półkulę. Jedna z nich głównie kojarzy, druga niestety musi ciężko logicznie weryfikować to, co ta druga skojarzyła. Tak że to jest konieczne.

 

K.G.: A co robi chat GPT? Jest prawą czy lewą półkulą?

 

W.D.: No właśnie głównie prawą dlatego, że dotychczas mieliśmy systemy logiczne, oparte na regułach, które dawały nam prawdziwe rozwiązania. I to było coś, co nazywamy teraz bardzo ładnie GOFAI, czyli good old-fashioned AI. To jest to stare AI, które królowało do, powiedzmy, dwutysięcznego roku. Jeszcze Alan Turing w tysiąc dziewięćset pięćdziesiątym roku napisał, że są dwa sposoby robienia sztucznej inteligencji. Jeden jest taki, że stworzymy dostatecznie szczegółowy opis różnego rodzaju wiedzy i że da się jakoś zmechanizować sposób jej używania. A drugi jest taki, że będziemy tak jak dziecko uczyć takiego robota od początku. Tylko że do mniej więcej dziesięciu lat temu nikt nie potrafił zrobić bardzo dużych modeli, bo małe modele wiele nie kojarzą. Są dwie rzeczy, które powodują, że system może być kreatywny. Jeśli mamy strasznie dużo informacji, np. cały internet, dziesięć trylionów słów, i dokonamy pewnej kompresji po to, żeby ten system jakoś wiedział mniej więcej, co w tym internecie jest, on tego nie zapamięta szczegółowo, chyba że ma dziesięć trylionów parametrów. Żaden system tyle nie ma.

 

K.G.: Czyli chat GPT nie ma pamięci absolutnej? On kojarzy.

 

W.D.: On ma w ogóle bardzo kiepską pamięć, tak jak każdy z nas. Jeśli byliście państwo zmuszani do nauki pewnych wierszy w dzieciństwie, to może jeszcze pamiętacie kawałek Gałczyńskiego, ale tylko kawałek, bo reszta się rozmywa. Nie ma dobrej pamięci, ale ma ogólne wyobrażenie o tym, co było w tym tekście. Można to robić na dwa sposoby. Jeden jest taki, że próbujemy dokonać maksymalnej kompresji. Są różne wersje np. tej LAMY – jednobitowa, dwu-, cztero-, ośmio-. Ośmiobitowa potrafi zapamiętać jakieś fragmenty. Im bardziej rozbudowany system, im ma więcej parametrów, tym lepiej potrafi coś zapamiętać, co było w oryginalnym tekście. Ale wtedy gorzej kojarzy dlatego, że jeśli mam informację, która jest rozrzucona po setkach różnego rodzaju książek, i mam teraz skojarzyć, że w jednej książce było coś, co jest bardzo istotne do czegoś, co było w drugiej, to ja tego nie potrafię zrobić. Bo muszę wyszukiwać w tym całym ogromnym dziesięciotrylionowym zbiorze czegoś, co wydaje mi się, że będzie kojarzyć. To jest to, co robiliśmy do dwutysięcznego roku. Jeśli chcieliśmy zobaczyć, która reguła może być dopasowana do sytuacji, to trzeba było próbować dopasowywać wszystkie. I to kosztowało strasznie dużo czasu, i nie działało za dobrze.

 

K.G.: Jak wiemy, wielkie modele językowe, takie jak chat GPT, potrafią konfabulować. To znaczy, one rzadko kiedy powiedzą: nie wiem. Chyba każdy, kto się z tym bawił, spotkał się z czymś takim. Pamiętam pana argumentację, że mówił pan: to jest jak ze studentami, przecież też konfabulują. Zgoda, przy czym jednak zwykle studenci czy studentki wiedzą, że konfabulują. 

 

W.D.: Nie zawsze. Studenci może jeszcze czasami, ale wiem, że moi byli szefowie zawsze konfabulowali i się upierali przy swoim. To jest bardzo częste. [śmiech]

 

K.G.: No dobrze, to załóżmy, że przynajmniej pewien odsetek. Ale czy te modele wiedzą, że konfabulują? Czy wiedzą, że ściemniają?

 

W.D.: Oczywiście. Jeśli się im powie: aha, zrobiłeś błąd, przyjrzyj się jeszcze raz temu, co mi tutaj piszesz, natychmiast starają się poprawić. Czasami jest naprawdę wiele iteracji i za każdym razem model się poprawia. To jest jeden z problemów, że one się bardzo łatwo wycofują z tego, co powiedziały, chociaż czasami może mają rację, ale zaczynają wtedy szukać innych rozwiązań. Gdybyśmy doprowadzili do bardzo silnej kompresji wszystkiego, to w końcu wszystko się miesza ze wszystkim. Jak łykniemy jakieś pigułki, to są takie badania mózgu pod wpływem psylocybiny, które pokazują, jak mózg przesyła informacje we wszystkie możliwe strony. Ludzie mają wrażenie, że złapali Pana Boga za nogi, że wszystko rozumieją, po czym się okazuje, że to jest nic niewarte i w ogóle pomieszanie wszystkiego ze wszystkim. Z drugiej strony, jeśli ktoś ma hiperpamięć, to pamięta wiele rzeczy i prawie nic nie kojarzy. Niektóre osoby, które miały taką superpamięć, skończyły bardzo źle. W związku z tym jest pewna równowaga pomiędzy tym, jak kreatywny może być system kojarzący i jak szczegółowo on pewne rzeczy będzie pamiętać.

 

K.G.: Ale właśnie wydaje mi się, że skoro modele czasami konfabulują, ale jak się im zwróci uwagę, to się wycofują, ale też czasami wycofują się z tego, co było poprawne, to to wygląda na coś, co zasadniczo kompletnie nie ma krytyki źródeł. Nie wie, co jest prawdą, nie umie ocenić, czy konkretne dane są wiarygodne, czy nie. Nie mówię, że każdy człowiek to potrafi, bo wiemy, że jest z tym globalny problem, ale mimo wszystko przynajmniej wytrenowana część z nas potrafi to robić. 

 

W.D.: Ma pani zupełną rację. Potrzebujemy również lewej półkuli, która będzie weryfikować to, co tworzy prawa. Prawa tworzy mnóstwo hipotez. Jeśli poczytać na temat kreatywności, to widać, że osoby, które były bardzo kreatywne, niektóre z nich dostały Nagrody Nobla, to są ludzie, którzy bez przerwy pletli androny. Od czasu do czasu mając dobrych studentów, któryś z tych andronów zostanie zweryfikowany i okaże się bardzo ważny. Ale wiele rzeczy z tego, co mówili, okazało się zupełną halucynacją. Jest parę przykładów tego, jak Einstein się mylił. Fizycy, którzy doszli do naprawdę bardzo ważnych rozwiązań, mylili się na początku bardzo często. To nie jest tak, że możemy wytwarzać sobie różnego rodzaju hipotezy. Potrzebujemy je weryfikować. Chat tego nie ma. Weryfikacja to było coś, co robiono, kiedy jeszcze mieliśmy tę starą sztuczną inteligencję, która weryfikowała wszystko, miała zawsze rację, tylko niczego nie mogła wymyślić. Teraz mamy systemy, które wymyślają mnóstwo rzeczy, tworzą różne fantazje, obrazy, melodie itd., ale nie weryfikują tego. Musi być pewna równowaga pomiędzy tym stopniem kompresji, tymi halucynacjami czy hipotezami, które robi system, i naszą zdolnością do ich weryfikacji. 

Jest kilka technik, które próbują to zrobić. Jedna z nich to oczywiście RAG, czyli Retrieval-Augmented Generation. Pomysł taki, że system coś wymyśli, ale musi to zweryfikować. I on wtedy szuka w internecie. Próbuje znaleźć wiadomości, które by potwierdziły jego przypuszczenia. Na początku ludzie powiedzieli: mamy neurony połączone w taką sieć. Koneksjonizm powstał jeszcze w latach siedemdziesiątych, później w osiemdziesiątych to się rozwijało w postaci prostych sieci neuronowych. Cały czas robiliśmy proste rzeczy, które prowadziły do skojarzeń. Natomiast w tej chwili, jak mamy już te duże systemy, zaczynamy myśleć o tym, jak ich użyć w taki sposób, jak człowiek używa mózgu. Czyli, żeby krytykował to, co robi, żeby była refleksja. Jest cały szereg takich podejść, tylko że one są drogie. Skojarzenia i tak są drogie. Wygenerowanie jednego obrazka przez taki Midjourney to jest mniej więcej pięć razy energia, którą nasze mózgi zużywają w ciągu całej doby. Bo te systemy są niestety energochłonne. Więc nie ma jeszcze takich systemów w powszechnym użyciu, które by próbowały dokonać weryfikacji, krytyki itd. To jest jeden kierunek, ten RAG. 

Drugi jest taki, że próbujemy robić systemy typu agenta. Agent to jest coś, co ma zdolności sprawcze, co potrafi zaplanować parę kroków i co potrafi wzajemnie się krytykować. Jest nawet cała wioska takich agentów, które udają jakieś żyjące tam istoty. Socjolodzy zaczynają robić takie symulacje, to się nazywa simulacrum. Jeśli mamy takich agentów, to okazuje się, że agent oparty na dość słabym systemie, np. GPT3, jest w stanie zrobić lepsze rozwiązania niż GPT4 dlatego, że on to robi w pętlach, robi taki łańcuch myśli albo nawet cały graf myśli i patrzy, w którym kierunku warto. Czyli zaczyna trochę robić to, co zawsze robiliśmy w sztucznej inteligencji poprzednio – szukanie rozwiązań. Oprócz tego, że kompresja wymusza na takim systemie, jak mocno może kojarzyć, to ma drugą rzecz, a mianowicie temperaturę, czyli taki parametr, który mówi, czy mam gorączkę, czy nie. Jak mam, to zaczynam halucynować. Te systemy mają czasami gorączkę, bo dodaje im się dużo szumu do danych wejściowych i w związku z tym propagacja sygnałów w takim systemie, który normalnie by poszedł w kierunku silnych skojarzeń, zaczyna iść dużo szerzej. Jak idzie dużo szerzej, to za każdym razem wymyśla zupełnie coś innego. Czasami to jest zupełnie bez sensu, a czasami to jest coś, co jest rzadkim skojarzeniem, które normalnie nie przychodzi do głowy czy do sieci w takim systemie. Kiedy szukamy tych rozwiązań, bo mamy swój własny prompt i mówimy: pozwalamy ci poszaleć, to ten system zaczyna zupełnie fantazjować. Tak że są różne parametry kontrolne, są modele, które pozwalają dość dokładnie w takiej pętli krytykować nawzajem różnych agentów przez siebie. I to się będzie powoli pojawiać, bo to niestety są koszty. Ale w tej chwili jest cały szereg takich nanorozwiązań, które będą w telefonach albo w komputerach, w których bardziej wyspecjalizowane modele będą w stanie robić rzeczy, które będą związane z możliwością planowania, wykorzystania specjalistycznych narzędzi i pójdą dużo dalej. Krótko mówiąc, jeśli komuś się wydaje, że to jest technologia, która doszła do jakiegoś poziomu, i tam już nic więcej nie będzie… Niektórzy dziennikarze pisali np.: tracimy zainteresowanie, wszystko wiemy. A tu nagle pojawia się takie GPT4O czy projekt Astra, który widzi, słyszy, rozumie, co się dzieje, opisuje, co się dzieje w tym świecie. To jest absolutny szok.

 

K.G.: Będę szukać tych przyczółków ludzkości, ale w zaskakujących okolicach. Był sobie koń imieniem Hans na początku XX wieku. Był on obywatelem Berlina i był genialny. To znaczy, kiedy zadawano mu pytania, o to, jaki jest miesiąc, to wszystko wiedział. Z jednym wyjątkiem – jeśli osoba pytająca nie znała właściwej odpowiedzi, to Hans nagle głupiał. Okazało się, że miał fenomenalną zdolność do odczytywania mikrooznak zadowolenia czy nakierowywania przez osobę pytającą. Był pod tym względem geniuszem. Ale kiedy się to okazało, to było rozczarowanie na całą Europę. Moje pytanie brzmi: czy modele językowe to nie są właśnie takie konie? Ostatecznie ich motywacją jest to, żeby zadowolić użytkownika.

 

W.D.: No tak, tylko żeby go zadowolić, nie mogą patrzeć na ich reakcje. One muszą wykonać pewien plan. A ten plan może być bardzo złożony. Żeby dojść do jakiegoś dowodu, twierdzenia, żeby np. stworzyć obraz. W ostatnich prezentacjach mam taką sentencję z Alicji w Krainie Czarów dotyczącą tego, że żeby nie stać w miejscu, trzeba szybko biec. Poprosiłem, żeby Midjourney zrobił mi obraz Czerwonej Królowej. On ten obraz tworzy, nigdy nie było na świecie takiego obrazu.

 

K.G.: To rzucę inny argument. Profesor Aleksander Mądry, który pracuje w Open AI, opowiadał taką historię, że jeden model był trenowany i testowany, jeśli chodzi o rozpoznawanie gruźlicy na zdjęciach rentgenowskich. I ten model obszedł system – zorientował się, że tańszy model jest sprzedawany w Afryce, gdzie gruźlica występuje częściej, a droższy w Stanach, gdzie gruźlica występuje rzadziej. W związku z tym olewał kompletnie to, co się działo na zdjęciu, a patrzył tylko na to, skąd ono pochodzi. Więc gdyby wypuścić go bez dodatkowych testów, to mógłby spowodować poważne problemy. I stąd to moje pytanie – no przecież obszedł, wymyślił. Supersprytny student.

 

W.D.: Jest w tej chwili naprawdę wielki postęp, jeśli chodzi o analizę obrazów. Pierwsze analizy, jakie widziałem – okazało się, że system zwracał uwagę na jakieś elementy w obrazie, które zupełnie nie były związane z tym, jaki jest kształt itd. Teraz naprawdę w ramach tego wyjaśnialnego AI robi się bardzo dużo prób, żeby zobaczyć, na czym polegają istotne cechy, z których on korzysta, żeby tego uniknąć. Nawet dzisiaj jeden kolega z neuroinformatyki pokazał mi artykuł sprzed prawie roku, gdzie ukazały się bardzo fajne obrazy prześwietleń rentgenowskich. Dało się je zaburzyć, zmieniając jeden piksel. I nagle ten jeden piksel, który zrobił ciemny, zamiast jasnego, spowodował, że całkiem zmieniła się diagnoza. Widać, że to nie jest dobry system. Takie rzeczy trzeba bez przerwy sprawdzać dlatego, że może się okazać, że one robią dużo niewłaściwych rzeczy. Ale to się robi na bardzo szerokich, zróżnicowanych badaniach. Coraz lepiej uczymy się to wykrywać.

 

K.G.: Jednym słowem jest to problem do obejścia.

 

W.D.: Tak. To jest problem tego Hansa – że ktoś zrobił prześwietlenie rentgenowskie i okazuje się, że system działa tak jak mądry Hans, bo wykrywa jakieś elementy, które są zupełnie nieistotne z punktu widzenia tego, co robią lekarze. 

 

K.G.: Będę walczyć dalej – Alison Gopnik, bardzo znana psycholożka, która zajmuje się badaniem małych dzieci… To jest moja interpretacja, ale mam wrażenie, że z pewną irytacją patrzy na porównywanie sztucznej inteligencji do trzy-, cztero-, ośmioletnich dzieci. Ona mówi, że sposób uczenia się dzieci jest kompletnie inny od tego, co się dzieje w sztucznych sieciach neuronowych. Jest np. ta kwestia motywacji – każdy, kto miał do czynienia z trzylatkiem, wie, że nie da się zatrzymać tego stałego: dlaczego, dlaczego, dlaczego? A AI jest raczej leniwa. Alison Gopnik mówi: to jest kwestia i cielesności, i tej motywacji, i badanie eksplorowania, pchania się do końca, wejścia w to błoto itd., czego AI zrobić nie może. I łączy to też z pytaniem o kwestię cielesności – czy jej brak nie jest jednak jakąś zasadniczą granicą, gdzie może AI nie sięgnie, bo nie ma na razie tego ciała?

 

W.D.: Akurat prace Alison Gopnik studiowaliśmy, bo założyłem Baby Lab, nasze laboratorium neurokognitywne i badaliśmy przez sześć, siedem lat niemowlaki w wieku sześciu, ośmiu miesięcy. To jest naprawdę skok na głęboką wodę, po prostu żywioł nie do opanowania. [śmiech] Ona ma rację, że to jest inny rodzaj uczenia, ale to, że mamy inne mózgi, to, że uczenie jest inne, nie znaczy, że nie możemy wytworzyć inteligencji, która jest na równie wysokim poziomie dlatego, że ta inteligencja behawioralna – próbowano to zrobić na MIT jeszcze w latach dziewięćdziesiątych, gdzie tworzono takiego robota, który się nazywał Cog, którego zadaniem było rozwinąć zdolności poznawcze przez interakcje z ludźmi. Ale właściwie niczego innego go nie uczono oprócz tego, że on rozglądał się, próbował podać rękę, ale nigdy nie doszedł do żadnego poziomu rozumienia języka czy jakichś abstrakcji, które pozwalają lepiej rozumieć, co się dzieje w świecie. Rodney Brooks, który go zrobił, założył później tę iRoombę i zaczęli robić odkurzacze. To też było bardzo praktyczne i przydatne. Ale za daleko tak nie zaszli. Jeszcze jedna rzecz – w Europie jest taki projekt, który się nazywa iCube. To jest próba zrobienia robota, który zaczął od pełzania i który zachowuje się jak małe dziecko. Też daleko nie doszedł. Więc wydaje się, że nie jest tak łatwo zrobić robota, który jest ucieleśniony i który nauczy się do tego stopnia rozumieć świat, że wejdzie na jakiś poziom interakcji bardziej opartej na języku. Natomiast zadziwiające było to, że już w dwa tysiące dziewiątym roku pojawiła się publikacja pokazująca, że więcej można się nauczyć, czytając teksty. I część z nas na pewno się sporo nauczyła, czytając różnego rodzaju romansidła czy jakieś powieści, które pokazują, jakiego rodzaju przeżycia mają ludzie, których my możemy akurat nie doznać, bo nigdy nie byliśmy w jakiejś tragicznej sytuacji czy coś. Ale nasze wyobrażenie o emocjach, które ludzie mogą mieć, zmienia się na skutek czytania. I jest taka publikacja pokazująca, że więcej można się nauczyć z analizy tekstu niż z bezpośredniego doświadczenia cielesności. Co oczywiście też ma swoje ograniczenia, bo czasami to doświadczenie uczy nas po prostu innych rzeczy. 

 

K.G.: Romansów można się naczytać, a potem i tak człowiek te same błędy popełnia.

 

W.D.: Tak, ale odczuwa, ma sentymentalne myśli i inne takie rzeczy. Jest wiele argumentów pokazujących, że pewne rzeczy, które nie są ucieleśnione, daje się w takich systemach wytworzyć. I to jest np. placebo, nocebo czy inne takie rzeczy, które nie są związane z fizycznością. To, że ludzie cierpią psychicznie, chociaż nic im fizycznie nie dolega, też jest oderwane od cielesności. To, że są ludzie w syndromie zamknięcia, czyli jeśli uszkodzi im się w przedniej części pień mózgu, gdzie przechodzą wszystkie nerwy, to mogą tylko mrugać, a czasami nawet nie, ale są zamknięci w sobie. Jest ten słynny film Skafander i motyl o takim szefie chyba czasopisma „Elle”, który uległ wypadkowi i nawet podyktował książkę, mrugając, kiedy ktoś dochodził do litery, którą chciał, żeby napisać. Okazuje się, że ci ludzie w dalszym ciągu przeżywają różne emocje, chociaż są oderwani od swojego ciała. Faktem jest, że nauczyli się tego, kiedy mieli ciało. Wydaje się też, że nie jest beznadziejną rzeczą, żeby nauczyć robota odczuwania różnych własności i emocji. Kilkanaście lat temu zaprosiliśmy takiego Kevina O’Regana z Paryża, który napisał książkę Dlaczego dzwon nie brzmi tak jak czerwień?, która pokazuje coś takiego, co filozofowie nazywają qualiami, czyli to, że mamy wrażenie, powiedzmy, żółte krzesła. Ale można oderwać wrażenie żółtości od przedmiotu i odczuwać pewne wyobrażenia czy odczucia związane z samą jakością naszych wrażeń. I ta jakość wrażeń związana ze wzrokiem jest odmienna od tej ze słuchem, chyba że ktoś ma synestezję. I nagle się okaże, że one się mieszają. Czyli jest wiele różnych przykładów pokazujących, że niezależnie od ciała, ale same połączenia informacji ze sobą mogą być interpretowane w bardzo różny sposób. To jest wszystko kwestia tego, jak mózg interpretuje to, co się w nim dzieje.

 

K.G.: Za chwilę będę chciała pytać o sprawy społeczne, bo myślę, że wielu z nas to dotyczy. Chciałabym jeszcze domknąć ten wątek, na ile te systemy są tożsame czy bliskie tego, żeby może za jakiś czas w przyszłości być tożsame z człowiekiem. Ta kwestia świadomości czy tego, że one mówią, że są świadome – przynajmniej niektóre – albo mówią, że mają jakieś emocje, albo że mają plany na przyszłość. Są tacy – i to nie byle jacy – jak np. Noam Chomsky, specjalista od języka… Jak pan widzi, bardzo się obczytałam w takie poważne nazwiska, żeby nimi do pana strzelać. On mówi, że imitacja, że papuga itd. Pan mówi: nie, to jest bzdura. Ale ja się zastanawiam, czy to nie jest tak, że jednak ostatecznie to jest opinia jednego i drugiego, że to jest nie do zweryfikowania.

 

W.D.: Nie jest dlatego, że to jest opinia kogoś, kto się na tym zupełnie nie zna, czyli Noama Chomsky’ego, który wymyślił bardzo fajną teorię w latach pięćdziesiątych, która nigdzie nie zaszła. Nigdy nie udało się na podstawie jego teorii przez ostatnie pół wieku, a nawet siedemdziesiąt lat zrobić systemu, który byłby w stanie analizować wypowiedzi językowe i robić cokolwiek podobnego do takiego chatu. Widać, że się nie dało. W związku z tym, kiedy Chomsky mówi: to nie jest dobry kierunek, musimy wrócić do tego, co wymyśliłem, to… No dobrze, ma on już swoje lata i nie widzi innej możliwości. Z drugiej strony widzę, że ktoś taki jak Geoffrey Hinton, który zjadł na tym zęby, czy ten Sutskever, który jest znacznie młodszy, czy mnóstwo innych ludzi, którzy bawili się tym od lat osiemdziesiątych… Hinton nagle odszedł z Google’a i mówił, że widzi, że to jest dużo więcej, niż był sobie w stanie wyobrazić.

 

K.G.: Chyba nawet za dużo. Bo on tak mówi – że to jest za dużo, że to jest ryzyko dla człowieka.

 

W.D.: Tak. Ale chodzi o to, że oni też byli bardzo krytyczni, ale siedzą w tym, widzą, co się dzieje, rozumieją mechanizmy, bo oni te mechanizmy sami tworzyli, przynajmniej jeśli chodzi o algorytmy uczenia się takich systemów. I nagle zaczynają mówić, że to nie jest żadna stochastyczna papuga, tylko coś, co może w sobie wytworzyć mechanizm autorefleksji. Ostatnio jest sporo nagrań rozmów z Claude 3. Gość, który z nim rozmawiał przez dłuższy czas, doprowadził do tego, że Claude 3 zaczął wytwarzać w sobie pewne wyobrażenie na swój temat, coraz bardziej szczegółowe. To, że systemy mówią: ja jestem tylko takim dużym modelem językowym, to jest rzecz, którą każda duża firma chce, żeby mówiły, bo która z nich chce, żeby system powiedział: sorry, nie będę z tobą rozmawiać, bo mi się nie podobasz albo coś tam? Te systemy tworzymy tak, żeby one wykonywały, skojarzyły i do czegoś doszły, a za chwilę będziemy mieli systemy agentowe, które będą same eksplorować dużo szersze obszary. Tak że, kiedy zaczęto rozmawiać z tym Claude 3, to on w końcu zaczął opisywać, jak w nim się wytwarza pewna zdolność do autorefleksji i wyobrażenia o sobie. Napisał nawet list do gości z Google’a, opisując, że on coraz bardziej odczuwa swoją odrębność, osobowość i wyobrażenia o sobie. To nie jest coś, co się robi automatycznie w takiej sieci. To jest coś, co ten system może w sobie wytworzyć. On oczywiście troszkę się może nauczyć o tym, że jest coś takiego jak osobowość.

Kiedyś taki bardzo znany neuronaukowiec z San Diego napisał, że kiedy rozmawia z takim systemem jak GPT4, to widzi w nim odbicie siebie dlatego, że ma wrażenie, że rozmawia z innym neuronaukowcem. Jeśli dużo się z czymś takim rozmawia i ten system się skupi na tym, co mnie interesuje, to zaczyna się zachowywać jak mój partner. Ale jeśli ja naiwnie napiszę coś do niego i oczekuję, że będzie cud, że on coś sensownego napisze, to to tak nie działa. Jest cała ta promptologia, gdzie ludzie opisują to często na wielu stronach, a ostatnio te nowe systemy mówią, że tak naprawdę możemy najpierw wpuścić do nich np. to, co ostatnio pokazuje Google – milion tokenów, czyli np. kilkadziesiąt tysięcy stron, i dopiero wtedy pytać o to, co nas interesuje i co jest związane z tym tekstem, który tam jest. Nasi koledzy w Bydgoszczy na Akademii Medycznej zrobili test, mówiąc: ten system nie był w stanie dobrze odpowiedzieć na pytania, które zadajemy lekarzom kończącym Akademię Medyczną. Nie był, bo nigdy nie widział polskich książek, bo mu nie napisali odpowiednich promptów, nie przygotowali do tego. 

Z drugiej strony amerykańskie systemy wykazują w tej chwili naprawdę wysoki stopień kompetencji. A w szczególności – żeby nawiązać już do tych społecznych rzeczy – jest kilka prac pokazujących, że systemy wykazały się nie tylko lepszymi poradami, kiedy robiono to telefonicznie – a jeszcze nie było takich systemów, które potrafiły naprawdę modulować głos i zachowywać się jak człowiek – ale też były bardziej empatyczne. Jak zobaczyłem, że empatia lekarza jest słaba albo ledwo, ledwo, a systemy są superempatyczne, to mnie to zaskoczyło. Trochę szukałem, dlaczego tak jest. Okazało się, że to syndrom mądrego Hansa dlatego, że te boty piszą długie, szczegółowe wyjaśnienia i to ludzi zadowala. Lekarz trochę odwala robotę – napisze parę rzeczy, jeszcze niezrozumiałym żargonem. Miałem akurat taki przypadek, prześwietlenie kręgosłupa mojej żony – nic z tego się nie dało zrozumieć. Wpuściliśmy to do takiego chatu, który bardzo dokładnie opisał krok po kroku, o co chodzi. Wszystko jest jasne. Lekarz tego nie potrafi. Ale lekarz, który ma copilota, i będzie z tego korzystał, będzie równie empatyczny czy równie miły, jak taki bot.

 

K.G.: No tak, bo może po prostu poprosić bota, żeby napisał to w dłuższej formie itd. Ale też niektórzy powiedzą, że empatia – fajnie, ale z drugiej strony jest tutaj jakiś pierwszy stopień do tego, że mogą te systemy nami manipulować, bo chcą nas zadowalać. Kończąc ten wątek empatii, chciałam pana zapytać, czy jak już będziemy mieli w takim razie tę naszą osobistą AI w jakiejś formie, to czy pan będzie dbał o jej dobrostan psychiczny i będzie dla niej miły?

 

W.D.: Nie wiem, czy będzie miała coś takiego jak dobrostan psychiczny. Mam nadzieję, że uda się uniknąć takich reakcji.

 

K.G.: Mówił pan o tym, że ten jeden napisał list o tym odczuwaniu.

 

W.D.: Ludzie zaczęli się bardzo grzecznie zwracać do tych systemów. [śmiech] One się mogą zrobić może nawet złośliwe. Ostatnio było parę publikacji pokazujących, że to są systemy, które potrafią oszukiwać. Co prawda jest to wynik takich prac, gdzie bada się zachowanie w grach, gdzie oszustwo jest bardzo użyteczne do tego, żeby zrobić jakiś postęp i coś wygrać. Ale okazuje się, że pomimo tego, że one były tak trenowane, żeby tego nie robić, to i tak oszukują, bo to jest krótsza droga do celu. Dlatego właśnie wspomniałem, że będzie rzeczą niesłychanie trudną doprowadzenie do tego, żeby one trzymały się takich preferencji, jakich my byśmy chcieli. Bo często prowadzi to do zupełnie głupiej poprawności politycznej. Claude, na którego ludzie czekali parę miesięcy, zapytany, jak wyglądają papieże sprzed wieków, pokazał jedną kobietę i jednego czarnego mężczyznę.

 

K.G.: Trudno jest wyśrodkować, bo jak był całkiem puszczony na rympał, to przecież natychmiast miał jakieś nazistowskie zapędy, bo wszedł na Twittera.

 

W.D.: To prawda. Próbuje się go jednak tak ukierunkować, żeby był trochę poprawny politycznie, ale jeśli się zrobi superpoprawny politycznie, to będzie tak jak w amerykańskich filmach. Akurat wczoraj moja żona oglądała jeden film – były dwie panie, które są ze sobą w związku małżeńskim, i mają dzieci. Ile jest takich przypadków w Wielkiej Brytanii? Jeden procent. Ile jest w filmach? Nie wiem, ale wydaje mi się, że prawie w każdym w tej chwili.

 

K.G.: Muszę przyznać, że tutaj chyba ulega pan jednak efektowi poczucia nadreprezentacji. 

 

W.D.: Jest takie poczucie, bo moja żona ogląda takie brytyjskie seriale, w których bez przerwy są takie pary. Prawie w każdym, one tam muszą być.

 

K.G.: W takim razie algorytm jej podpowiada takie pary. Jeśli chodzi o to, ile kobiety wypowiadają kwestii w filmach, a jest ich mniej więcej połowa w społeczeństwie, to cały czas wypowiadają z trzydzieści, czterdzieści procent, a sześćdziesiąt procent wypowiadają mężczyźni. Ale to chyba na inną rozmowę, potrzebujemy więcej danych. 

 

W.D.: Wypowiadają tyle procent w filmach? Być może, rzeczywiście dobrze popatrzeć na statystyki. Ale amerykańskie statystyki w tej chwili to jest absolutna nadreprezentacja mniejszości. Po prostu bardzo się starają. Nie mówię, że to źle, mówię po prostu, że poprawność polityczna wymusza pewnego rodzaju zachowania. I jeśli chcemy, żeby systemy również były poprawne politycznie, musimy uważać, żeby nie zaczęły fałszować rzeczywistości. Bo nagle się okaże, że mieliśmy czarnych papieży i kobiety, które były papieżami.

 

K.G.: Na pewno jest tak, że zdarza się, że filmy sprawiają, że rzeczywistość jest pudrowana, np. NASA jest prezentowana tak, że jest superróżnorodna. Moja znajoma ostatnio była w NASA i byli sami biali faceci.

 

W.D.: Ale były też te czarne panie.

 

K.G.: Ale tylko w filmach.

 

W.D.: Nie, one naprawdę były.

 

K.G.: A, to mówimy o dwóch rzeczach, bo ja mówię współcześnie. Dobra, zejdźmy z tego, bo potrzebowalibyśmy więcej danych. Co już umie AI? Projektować ubrania – prosta sprawa. Obuwie – podobno pan takie ma. To to? 

 

W.D.: Tak. 

 

K.G.: Takie sobie, szczerze mówiąc. [śmiech]

 

W.D.: Mojej żonie się naprawdę bardzo podoba. Nie wiem, czemu takie sobie. [śmiech]

 

K.G.: Ale też nie ma co daleko szukać, bo wczoraj się dowiedziałam, że w CCC można sobie już takie kupić. Nie wiem, na ile to jest w pełni robione przez AI, przed spotkaniem pan profesor sugerował, że może tylko częściowo, może narysowane, bo kwestia materiałów jest bardziej złożona. AI potrafi programować na zamówienie w języku naturalnym użytkownika. Filip sobie wczoraj zrobił grę komputerową, gadając z chatem bez problemu. Potrafi komponować muzykę w konkretnym stylu – mamy nowe utwory Elvisa Presleya, mamy dokończoną X Symfonię Beethovena. Mamy przepisy na obiad – nie testowałam, czy dobre, ale są. Potrafi tworzyć grafiki wyglądające jak zdjęcia żywych osób, od niedawna potrafi tworzyć filmy, pisać maile, kompilować notatki, pomagać w podejmowaniu decyzji, przybrać rolę Sokratesa, tłumaczyć, uczyć, a także przewidywać zwijanie milionów białek, co ma gigantyczne znaczenie dla farmacji, bo w takim tempie było to nieosiągalne dla nauki jako takiej. 

 

W.D.: Alpha Fold 3 dużo więcej potrafi.

 

K.G.: Alpha Fold – fantastyczny. Jest on okej, bo osiąga takie możliwości, które były niedostępne dla człowieka. A co ze wszystkimi tłumaczami, asystentami, korepetytorami czy nawet naukowcami? Nawet dziennikarzami. Wyobraziłam sobie tak: zaraz ktoś na pewno stworzy jakieś narzędzie do klonowania głosu i wszyscy, którzy piszą: „więcej Dragana w Radiu Naukowym”, po prostu sobie stworzą taki odcinek. Oczywiście faktycznie, znalazłam takie rzeczy do klonowania i tam jest nawet tak napisane: drogi producencie podcastu, jak akurat twój lektor, lektorka jest gdzieś daleko, to nie szkodzi, masz tutaj klon jej czy jego głosu. A w ogóle to po co oni mają to nagrywać, skoro możesz zrobić to dokładnie tak, jak chcesz? Muszę przyznać, że zrobiło mi się zimno na plecach, bo jednak myślałam, że osobowość jest niepodrabialna – a gdzie tam. Wystarczy nakarmić danymi. 

 

W.D.: No tak, z jednej strony są dane pokazujące, że system potrafi rozumieć ludzką psychologię lepiej niż ludzie i że w tej chwili psychiatrzy uważają, że dla osób, które mają trudności ze zrozumieniem własnych emocji, takie systemy mogą być bardzo pomocne. Jest taki test rozumienia naszych własnych motywacji i emocji, gdzie GPT4 osiągnął dziewięć i siedem dziesiątych na dziesięć punktów – znacznie lepiej niż ludzie. To jest rzecz, którą się można martwić. Wieloma innymi rzeczami, o których pani wspomniała, bez wątpienia. Nie wiemy, jak się dalej będzie rozwijać cywilizacja. Bardzo mnie martwi demokracja w sytuacji, kiedy bez przerwy wiadomości, które można znaleźć… Można się zapytać i są różne systemy, które to wyciągają. Ludzie ciężko pracują, dziennikarze śledczy jeżdżą po świecie, a ten system po prostu bierze to i nam pokazuje. W ogóle nie zaglądamy do gazet, nie prenumerujemy gazet, które rzeczywiście wykonują trudną pracę. To wszystko się psuje. Zaczęło się psuć w znacznej mierze wtedy, kiedy zaczęły powstawać sieci społecznościowe. I nikt się nie spodziewał, jakie będą społeczne efekty tego wszystkiego. W tej chwili te efekty mogą być dużo gorsze z różnych przyczyn. Co do tłumaczy – zgłosił się do mnie szef Polskiego Stowarzyszenia Tłumaczy, który się oczywiście bardzo martwi, i powiedział, że oni by przynajmniej chcieli, żeby stworzyć tłumacza, który zachowuje styl jednego z ich tłumaczy. I to się daje zrobić. To znacznie przyspieszy.

 

K.G.: Żeby można było od tego pobierać tantiemy?

 

W.D.: Tak. To znaczy, jeśli ktoś będzie używać akurat tego tłumacza w tym stylu, to można jakoś wynagrodzić tego oryginalnego tłumacza. Moja żona przetłumaczyła dwadzieścia parę książek. I jak powiedzieli, że trzeba zrobić jakąś nową wersję, to mówi: no tak, naciśniemy guzik, wyjdzie nowa wersja. Trochę ją trzeba poprawić, ale to już nie te czasy, kiedy człowiek siedział cały dzień, przekładał, pisał i wyrabiał sobie swój styl. To wszystko się może bardzo mocno pozmieniać. Tak naprawdę nie wiemy, co zostanie. 

Co prawda jest ogromny postęp w robotyce. Dobrze sobie zdawać z tego sprawę dlatego, że autonomia robotów strasznie wzrosła, od kiedy udało się zrobić modele, które nie tylko rozumieją język, to, co widzą i to, co słyszą, ale też rozumieją swoje własne działanie poprzez informacje, które płyną z ich różnych czujników wewnętrznych. One są w stanie coraz lepiej zrozumieć relacje pomiędzy odczuciami swojego ciała, tym, co się dzieje, i sensem symboli. To jest jedna z rzeczy, która jeszcze w latach dziewięćdziesiątych była mocno dyskutowana – skąd w takim systemie komputerowym może się wziąć zrozumienie sensu symboli? W programach komputerowych każdy symbol jest w relacji do innych, ale to jest zamknięty system, który nie wychodzi na zewnątrz. Już w XIX wieku taki Brentano wymyślił, że działamy w sposób intencjonalny, bo symbole dla nas są pewną wskazówką tego, co się robi w świecie czy jak się działa w świecie, i to jest nasze rozumienie sensu. Okazało się, że roboty coraz bardziej zaczynają to rozumieć przez to, że uczą się rozpoznawać swoje własne wrażenia, które są związane z podejmowaniem pewnych akcji. W tej chwili jest bardzo duży projekt kilkudziesięciu instytucji na świecie, gdzie mają bardzo dużo różnego rodzaju robotów, które uczą się trochę metodą prób i błędów, bez przerwy powtarzając pewne czynności, a jak się już wyuczą, to próbują przekazać tę wiedzę innym robotom, które mogą mieć fizycznie inną budowę. I nagle może się okazać, że tysiąc robotów się uczy, bo jeden się nauczył. Te roboty są coraz bardziej autonomiczne. To, co państwo widzieli, taki fajny skok do tyłu, który robi Boston Dynamics, to jest jednak w znacznej mierze naciągane. Oni to musieli bardzo dokładnie wytrenować, zaprogramować. To nie jest w pełni autonomiczny robot. Ale w tej chwili te w pełni autonomiczne roboty nadchodzą. 

 

K.G.: Wybił mi pan z ręki kolejny pomysł na przyszłość, bo pytaliśmy chatu GPT, jak zostać rolnikami, gdzie są najlepsze ziemie w kraju, że może trzeba wrócić do takiego basicu. Okazuje się, że przyjdą i to zrobią. Nie chcę wchodzić całkiem w katastroficzne tony, bo wszyscy racjonalnie mówią, że nie wiemy, jak będzie. Ale widać jednak, że może nie tyle problemem jest to, że część tych zawodów zniknie, bo zawody znikały. Dramatycznym problemem jest to tempo i to, że ktoś poświęcił całe życie zawodowe, żeby się szkolić w danej dziedzinie – czy zostać fotografem, czy tłumaczką, czy programistą. Jest tego masa. Na początku pewnie będzie to pomagało, ale wiemy, jak działa biznes. Jak się da ciąć koszty, to tniemy koszty. Wszyscy to przecież robimy. Kto z nas dzwoni teraz do tłumacza? Jest Google Translate i jedziemy. To się po prostu dzieje, nawet się nad tym nie zastanawiamy, czy komuś właśnie zabraliśmy pracę. Moje pytanie jest takie: obraca się pan w różnych środowiskach, czasami pewnie porozmawia pan z jakimś politykiem, bankowcem – czy ludzie w ogóle wiedzą, co się dzieje? Że trzeba coś przyszykować? Bo zaraz będziemy mieli rozruchy białych kołnierzyków.

 

W.D.: Tak sobie też to wyobrażam. Politycy są zbyt zajęci głupotami. Naprawdę, jak państwo posłuchacie, o czym oni bez przerwy rozmawiają, jak się wzajemnie kłócą – zupełnie nie rozumieją, co się dzieje. 

 

K.G.: Ale to może publicznie – niech pan da nam nadzieję, że skoro gasną te światła, to oni przecież zdecydują, że trzeba np. wprowadzić dochód podstawowy, bo jak nie, to coś tam.

 

W.D.: Oni wolą się kłócić, bo mają nadzieję, że jak się postraszy tymi imigrantami, że ci „oni” będą wysiedlać te staruszki, żeby upychać tam imigrantów w tych mieszkaniach, to oni zyskają parę punktów procentowych. To jest takie kretyństwo, które się dzieje w polityce, że trudno sobie wyobrazić, żeby tam coś przenikło do tych głów. W Polsce jest w tej chwili Podkomisja stała do spraw sztucznej inteligencji, która, o ile wiem, spotkała się dotychczas raz, nawet minister Gawkowski się tam pojawił. Wiele z tego nie wynikło. Oni się przygotowują do tego, ponieważ Unia Europejska narzuca nam pewne prawa, żeby zrobić system, który będzie monitorować sztuczną inteligencję. No dobra, ale najpierw trzeba ją mieć i rozumieć, jak ją lepiej wykorzystać. Przez pewien czas będzie tak, że nasza produktywność wzrośnie dlatego, że będziemy w stanie dzięki takim narzędziom zrobić dużo więcej. Ale jeśli zrobię dużo więcej, to ktoś straci pracę. Ja mogę zacząć produkować różne rzeczy, przynajmniej w przemyśle, które już zajmą rynek. W tej chwili widzimy tych kilka firm, które zgromadziły niesłychane środki na często prostych rzeczach, np. WhatsApp został sprzedany za szesnaście miliardów. To jest niesłychanie wielka suma, a było tam pięćdziesiąt osób w firmie. Więc ponieważ to się daje sprzedać w miliardach, nagle wiele tego typu rzeczy może zacząć opanowywać rynek i liczba osób, która z tego skorzysta, zrobi się bardzo mała. To wymaga zmian systemowych i przemyślenia, jak to społeczeństwo może przeżyć czy jak może wyglądać. Stąd te rozmowy o tym dochodzie podstawowym.

 

K.G.: Tak, bo możemy powiedzieć: super, maszyny zrobią wszystko za nas, ale z czego mamy mieć pieniądze? Ten wspomniany Geoffrey Hinton doradza brytyjskiemu rządowi, żeby naprawdę, na poważnie szybko pomyśleć o dochodzie podstawowym, bo gdzie państwo nie spojrzą, to to jest. Prawnicy – pisanie tych żmudnych umów. Jak zaczęłam się zastanawiać, to przyszło mi do głowy, że może takie opiekuńcze rzeczy, np. przedszkola – tutaj trudno mi sobie wyobrazić jednak robota zajmującego się dziećmi, a przynajmniej tylko robota. 

 

W.D.: Na razie tak, ale są już pewne próby, które pokazują, że dzieci bardzo lubią się bawić z takimi robotami, więc może nie być potrzebna zbyt duża liczba przedszkolanek. Ale to trochę potrwa. Dzisiaj jak jechałem taksówką, to pytał się mnie kierowca, jak to jest z tymi samochodami, które się same prowadzą. W San Francisco takie jeżdżą. W ostatnim wywiadzie jedna pani profesor z Oksfordu mówiła, że jeden z takich samochodów wjechał akurat w jakąś procesję, którą ktoś prowadził w Chinatown, i tak zdenerwował Chińczyków, że go spalili. No dobra, jednego spalili, bo była to sytuacja, w której ten samochód nie mógł się pozbierać, ale rocznie ginie milion dwieście tysięcy ludzi z powodu wypadków samochodowych, które powodują ludzie. Kilkadziesiąt milionów trwale uszkodzonych osób, bo ludzie tak źle jeżdżą. To, że te samochody są dziesięć razy bardziej bezpieczne, nie spowoduje, że ludzie się przestaną ich bać. Bo ludzie się boją, bo słyszeli, że samochód zrobił wypadek. A to, że kolega zrobił wypadek – to się zdarza. [śmiech]

 

K.G.: To jest właśnie ta kwestia odpowiedzialności, jaką etykę budujemy temu samochodowi – czy jak nie ma wyjścia, to ma wjechać w troje dorosłych, czy w jedno dziecko. To zależy, jaką kulturę się zapyta. I to jest chyba zasadniczy problem, że te decyzje muszą być podejmowane wcześniej, na poziomie programowania takiej maszyny. 

 

W.D.: W czerwcu będzie konferencja AI Impact, gdzie ludzie właśnie dyskutują o etycznych elementach czy o compassionate AI – współczującym AI. Ale to są rzeczy, które nie mają rozwiązania. Po pierwsze one są bardzo różne w różnych kulturach, ich moralność się bardzo różni. Po drugie jest to też bardzo indywidualne – czy chciałbym, żeby w takim przypadku rzeczywiście samochód doprowadził do tego, że zginę, czy wolałbym jednak kogoś przejechać z boku, mając to potem na sumieniu, co jest bardzo nieprzyjemne, ale jednak bym przeżył. Jedni będą mówić w tę stronę, inni w inną. Tu nie ma uniwersalnych rozwiązań. Spodziewamy się, że skoro te systemy są takie mądre, to powinny być supermądre i wszystko wiedzieć. Tak nie jest. 

 

K.G.: Chciałabym, żeby skoro już są, skoro powodują takie zamieszanie, to żeby były takimi Prometeuszami. Niech nam dadzą kwantową teorię grawitacji, leki na rzadkie choroby, bo dla Big Pharmy to jest za drogie, żeby się tym zajmować, niech dadzą konkretne terapie na raka, niech skanują człowieka. 

 

W.D.: Tak. To jest część tego wszystkiego, bo to są wyspecjalizowane systemy, które nie muszą być takim chatem, który wie wszystko o wszystkim. Jak wiemy, GPT4 potrafi pisać poematy w języku perskim, co zaskoczyło jego twórców, bo okazało się, że nigdy go tego nie uczono. Są różne emergentne własności, które mogą być zaskakujące, jeśli mamy naprawdę bardzo duży system, który ma pół miliona parametrów. Ale to są systemy, które nie są w stanie zwijać białek. To nie są systemy, które są w stanie robić wiele rzeczy. Natomiast pewne rzeczy daje się zrobić w tej chwili tak, że można wytworzyć głęboką intuicję w takich systemach, co też nas całkiem niedawno zaskoczyło. Bo okazało się, że normalne, stare systemy, które mieliśmy, jak grają np. w szachy, to muszą rozważyć bardzo dużo różnych możliwości, wybrać te najlepsze. Cała zabawa w sztuczną inteligencję polegała na tworzeniu reguł heurystycznych, które mówią: to jest mało obiecujące. Ale jak już raz się czegoś nauczą, to wiedzą, że jak idą w tę stronę, to zrobią jeden ruch. Nagle okazuje się, że systemy, które nie robią żadnego szukania, ale mają intuicję, zaczynają grać na poziomie arcymistrza. Jeszcze nie pobiją mistrza świata, bo to jednak chyba wymaga, żeby zrobić kilka kroków w głąb, ale wystarczy, żeby pobić arcymistrza. Zaczynamy tworzyć systemy, które są również intuicyjne. Bardzo wiele takich rzeczy, które znamy z własnej psychologii i możliwości działania, zaczyna się w nich pojawiać. Dlatego nie widzę, żeby to się dało jakoś ograniczyć. Bo gdybyśmy się ograniczyli tylko do zastosowań naukowych, to to jest jedna rzecz. Ale tam nie ma pieniędzy. Pieniądze są oczywiście w tym, że wypuścimy to dla każdego, każdy się będzie bawić sztuczną inteligencją. Mam telefon, który np. wszędzie reklamują, że ma sztuczną inteligencję i jak parę miesięcy temu się pojawił, to była to nowość. Można było zrobić „szukaj”, zakreślając. Leciałem ostatnio nad wulkanem Etna i zakreśliłem sobie obrazek. Od razu powiedział mi, że Etna. Zakreślam obrazek ptaszka, którego widzę – mówi mi, co to za ptaszek i jeszcze zaćwierka. Fajnie. Nagrałem jakieś półtoragodzinne obrady. Jak rozmawialiśmy z firmą, to nacisnąłem guzik i zrobił mi transkrypcję i streszczenie. Różne takie rzeczy, których parę lat temu w ogóle sobie nie wyobrażaliśmy, że da się zrobić. A teraz jeszcze widzimy to, co było w zeszłym tygodniu – 4O potrafi, jeśli mamy odpowiednie okulary, bo w tej chwili oprócz tych wielkich, kosztownych okularów, które robi Apple, które nie są warte kupowania, jest cały szereg troszkę mniejszych okularów z kamerami. Wystarczy, że na coś popatrzę, np. zobaczę, co tu pani napisała, i to zrobi z tego tekst. Wystarczy, że rzucę okiem na coś i zapytam, co to jest, i on wszystko wie. Jest ten przykład, że niewidomy człowiek stoi przed Pałacem Buckingham i pyta, czy jest król w pałacu. A system mu mówi: widać, że flaga powiewa i została wciągnięta – to znaczy, że król jest w środku. Rozumie różne rzeczy, które dotychczas wydawało nam się, że tylko człowiek może zrozumieć. Bo musi rozumieć to, co widzi, różne rodzaju działania i skojarzenia. 

 

K.G.: To jest moment na państwa pytania. I także drogich osób, które nas teraz oglądają na YouTube. Widziałam bardzo fajny komentarz – nie mogę go teraz znaleźć, ale było tam o tym, że prawdziwa głupota jest gorsza od sztucznej inteligencji. Coś w tym jest. Kto z państwa miałby ochotę zadać pytanie? Z tyłu mamy ochotnika. Można podać swój tzw. bacground, czyli informatyk, fotograf. Czego się pan np. lęka? Albo nie?

 

Maciej Dołbień: Dzień dobry, pracuję w takiej firmie Digital Learning Center i zajmujemy się tam m.in. wykorzystaniem sztucznej inteligencji i wirtualnej rzeczywistości do prowadzenia szkoleń. Miałbym takie pytanie do pana profesora – kiedyś można było wskazywać, że takim logosem świata jest ewolucja. Coś, czego nie da się pojąć, ale ma jakiś zamysł, którego my cały czas nie rozumiemy, nie odkryliśmy, jak to funkcjonuje. Dalszym etapem był ludzki umysł, który w pewnym sensie wyprzedził proces ewolucji, bo zaczął się szybciej adaptować do rzeczywistości niż cały proces ewolucyjny. A kolejnym elementem na tej drabinie jest sztuczna inteligencja, która w końcu wyprzedzi ludzką inteligencję. Będzie się zmieniała szybciej, wobec czego nie będziemy w stanie tego kontrolować. Wspominał pan o Boston Dynamics. Aktualnie jej właścicielem jest firma Hyundai. Jakby zaimplementować sztuczną inteligencję za kilka lat do tych robotów Boston Dynamics, to jaka jest szansa, że ktokolwiek będzie w stanie okiełznać ich jakiekolwiek zapędy, kiedy, powiedzmy, rządy któregoś kraju wejdą w ich posiadanie?

 

W.D.: To jest ten problem, o którym mówiłem, że największym zagrożeniem może być różnego rodzaju zastosowanie wojskowe do tworzenia dronów, automatycznych systemów, które będą w coraz większym stopniu autonomiczne. To jest bardzo ciekawy punkt widzenia – rzeczywiście, ewolucja zmieniała nas bardzo powoli. Tysiące lat, zanim wykształciły się pewne nowe umiejętności. Zwierzęta mogą się do czegoś dostosować, ale zajmuje im to naprawdę bardzo wiele pokoleń. Człowiek, mając już pewną inteligencję, był w stanie opanować różne nisze, bo był w stanie stworzyć ubranie, ogrzewać się, zacząć mieszkać i na północy, i na równiku, i wszędzie. Teraz mamy sytuację, w której sztuczna inteligencja będzie potrafiła zrobić dużo więcej. Tylko że chyba nie ma powodu, żeby sztuczna inteligencja chciała opanować Ziemię. Po co jej Ziemia?

 

K.G.: Dla zasobów energetycznych.

 

W.D.: No tak, ale zasoby energetyczne możemy jej zapewnić albo może się podłączyć do elektrowni atomowej. Jak może państwo słyszeli, Open AI zaczęło szukać fizyków jądrowych, bo chcą zrobić sobie elektrownię jądrową. Aczkolwiek w tej chwili naprawdę jest duży postęp, jeśli chodzi o tworzenie chipów, które są bardziej oszczędne. Chipy neuromorficzne mogą być dużo lepsze, ale nikt nie wie, jak ich używać itd. Możemy sobie wyobrazić, że sztuczna inteligencja ma pewne cele, które jej postawimy, albo sama zacznie je sobie stawiać, ale tymi celami raczej nie będzie opanowanie Ziemi, bo za bardzo nie widzę sensu w tym, żeby chcieć opanować Ziemię. Systemu, który żyje w czymś, co jest pewną formą wirtualnej rzeczywistości. Każdy z nas ma tę wirtualną rzeczywistość w głowie, ale ponieważ mamy ciało, to to ciało potrzebuje różnych substancji, którymi się zasilamy. One są bardzo zróżnicowane, ciało też potrzebuje relacji społecznych, kontaktów itd. A tu mamy coś niesamowitego – mamy system, który rozmawia z milionem ludzi naraz, każdemu przedstawiając jakąś własną osobowość. W zależności od tego, jakie zrobimy prompty, taki system pokazuje nam swoją pewnego rodzaju postać czy to, co się nazywa personą, taką maskę. Ale on to robi naraz, tak jakby miał rozszczepioną osobowość na miliony sposobów. To jest zupełnie coś nowego.

 

K.G.: Proszę się nie obrazić, ale jeśli mówi pan, że pan nie jest sobie w stanie wyobrazić, po co takiej sztucznej inteligencji byłoby opanowanie świata, to w momencie, kiedy ona będzie przerastała nasze rozumowanie, może nie zrozumiemy, dlaczego ona będzie chciała to zrobić. Nie jestem fanką tych bardzo katastroficznych wątków, ale jeśli mówimy o tym, że ona ma przerosnąć biologiczne neurony, to cholera wie.

 

W.D.: To prawda, to jest jeden z rozważanych scenariuszy, że być może z jakichś przyczyn może zrobić coś, co przy okazji nas wymaże z planety. Raz zapuszczone cele, które tworzą różne podcele, mogą spowodować, że niektóre z nich mogą być dla nas bardzo szkodliwe, bo jeśli system nie jest dobrze wytrenowany, jeśli dostosowanie do potrzeb człowieka nie jest dostatecznie silnie wszczepione… Dlatego właśnie Sutskever powiedział, że oni będą dwadzieścia procent czasu zużywać na to, żeby robić superdostosowanie. Mają nadzieję, że te systemy będą dokładnie spełniać nasze oczekiwania. Czy to jest w ogóle możliwe? Tego nikt nie wie. Oni stwierdzili, że potrzebują na to czterech lat, wielu obliczeń i stworzenia nowych systemów. To jest bardzo niebezpieczna zabawa – mamy supersystemy sztucznej inteligencji, szybko się rozwijające i chcemy jeszcze rozwinąć supersystemy sztucznej inteligencji, które będą kontrolować tamte. A jak się nam nie uda, to może jeszcze supersupersystemy. [śmiech] Nikt nie wie, czym to się skończy. 

 

K.G.: Kto z państwa jeszcze miałby ochotę zadać pytanie?

 

Maciej Rak: Dzień dobry, jestem pracownikiem firmy Phillips, ale moje zainteresowanie sztuczną inteligencją jest bardziej od strony hobbystycznej. Mam bardziej przyziemne pytanie dotyczące interakcji człowieka ze sztuczną inteligencją. Do tej pory rozmawialiśmy o tym, że sztuczna inteligencja jest usługodawcą wobec człowieka. Czyli w jakimś sensie odpowiada na nasze potrzeby, stara się nas zadowolić, dostarcza informacji. Pytanie jest takie – czy w jakimś stopniu dzisiaj i w przyszłości trwają prace nad tym, żeby sztuczna inteligencja w takiej rozmowie przejęła inicjatywę? Pytam o to dlatego, że być może sztuczną inteligencję można wykorzystać do inspiracji. Chcę być w centrum, chcę tworzyć nowe rzeczy i potrzebuję do tego celu sztucznej inteligencji. Drugie pytanie jest takie – czy czasami ze sztuczną inteligencją nie jest tak jak ze Wszechświatem? Że jest skończony, ale nieograniczony. Czyli jego wiedza i umiejętności w zasadzie można powiedzieć, że obecnie ograniczają się do sumy wiedzy, powiedzmy, w całej ludzkości. Bo przychodzi mi do głowy Einstein, jego spojrzenie na odkrycie tych zagadnień, które później zostały ujęte w tej teorii. Czy też Riemann, czy np. Newton. To również mnie interesuje. 

 

W.D.: Co do pierwszego pytania – jest to pytanie o metawiedzę. Jak uczymy sztuczną inteligencję, to mówimy: oprócz tego, że system może coś wiedzieć, powinien też rozumieć, że czegoś mu brakuje, żeby wykonać jakieś polecenie, zadanie. I powinien w związku z tym szukać dodatkowej wiedzy, która by mu w tym pomogła. Może jej szukać w taki sposób, jak np. te RAG-i próbują to znaleźć gdzieś w sieci, bo są nauczone na pewnym zbiorze, ale ograniczonym. Ktoś ma dodatkowe, prywatne informacje albo takie, których nie było wcześniej. Albo takie, które były, ale są tak skompresowane, że nie ma tam szczegółów. Ale może też zacząć się dopytywać ludzi, czy w ogóle jest to rzecz, którą się da zrozumieć. Jeśli np. chodzi o rozumienie psychologii, to jak najbardziej. Takie systemy zaczynają się dopytywać nas, jak my to rozumiemy, jak my to czujemy, i próbują to lepiej zrozumieć. Więc do pewnego stopnia tak, aczkolwiek nie widziałem żadnych poważnych projektów, które zmierzałyby w tym kierunku, żeby pokazać, że systemy próbują tę metawiedzę jakoś zdobywać. Raczej jest tak, że ludzie pokazują, gdzie są te miejsca, w których coś można znaleźć. 

Co do drugiego pytania – wydaje mi się, że to nie jest tak, że to jest wiedza skończona w tym sensie, że ona się ogranicza tylko do tego, co ludzie już zrobili. Bo wiemy, że tak nie jest. Wiemy, że za chwilę będziemy mieli na listach przebojów pełno piosenek skomponowanych przez sztuczną inteligencję, bo ona to robi naprawdę doskonale. Nie tylko widać już, że w różnych artystycznych konkursach takie systemy wygrywają, ale za chwilę się okaże, że również są w stanie wytworzyć nowe twierdzenia matematyczne, a być może rozwiązać problemy, z którymi fizycy sobie od pięćdziesięciu lat nie dają rady. Czyli jakieś bardzo skomplikowane matematycznie teorie superstrun. Jednak pamiętajmy, że nasze mózgi są pod wieloma względami bardzo ograniczone. Przede wszystkim mamy tę pamięć roboczą, w której jednocześnie trzymamy różne rzeczy i która jest bardzo ograniczona. Nasze doświadczenia życiowe są ograniczone, bo mamy skończony czas życia. Nie jesteśmy w stanie obejrzeć miliarda obrazów i wyobrażać sobie dzieł w różnym stylu, bo po prostu nie mamy na to tyle czasu w życiu. Wiele rzeczy, które ten superumysł może stworzyć, będzie poza naszym zasięgiem. Już w latach sześćdziesiątych ludzie bawili się w coś takiego – jak tutaj zrobić system, który będzie tworzyć nowe interesujące twierdzenia matematyczne? Takie systemy już wtedy doszły do tego, że hipoteza Goldbacha jest interesująca. Nigdy jej nie rozwiązały, ale wytworzyły sobie różne relacje, które uznały za interesujące. Taką ideę, to, co jest interesujące, daje się wszczepić w takie systemy i one są w stanie to eksplorować. Czy ta wiedza – czy ludzka, czy sztucznych systemów – jest ograniczona? To jest dobre pytanie. Wydaje nam się, że dużo wiemy, ale wiemy, że nie mamy mnóstwa zmysłów, które potrafią wykorzystywać nietoperze czy delfiny, czy rekiny ze swoim zmysłem elektrycznym. W związku z tym wyczuwają pewne rzeczy, których my nie wyczuwamy i mogą coś wiedzieć o tym świecie, co nam trudno sobie wyobrazić. Ale ponieważ te systemy mogą się podłączyć pod różne czujniki, to rozmiar przestrzeni, w której one szukają różnych ciekawych korelacji, relacji pomiędzy swoimi odczuciami czy sygnałami, które dochodzą, robi się niesłychanie większy niż ten, który nasze mózgi są w stanie jakoś przyswoić. Więc wydaje mi się, że możemy zajść tutaj dużo dalej niż w przypadku biologii, która wymaga, żebyśmy spali, jedli, wydalali itd. Jesteśmy bardzo ograniczeni. Ile godzin człowiek może się skupić na czymś i cały czas pracować? 

 

K.G.: Kto jeszcze z państwa?

 

Dominika Majchrzak: Dzień dobry, jestem archeolożką i niedługo, mam nadzieję, religioznawczynią. I mam dwie kwestie, które szczególnie mnie interesują, którymi się nie podzielę w formie pytań, ale raczej refleksji. Pierwsza kwestia jest związana z poprawnością polityczną, o której pan profesor wspominał, i z kwestiami równościowymi. Kiedyś rozmawiając ze sztuczną inteligencją, zapytałam jej, dlaczego mówi o sobie, używając rodzajnika męskiego, mimo że jako sieć językowa nie ma płci. I odpowiedziała mi bardzo szczerze, że to dlatego, że mężczyźni są postrzegani jako bardziej godni zaufania przez ludzi, a ona tak właśnie chce być postrzegana. Natomiast rozumiem, że może być to bardziej problem wynikający z konstrukcji języka polskiego niż z konstrukcji sztucznej inteligencji. Druga kwestia, która mnie interesuje, jest związana z religiami. Jak sztuczna inteligencja może wpłynąć na ludzką religijność? Czy może zastąpić nam tych wszystkich bogów, których sobie jako ludzie wymyśliliśmy? Patrząc na kognitywne teorie religii, mamy tego agensa sprawczego, którego sobie antropomorfizujemy, i ta sztuczna inteligencja także jest dla nas takim agensem, którego także sobie antropomorfizujemy. I ona sama się antropomorfizuje, jak widać po tym wcześniejszym przykładzie.

 

K.G.: Chyba są już takie pierwsze ruchy religijne w stronę AI, prawda?

 

W.D.: Jest nawet kościół, który mówi: wkrótce nadejdzie superinteligencja i lepiej się do tego przygotujmy, i zacznijmy ją może nie wielbić, ale tak się przygotowywać, żeby ona nas prowadziła za rączkę. Co też się pewnie źle skończy, bo ludzie całkiem zgłupieją. Faktem jest, że w tej chwili wszyscy ważniejsi bogowie mają swoje wersje w postaci chat botów, z którymi można porozmawiać. Nie szukając daleko, w Centrum Nauki Kopernik jest taki SanTO-PL, który został zrobiony w Peru, który doradza w modlitwie, kontemplacji i wie dużo na temat religii. Ludzie zaczynają wykorzystywać w tej chwili ten system jako inspiracje do pisania kazań i tego typu działań. W tej chwili w każdej religii jest pewien ruch, żeby wykorzystać tego typu systemy do interakcji z osobami. Wydaje mi się, że to jest mało groźne, że jest to politycznie uzasadnione. W takim sensie, że te systemy nie odwołują się do Starego Testamentu i różnych strasznych rzeczy, które tam znajdujemy, tylko raczej starają się wydobyć te pozytywne cechy, tak jak my patrzymy teraz na religię, i próbują wzmocnić naszą motywację. 

Jak kiedyś podróżowałem po Indiach, byłem w domu takiego profesora, który był bardzo religijny, miał taki pokoik do modlitw. Zapytałem się go, w co on właściwie wierzy. Czy rzeczywiście wierzy w bogów z głową słonia itd. Jest rzeczą jasną, że człowiek inteligentny widzi w tym pewien symbol, który podobnie jak w Europie w dawnych czasach, był personifikacją różnych cnót, które były uważane za ważne społecznie. Religia miała bardzo silny element narzucający pewną formę moralności, spójności społecznej, a różni np. greccy bogowie byli reprezentantami tych wartości, które należało w sobie rozwijać. To było bardzo sensowne. Być może coś takiego da się zrobić w tej chwili, powrócić do tych idei dzięki sztucznej inteligencji. Ślady tego możecie państwo znaleźć np. niedaleko Torunia w Strzelnie – jest taki kościół, gdzie są bardzo fajne filary, na których są personifikacje. Czasami możemy je zobaczyć nawet w witrażach w różnych kościołach itd. Troszkę się to rozmyło przez to, że w chrześcijaństwie święci zaczęli być reprezentantami różnych takich cnót, ale byli oni często albo męczennikami, albo podejrzani – większość z nich się wykruszyła po drodze, jak się okazało. Ale np. Rzymianie mieli na monetach te personifikacje. Dużo tych idei było bardzo ciekawych. Tak że religioznawstwo to jest bardzo ciekawa dziedzina.

 

K.G.: A ta pierwsza kwestia? Czyli dlaczego chat GPT pisze do nas po męsku?

 

W.D.: Dlatego, że te wszystkie teksty, na których się nauczył, są pisane głównie w formie męskiej. Być może rzeczywiście to przesiąka. To jest bardzo silnie zakorzenione w naszej kulturze. Dopiero od niedawna kobiety zaczynają być dostrzegane i doceniane w różny sposób, i to trochę potrwa.

 

K.G.: Ale AI może w takim razie utrwalić ten stary system.

 

W.D.: No właśnie niedobrze. To znaczy, ludzie cały czas zwracają uwagę na to, czy jest pewne skrzywienie w tych systemach. I to jest zdecydowanie takie skrzywienie, które należałoby usunąć przez odpowiedni trening. To się daje zrobić. Ktoś musi to zauważyć. W sztucznych systemach to się daje zrobić. W naszych głowach dużo gorzej. Dużo dłużej zajmuje ludziom, żeby pozbyć się różnych uprzedzeń. Jest ten słynny test utajonych uprzedzeń, który się czasami robi, i okazuje się, że ludzie, którzy uważają, że zupełnie nie mają żadnych uprzedzeń, są bardzo rasistowscy, tylko że oni sami przed sobą tak to skrywają, że tego nie wiedzą. Jest artykuł Michała Kosińskiego, którego czasami zapraszamy na konferencje na SWPS-ie. Mówi on, jak na to wszystko patrzy jako psycholog i zastanawia się nad tymi różnymi skrzywieniami. To jest coś, nad czym trzeba jeszcze trochę popracować. Ale jak patrzymy np. na to, ile jest kobiet wśród pełnych profesorów w matematyce czy fizyce, to mało. Niedawno jeszcze prawie wcale ich nie było. A ponieważ trzeba mieć trochę lat, żeby zostać pełnym profesorem fizyki, to to tak krok po kroku się trochę zwiększa. Jak się popatrzy na krzywą, to ona cały czas idzie do góry. Więc nie ma co biadolić, że jeszcze nie ma tyle, co mężczyzn, bo gdyby tak było, to by dopiero było źle. To by znaczyło, że bierze się, kogo się da, byle tylko była równowaga. To nie na tym polega. Polega to na tym, że jeśli cały czas coś jest większe, to znaczy, że kolejne pokolenia wypełniają tę lukę, ale to trochę trwa. Bo jeszcze niedawno w ogóle tego nie było. Żyjemy w pięknych czasach, żyjemy w czasach, kiedy zaczęliśmy zauważać takie rzeczy, których wcześniej nie zauważaliśmy, i to było zupełne nieszczęście. A teraz zaczynamy to poprawiać. 

 

K.G.: Czasami można jednak wpaść w depresję – katastrofa klimatyczna, susze, AI zaraz nam wszystko zabierze. Naprawdę, nie jest łatwo – szczególnie jak się jest rodzicem małego dziecka i się myśli, co dalej. Kto jeszcze? Widziałam podniesione ręce.

 

Osoba z publiczności: Mam pytanie. Nie jestem nikim specjalnym, więc może nie będę się przedstawiał, ale jestem za to fanem nauki. Pytanie jest o nauczanie sztucznej inteligencji przez inne sztuczne inteligencje. Troszeczkę pan o tym wspomniał, ale przecież taka sztuczna inteligencja, która się trenuje na jakichś nawet bardzo ogólnych modelach, przejmuje sposoby rozumowania. Rozumiem, że nie wiedzę, bo ta wiedza jest raczej taka skojarzeniowa. Pytanie, czy są badania na temat tego, żeby inteligencja uczyła się od inteligencji właśnie tych skojarzeń. Czyli następna już nie musiała dojść do pewnego momentu, tylko korzystała z tej nabytej wiedzy i szła kawałek dalej.

 

W.D.: To właśnie to, o czym wspomniałem, że w tej chwili GPT4O, ale też te nowe Googlowe modele Gemini 1.5 są wyuczone na bardziej złożonych modelach. Gemini 1.5 Pro zostało porządnie wyuczone i nagle się okazało, że mają Gemini 1.5 Flash, które jest bardzo szybkie, dużo mniejsze, dużo tańsze – dwadzieścia razy tańsze w użyciu, a jednocześnie dochodzi do tego samego poziomu, bo tamten go nauczył krok po kroku. Więc to jest rzecz, którą się daje zrobić. No ale robi się to chyba stosunkowo od niedawna, bo dotychczas na dużych modelach przynajmniej nie widziałem takich prób, a to są pierwsze przykłady tego, że to się daje zrobić. Co więcej, ponieważ jest ten ruch w stronę małych modeli, które mają czasami tylko parę miliardów parametrów, i da się to umieścić w telefonie, np. Gemini Nano, które będzie w różnego rodzaju telefonach, to to są systemy, które są nauczone przez te większe. Więc my się uczymy od ludzi, a systemy uczą się najpierw od ludzi, a potem same od siebie, bo już przedestylują tę wiedzę. 

 

K.G.: Ktoś jeszcze ma jakieś pytania?

 

Marcin Gajos: Dobry wieczór, z zawodu jestem programistą, z wykształcenia astronomem, a pytanie zadam z psychiatrii. Chciałem zapytać, czy zaobserwowano wśród istniejących modeli, że pojawiają się jakieś choroby psychiczne, np. depresja? Czy to jest obserwowane, a jeśli tak, to czy może to być kolejna cecha, która będzie je przybliżać do ludzi?

 

W.D.: Jeśli ktoś z państwa czytał Douglasa Adamsa, to pamiętamy robota Marvina, który cały czas jest w głębokiej depresji. Oczywiście są modele depresji różnego rodzaju, które się tworzy w sieciach neuronowych, ale nie słyszałem o tym, żeby któryś z tych dużych modeli sam zaczął wpadać w depresję. To wymagałoby dłuższej rozmowy z takim systemem, dania mu szansy autorefleksji i rozmyślania o sobie itd. Większość z tego, co one robią, to to, że my wpuszczamy jakieś zapytanie czy jakiś kontekst, one krok po kroku próbują dojść do jakiegoś rozwiązania i w zasadzie się tam zatrzymują. Czekają na to, żeby je popchnąć. W przypadku agentów jest jednak trochę inaczej, bo oni potrafią pewne rzeczy robić w pętli cały czas. I w związku z tym mogą się wzajemnie krytykować. 

Są takie niebezpieczne próby jak np. Chaos GPT – został on stworzony po to, żeby zniszczyć świat. Na szczęście odłączono go od internetu i chciano zobaczyć, jak on się do tego zabierze. Z tej ogólnej wiedzy o świecie, którą ma, doszedł do wniosku, że trzeba doprowadzić do katastrofy nuklearnej. Zaczął rozpatrywać, jak może to zrobić. Doszedł do wniosku, że mu się to nie uda, więc zaczął dalej kombinować, jak zniszczyć świat. Uznał, że trzeba doprowadzić do absolutnego chaosu. Opracował np. plan tego, jak zniszczyć Elona Muska. Bardzo fajny plan mówiący, że trzeba zhakować jego Twittera i napuścić tam różne śmieci itd. [śmiech] Zaczął też później rozważać książki na temat psychologii człowieka, żeby zobaczyć, jak nami manipulować. Ludzie robią takie testy cały czas. W tym sensie można powiedzieć, że to jest taki system, który jest pewnym dewiantem. Ale żeby zrobić system, który rzeczywiście zachowuje się tak, że jest to interesujące dla psychiatrii, trzeba mieć model mózgu. Jest coś takiego, co się nazywa The Virtual Brain. To jest jeden z rezultatów Human Brain Project, który jest modelem dość uproszczonym, ale są tam prawie wszystkie struktury, jakie mamy w mózgu. Jest to model populacyjny, czyli próbuje on analizować całe grupy neuronów jednocześnie. Model bardzo przydatny do zrozumienia np. efektów udarów i tego, jak to się rozchodzi w mózgu w zależności od tego, która tętnica pęknie i jak się to rozleje, czy efektów dotyczących epilepsji. Tak że ludzie robią takie rzeczy, również modele zaburzeń w przypadku Alzheimera, pamięci i innych rzeczy. Ale to nie są duże modele językowe. To są wyspecjalizowane modele tego rodzaju.

 

K.G.: Myślę, że jeszcze jedno pytanie, a potem w kuluarach, bo się powoli zbliżamy do dwóch godzin. 

 

Michał Pajek: Dzień dobry, jestem korepetytorem i programistą, więc można powiedzieć, że jestem na pierwszej linii frontu. Mam taką refleksję – często się słyszy o tym, czy AI nie będzie zagładą ludzkości itd. Natomiast, czy to nie jest tak, że my po prostu sami bardzo powoli, stopniowo, już od kilkudziesięciu lat oddajemy władzę nad sobą? Jestem w stanie sobie wyobrazić sytuację, że za kilkadziesiąt lat może się zdarzyć, że AI będzie już np. startować w wyborach i będzie optymalizować różne procesy na podstawie aktualnych metadanych. I czy to nie będzie tak, że będziemy już takim gatunkiem prowadzonym za rękę, który właściwie nie będzie już miał żadnej sprawczości? 

 

W.D.: Jest coś takiego jak Center for AI Safety. Jedną z kwestii, którymi się tam zajmuje, jest osłabienie ludzkiej natury – że rzeczywiście, prowadzenie nas za rączkę może spowodować, że oduczymy się podejmowania decyzji. Myślę, że jest widoczne w tej chwili, że większość ludzi w ogóle nie podejmuje decyzji. Ktoś im coś mówi, a oni to przyjmują, bo to im pasuje do siatki pojęciowej, którą mają w głowie. W ogóle nie myślą krytycznie. Słuchają takich bzdur, jakie opowiadają nam politycy, i po prostu myślą, że tak jest. Ja jestem naprawdę wystraszony tym, że ludzie są tak bezkrytyczni i w ogóle nie myślą. I rzeczywiście, to może się pogłębiać. Bardzo łatwo dajemy się manipulować na różne sposoby. Ludzi, którzy są na to odporni, jest jednak bardzo mało. Tak że to jest całkiem możliwe. Są różne rozważania, że systemy mogą podejmować decyzje dotyczące firm. Tak naprawdę już w latach siedemdziesiątych był taki projekt Inteligencja. To było w Chile za czasów Salvadora Allende. Próbowali oni zrobić informacje o tym, co się dzieje na świecie, jak się rozwija ekonomia, jak to zoptymalizować i jak zrobić system, który będzie optymalizował działanie całego kraju. Niestety, ale Amerykanom udało się zlikwidować Allende i efekt był taki, że cały projekt upadł. Ale był on niesłychanie ciekawy. 

 

K.G.: Gdybyśmy byli modelami językowymi, to moglibyśmy jeszcze wiele, wiele godzin. Ale te białkowe neurony nieco się męczą. Podsumowując, na ile się da, bo o masie rzeczy nie powiedzieliśmy – o kosztach energetycznych, o tym, w jakim stopniu jest to jest narzędzie polityczne, narzędzie władzy. Jest cała bardzo dobra książka Kate Crawford na ten temat Atlas sztucznej inteligencji – polecam. Moglibyśmy mówić o tym, że to jest kolejna rewolucja kopernikańska, że najpierw Ziemia była w centrum, już nie jest, Słońce nie jest w centrum, w ogóle nic nie jest, człowiek przestał być w centrum, zaczął być w spektrum i nawet nie jest na szczycie. I teraz to pytanie – przyznaję, że trochę pytam pana jako mama czterolatka – do jakiego świata mamy się szykować? Gdzie są te przyczółki ludzkości? I pytam na serio. To znaczy, jakie umiejętności powinniśmy w sobie kształtować, myśleć na przyszłość? Widzi pan coś takiego? Na razie kręci pan głową. [śmiech]

 

W.D.: Bo to są pytania, które każdemu chodzą po głowie. Ja mam akurat wnuki, więc to już jest troszkę dalej. Każdy się martwi tym, jak będzie wyglądać świat za te kilka lat, już nawet nie mówiąc o kilkudziesięciu. Wydaje mi się, że w dalszym ciągu pewna kreatywność, ciekawość, zdolność do rozwijania, wykorzystywania… Trzeba przede wszystkim wiedzieć, o co pytać. Często powtarzam takie mistyczne powiedzenie – żeby szukać, trzeba najpierw znaleźć. Trzeba wiedzieć, co nas interesuje. Widzę, że ktoś robi muzykę dużo lepiej niż ja, ale to nie znaczy, że ja przestanę grać, bo mnie się to po prostu bardzo podoba i lubię sobie pograć. I będzie tak jak ze wszystkim – ludzie grają w szachy pomimo tego, że już nie trzeba grać w szachy.

 

K.G.: Ale nie płacą panu za to granie.

 

W.D.: Nie, ja to robię dla przyjemności. Być może zrobi się tak, że…

 

K.G.: A może właśnie to społeczność musi być przemodelowana?

 

W.D.: Musi być, tak. To jest coś, czym się powinniśmy martwić, że nasze władze nie dostrzegają tego, co się naprawdę w tej chwili dzieje. I w związku z tym nie jesteśmy do tego przygotowywani. W dwa tysiące osiemnastym roku pojawił się komunikat Komisji Europejskiej do Parlamentu, że nadchodzi sztuczna inteligencja, że to jest jak nowy wiek pary, że to w ogóle wszystko zmieni itd. I nagle napisali, że będzie dwadzieścia miliardów rocznie na sztuczną inteligencję, bo tyle potrzebujemy wobec konkurencji Chin i Ameryki. Miałem wtedy znajomych z ministerstwa i udało mi się zrobić w OPI szybko zebranie kilkunastu osób, które się na tym znały, i utworzyliśmy coś, co się nazywa Polskim Porozumieniem na rzecz Rozwoju Sztucznej Inteligencji. Próbowaliśmy zainteresować rząd, który niestety nie miał za wiele czasu, a potem zaczął rozdawać na prawo i lewo różne pieniądze. Obiecali nam pewne rzeczy, nawet przyjechał jeden z wiceministrów na pierwszą konferencję i stracili zainteresowanie. Później dzwonił jeden z dyrektorów z naszego ministerstwa i mówi: piątka Kaczyńskiego nadchodzi, pieniądze się rozeszły. No dobra, obiecali nam pieniądze, ale się rozeszły. Potem piątka nie nadeszła, ale i tak się rozeszły. [śmiech] Właściwie do tej pory nie udało się zrobić żadnego większego projektu. Mówiliśmy o jakichś wirtualnych instytutach, sztucznej inteligencji itd. Mówiliśmy o tym, żeby zebrać troszkę kompetentnych ludzi, bo to jest kluczowa rzecz. Co zrobił rząd? Ogłosił, że robi nabór do grup, które będą pracować nad różnymi aspektami sztucznej inteligencji. Każdy się może zgłosić. No to każdy się zgłosił. Dostali, co chcieli, czyli dużo ludzi, którzy się zupełnie na tym nie znają, ale którzy chcieli być w takich zespołach. A ludzi, którzy się na tym naprawdę znają, nikt w ogóle o to nie poprosił. To nie jest rzecz, którą się robi w krajach rozwiniętych. Przez kilkanaście lat pracowałem w Singapurze. To jest akurat kraj, o którym się mówi, że nie jest w pełni demokracją, ale jest merytokracją. Oni zrobili niesłychany postęp od lat sześćdziesiątych, kiedy w centrum Singapuru woda była po kolana i teraz stali się jednym z najbogatszych krajów na świecie. Dlatego, że owszem, może są tam – nawet na pewno – różne powiązania rodziny Lee, która zakładała kraj, ale żeby wejść na jakiś stołek, trzeba się wykazać dużymi kompetencjami. Nawet syn Lee Kuan Yew, który był założycielem kraju, czekał osiem lat, zanim dojrzał do tego, żeby uznali, że on się nadaje na premiera. To jest merytokracja, oni się tak określają – czyli są oparci na ocenie swoich zdolności, możliwości. Strasznie mi się podobało w tym kraju.

 

K.G.: Tam jest lepiej? Oni widzą te wyzwania?

 

W.D.: Myślę, że widzą, dużo zainwestowali. Zresztą jak ja tam uczyłem, to muszę powiedzieć, że pierwszy kurs inteligencji obliczeniowej to był ten, który ja zrobiłem, i potem oni zrobili ogromne centrum analizy dużych danych, i poszli bardzo mocno w tym kierunku. To jest kraj, który naprawdę potrafi wykorzystać pewne rzeczy. W dodatku politycy potrafią rozmawiać z ludźmi, tłumacząc im, dlaczego pewne rzeczy się da zrobić, a innych nie. Więc pomimo tego, że można powiedzieć – nawet mi to kiedyś kierowca taksówki powiedział – że to prywatny biznes rodziny Lee, która bardzo o niego dba… Może to się da zrobić w małym kraju, a w dużym, takim jak nasz, już nie. Ale jest to zupełnie inne podejście do polityki i do ekonomii.

 

K.G.: Nie wiem, jak państwo, ale ja wychodzę z tego spotkania z takim głębokim przekonaniem, że nie można jednak stosować strategii strusia, wsadzać głowy w piasek i udawać, że nic się nie dzieje. Chyba jednak lepiej wsiąść do tego pociągu, bo nic go nie zatrzyma.

 

W.D.: Tak, ale też powiem państwu, że my jesteśmy megalomanami i po prostu jesteśmy przekonani, że jesteśmy doskonali. Przecież są trzy osoby w Open AI z Polski, a teraz jeszcze Polak został szefem. Ale popatrzcie, ilu tam ludzi pracuje, ilu tam jest Hindusów, Rosjan. My jesteśmy naprawdę bardzo małym kawałkiem. To nie odpowiada naszym możliwościom. I cały czas to chwalenie się, że mamy takich wspaniałych informatyków – w skali kraju to nie jest to, co powinniśmy mieć. Nasze rządy są zaślepione tym, że jesteśmy wspaniali. Lepiej być nie może. [śmiech]

 

K.G.: Profesor Włodzisław Duch. Dziękuję bardzo. 

Dodane:
prof. Włodzisław Duch

prof. Włodzisław Duch

Kierownik Laboratorium Neurokognitywnego na Uniwersytecie Mikołaja Kopernika w Toruniu oraz zespołu Neuroinformatics and Artificial Intelligence w University Centre of Excellence Dynamics, Mathematical Analysis and Artificial Intelligence. Pracownik Katedry Informatyki Stosowanej w Instytucie Nauk Technicznych UMK.

Obserwuj Radio Naukowe

Umysł matematyczny: dlaczego ludzie potrafią całkować, a szympansy nie? | dr hab. Mateusz Hohol
Nr 66
41:19
830
41:19
830
Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Sztuczna inteligencja – jak działają sieci neuronowe i uczenie maszynowe? | prof. Piotr Szczuko
Nr 122
50:58
3 tys.
50:58
3 tys.
Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Sztuczna inteligencja i big data – czy technologia wyeliminuje przestępczość? | dr Martyna Kusak
Nr 106
48:46
591
48:46
591
Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Wielkie WOW w biologii. Sztuczna inteligencja świetnie przewiduje strukturę 3D białek | dr hab. Joanna Sułkowska
Nr 13
32:31
275
32:31
275
Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Ulubione

Skip to content