Otwórz schowek Brak ulubionych odcinków
Sztuczna inteligencja – jak działają sieci neuronowe i uczenie maszynowe? | prof. Piotr Szczuko

Sztuczna inteligencja – jak działają sieci neuronowe i uczenie maszynowe? | prof. Piotr Szczuko

Nr 122
Pobierz Dodaj do ulubionych

Udostępnij odcinek

Nr 122
Pobierz Dodaj do ulubionych

Udostępnij odcinek

Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Gość odcinka

prof. Piotr Szczuko

prof. Piotr Szczuko

Pracuje w Katedrze Systemów Multimedialnych na Wydziale Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej. Zainteresowania naukowe: przetwarzanie obrazu i dźwięków, animacja komputerowa i wizualizacja 3D, metody wnioskowania i sztucznej inteligencji, zastosowanie sztucznych sieci neuronowych, głębokiego uczenia, sieci splotowych, rekurencyjnych i capsule network, zastosowanie teorii zbiorów przybliżonych, klasyfikacja i percepcja obrazów i dźwięków, komputerowe metody analizy i rozumienia obrazu, tworzenie systemów wbudowanych.

Rzeczywiście, wszystko zaczęło się od matematycznej definicji tego, jak działa komórka neuronowa – mówi prof. Piotr Szczuko z Politechniki Gdańskiej, gdy pytam go, czy sztuczna inteligencja wzorowana jest na ludzkim mózgu. – Neuron możemy sobie wyobrazić jako pewien biologiczny element, który przyjmuje informacje w postaci impulsów nerwowych, prądów i następnie wypuszcza z siebie jakąś informację. Jak pomyślimy o tym w znaczeniu informatycznym, elektronicznym, to widać, że możemy zasymulować działanie takiej komórki – wyjaśnia.

– Sztuczne sieci neuronowe są składane z małych elementów, łączone w bardzo duże sieci, gdzie takich elementów mogą być nawet miliardy, uczone w odpowiedni sposób. I następnie realizują różne skomplikowane zadania, podobnie jak nasz mózg – dodaje. Choć sam prof. Szczuko unika pojęcia „sztuczna inteligencja”. – To nie jest inteligencja, tylko to jest bardzo sprawne przeprowadzanie różnych skomplikowanych obliczeń – podkreśla.  Woli mówić po prostu algorytmy.

Co ciekawe, podstawowa idea jest bardzo prosta. Można taką „sztuczną komórkę” stworzyć na kartce papieru. – Obliczenia związane z działaniem jednej takiej sztucznej komórki są bardzo proste. To jest wykonanie kilku operacji mnożenia, dodawania, a następnie sprawdzenia, czy wynik jest większy, czy mniejszy od jakiejś wartości progowej. Cała siła tkwi w tym, że takich zadań jest tam miliony i dopiero z ich współdziałania wynika interesujący rezultat – mówi prof. Szczuko.

W podcaście wyjaśniamy te wszystkie krążące w przestrzeni pojęcia, jak sieci neuronowe, uczenie maszynowe (machine learning), uczenie głębokie (deep learning). Rozważamy, do czego może być zdolna sztuczna inteligencja, a co jest raczej poza jej zasięgiem.

Na pewno może być niezłą artystką. Na przykład jest autorką ilustracji, która towarzyszy temu odcinkowi. Powstała tu: https://www.midjourney.com/

Audycję z prof. Szczuko nagrałam w Gdańsku w ramach podróży Radia Naukowego.

 

TRANSKRYPCJA

INTRO:

Piotr Szczuko: (…) zadaniem sztucznej inteligencji jest to, żeby w bardzo sprawny sposób znajdować związki pomiędzy danymi. Związki, których my jako ludzie z własną intuicją czy prostymi narzędziami, nie potrafimy odkryć.

Karolina Głowacka: Czy to by znaczyło, że sztuczna inteligencja jest lepsza od naturalnej? Na ile sztuczne sieci neuronowe są podobne do ludzkich mózgów? W tym odcinku wyjaśniamy fenomen technologii, która budzi wielkie nadzieje, ale i obawy. Nazywam się Karolina Głowacka, a rozmowę którą usłyszycie nagrałam w Gdańsku w czasie podroży Radia Naukowego. Wyjazdy są możliwe dzięki wsparciu na patronite.pl/radionaukowe. A tymczasem zaczynamy, odcinek sto dwudziesty drugi.

***

K.G.: Doktor habilitowany inżynier Piotr Szczuko, profesor Politechniki Gdańskiej gości Radio Naukowe. Dzień dobry.

P.S. Dzień dobry.

K.G.: Pan profesor pracuje w Katedrze Systemów Multimedialnych na Wydziale Elektroniki, Telekomunikacji i Informatyki rzeczonej Politechniki Gdańskiej. Będziemy rozmawiać o sztucznej inteligencji, o tym, czym w zasadzie ten bardzo popularny w przestrzeni medialnej twór jest. Postaramy się zrozumieć dokładnie, na czym sztuczna inteligencja polega i z czym ona się wiąże w przyszłości. Sztuczna inteligencja to znaczy sztuczny mózg, sztuczne neurony? Taki jest na to pomysł?

P.S.: Można powiedzieć, że pomysł rzeczywiście na tym polega, bo wszystko zaczęło się od matematycznej definicji tego, jak działa komórka neuronowa. Możemy sobie ją od razu wyobrazić jako pewien biologiczny mały element, który przyjmuje informacje w postaci impulsów nerwowych, prądów i następnie wypuszcza z siebie też jakąś informację. I jak pomyślimy w znaczeniu informatycznym, sygnałowym, takim elektronicznym, to rzeczywiście możemy postarać się zasymulować działanie takiej komórki i stwierdzić, że ona ma realizować pewną funkcję. Wkładamy do niej liczby, a ona w odpowiedzi na te liczby ma nam dawać jakiś wynik. I rzeczywiście tak te sztuczne sieci neuronowe są implementowane, są składane z takich małych elementów, łączone w bardzo duże sieci, gdzie takich elementów mogą być nawet miliardy, uczone w odpowiedni sposób, o czym dzisiaj będziemy rozmawiali. I następnie realizują różne skomplikowane zadania, podobnie jak nasz mózg. Ale trudno mówić tutaj o jakiejś inteligencji. Na pewno termin „sztuczny” jest jak najbardziej odpowiedni w tym znaczeniu. To nie jest inteligencja, tylko to jest bardzo sprawne przeprowadzanie różnych skomplikowanych obliczeń.

K.G.: Ho, ho, to teraz pan sam się dał wplątać w dyskutowanie o tym, czym jest inteligencja. No przecież u nas też obliczenia w głowie się odbywają. Cóż to takiego ta inteligencja jest?

P.S.: Nie wiem, może nasza własna inteligencja jeszcze jest podparta doświadczeniem, jakąś intuicją i jakimś zmysłem twórczym, estetycznym, których nie można jednak przypisać tym algorytmom.

K.G.: Myśli pan, że nie da się tego wszystkiego zapisać w matematyce?

P.S.: To jest chyba dyskusja na większe grono i na dłuższy czas.

K.G.: Dobra. To porozmawiajmy w takim razie o tym, jak działają te sztuczne neurony, sieci neuronowe. Pan mówił o tym, że są kolejne warstwy, że to polega na uczeniu się. Jak to działa, co się takiego dzieje?

P.S.: Bez tablicy trudno to wyjaśnić, ale spróbuję. Możemy sobie wyobrazić pewien bardzo prosty algorytm, bo tam u podstaw działania takiego sztucznego neuronu jest naprawdę prosty algorytm, którego zadaniem jest sprawdzać, co dostał na wejściu i na tej podstawie podejmować decyzje, co należy dać na wyjście. I przyjmijmy np., że rozpoznanie pomiędzy przedmiotem klasy A a przedmiotem klasy B, gdyby to były fotografie psów i kotów. Rozpoznanie jednego od drugiego polegałoby na tym, że moglibyśmy np. spojrzeć na różne cechy, czy powiedzmy, pyszczek jest płaski, czy taki wysunięty. Czy uszy są pionowe jak u kota, postawione, czy opuszczone jak u psa. Jak spojrzymy na różne takie cechy, możemy starać się podejmować decyzje. Opisać to liczbami, te koncepcje, o których przed chwilą powiedziałem, i spróbować w następujący sposób: jeśli uszy są wyprostowane w stopniu np. dziewięćdziesiąt, a pyszczek jest płaski, mamy do czynienia z kotem. Jeśli pyszczek jest wydłużony w jakimś tam stopniu większym niż pięćdziesiąt procent, a uszy są opuszczone, mamy do czynienia z psem. Ale my tej całej wiedzy nie musimy wyrażać explicite. Algorytm sam na wielu, wielu przykładach nauczy się, na czym polega ta zależność.

K.G.: Czyli my mu tylko pokazujemy: „Zobacz, to jest pies”, „Zobacz, to jest kot”, a ty sam, algorytmie, zorientuj się, co jest cechą, która wskazuje na jedno i drugie.

P.S.: Dokładnie w ten sposób. W uczeniu maszynowym, czyli tym procesie automatycznego tworzenia takich zasad my potrzebujemy tysiące, a czasami, jeżeli zadanie jest bardzo skomplikowane, miliony przykładów. Miliony przykładów, jak wygląda jedna klasa, jak wygląda druga klasa. W medycynie jak wyglądają symptomy pierwszej, drugiej, trzeciej choroby, jak wyglądają parametry życiowe osoby zdrowej. A algorytm samodzielnie znajduje najlepszy przepis na to, żeby skutecznie realizować dla nas zadanie takie jak rozpoznanie pomiędzy zdjęciem psa, kota, przedmiotów czy przeszkód na drodze dla samochodu autonomicznego i szeregu innych zastosowań.

K.G.: No to faktycznie to brzmi bardzo prosto. Nie ma w tym całej takiej romantycznej otoczki, jaka została wytworzona wokół sztucznej inteligencji. Tak jest, takie pan ma wrażenie, że to jest dość proste?

P.S.: Tak jest. Może to być takie… Rozczarowaliśmy się. [śmiech] Albo nie. Dlatego, że obok i wokół tego całego procesu jest mnóstwo różnych interesujących wyzwań. I to te wyzwania sprawiają, że ta dziedzina jest bardzo, bardzo interesująca i ciągle się rozwija.

K.G.: O tych wyzwaniach za chwilę jeszcze porozmawiamy. Chciałabym, żebyśmy jeszcze zrozumieli te podstawy dokładnie. I pewne pojęcia, które występują właśnie w przestrzeni publicznej. Czy deep learning, czyli właśnie uczenie głębokie to jest to samo, co uczenie maszynowe, i to jest to samo, co sztuczna inteligencja? Proszę nam uporządkować te pojęcia.

P.S.: Można powiedzieć, że uczenie maszynowe jest oparte na zależnościach statystycznych. Znajdujemy cechę, która pojawia się najczęściej, i stwierdzamy, że ona jest reprezentatywna dla jakiejś grupy i tworzymy automatycznie bardzo prostą regułę. Jeśli cecha występuje w odpowiednim natężeniu, to wtedy podejmujemy decyzję. Wobec tego bardzo często można te algorytmy nauczyć bardzo szybko i one nie wymagają dużej liczby danych. Czasami mówimy o uczeniu statystycznym właśnie na podstawie różnych cech opisowych. Staramy się stworzyć proste reguły.

Uczenie głębokie z kolei to jest zaangażowanie sztucznych sieci neuronowych, które mają często bardzo skomplikowaną architekturę. Jak powiedzieliśmy wcześniej, pojedynczy neuron może być bardzo prosty, ale siła tkwi w tym, jak te neurony są połączone ze sobą i w jaki sposób przekazują pomiędzy sobą informacje. Nasze biologiczne mózgi w ten sposób się uczą, że wzmacniają połączenia pomiędzy neuronami i w ten sposób w tej naszej biologicznej szarej strukturze ta wiedza jest zakodowana. W algorytmie takiej głębokiej sieci neuronowej rzeczywiście występują tzw. warstwy, czyli części, jak w naszym mózgu mamy partie odpowiedzialne za postrzeganie obrazów, następnie partie odpowiedzialne za pokojarzenie tego, co widzimy ze słowami, które zapamiętaliśmy i się nauczyliśmy wcześniej, następnie pokojarzenie z jakąś taką nabytą wiedzą, np. do czego służy przedmiot, który widzimy itd.

W sieciach głębokich też mamy warstwy odpowiednio dedykowane do różnych zadań, które bądź to coraz bardziej ogólnie, bądź w coraz większych szczegółach analizują dane wejściowe i próbują na nich wykonać jakieś działanie. Deep learning, czyli uczenie głębokie polega na uczeniu tych skomplikowanych struktur, które nazywamy sieciami głębokimi. Tak się przyjmuje, że jeżeli sieć składa się z więcej niż trzech takich warstw, czyli etapów następujących jeden po drugim, to już można powiedzieć o sieci głębokiej. Uczenie głębokie często angażuje miliony takich połączeń w takiej sztucznej strukturze, i to jest wyzwanie, jak w sposób efektywny, wydajny i skuteczny taką skomplikowaną strukturę nauczyć. I ta nauka polega na tym, że niektóre połączenia pomiędzy neuronami są zerowane, tak jakby nie było połączenia pomiędzy nimi, a niektóre są wzmacniane, tak, jak w mózgach biologicznych.

K.G.: To jest po prostu program komputerowy, tak? Pan kiwa głową, bo to proszę wybaczyć tym, którzy dobrze znają ten temat, ale wydaje mi się, że właśnie przez to, że narosło wokół tego tak wiele trochę romantycznych opowieści, to może nam się wydawać, że te sztuczne neurony to jest właśnie jakaś inna konstrukcja. Nie, to jest po prostu program komputerowy, w którym jak trzeba być zaawansowanym, żeby zajmować się takimi rzeczami? Czy student, studentka informatyki już bez problemu to ogarnie, czy to tworzą właśnie profesorowie Politechniki Gdańskiej, a wcześniej to nie da rady w ogóle się za to zabrać?

P.S.: Możemy zabrać się od razu, nawet nie potrzebujemy komputera, ponieważ obliczenia związane z działaniem jednej takiej sztucznej komórki, są bardzo proste. To jest wykonanie kilku operacji mnożenia, dodawania, a następnie sprawdzenia, czy wynik jest większy, czy mniejszy od jakiejś wartości progowej. To jest zadanie, które możemy rozwiązać wprost na kartce. Cała siła tkwi w tym, że takich zadań jest tam miliony i dopiero z ich współdziałania i takiego połączenia wynika interesujący rezultat.

K.G.: To porozmawiajmy w takim razie o zastosowaniach, bo ten prosty pomysł – jak pan o tym mówi, to faktycznie się wydaje takie olśniewająco proste – jest w stanie doprowadzić do bardzo interesujących rozwiązań. Np. od razu przypomina mi się, zresztą w Radiu Naukowym też o tym była rozmowa, o tym genialnym programie, który jest w stanie przewidywać strukturę 3D białek. To jest bardzo poważna sprawa dlatego, że to, w jaki sposób białka się skręcają, ma znaczenie biologiczne. Długo by o tym mówić, ale chodzi o to, że kiedy, że tak powiem, ludzie próbowali mniej więcej na piechotę się tym zajmować, to zajmowało to bardzo dużo czasu, w laboratoriach to drogie itd. No to przychodzi firma DeepMind i mówi: proszę, mamy tutaj program, który jest w stanie ogarnąć… Zdaje się, dziewięćdziesiąt dziewięć procent skuteczności mają. To jest niezłe.

P.S.: No podobnych zastosowań jest mnóstwo. Cała siła takich algorytmów i to, że one nagle zaskoczyły nas, że takie skomplikowane zadanie zrealizowały tysiąc razy szybciej, niż wcześniej było to wykonywane za pomocą innych rozwiązań, cała ta siła wzięła się stąd, że do tego zadania przyjęto jako podstawę działania taki algorytm, który jest bardzo, bardzo skomplikowany, ale składa się z prostych klocków, i dostarczono do niego odpowiednie dane do nauczenia tego algorytmu. Określanie struktury białek na początku w laboratorium w sposób ręczny i metodami tradycyjnymi było podstawą do tego, żeby stworzyć zbiór, który następnie zostanie użyty do tego, żeby algorytm wyuczyć. Pamiętajmy też, że zadaniem sztucznej inteligencji jest to, żeby w bardzo sprawny sposób znajdować związki pomiędzy danymi. Związki, których my jako ludzie z własną intuicją czy prostymi narzędziami, nie potrafimy odkryć. Ale one w tych danych istnieją i algorytm dąży do tego, żeby je skutecznie opisać i zastosować.

K.G.: Nie potrafimy odkryć czy nie potrafimy ich zdefiniować? Bo taka sztuczna inteligencja, która musi się nauczyć, czy dane zdjęcie przedstawia kuchnię, czy salon, no to musi sobie to jakoś rozpisać po swojemu na kawałki, prawda? My jakoś tak widzimy – kuchnia, salon, więc wydaje mi się, że pewne rzeczy u nas są… Te obliczenia, jakie się odbywają w naszym mózgu, są takie… Nie robimy tego na piechotę, tylko to się robi za pstryknięciem palcami.

P.S.: Tak, tak, ale zanim ten sygnał, jakim jest światło padające na siatkówkę naszego oka itd., zostanie przetworzony przez też miliony komórek nerwowych na siatkówce oka i w naszym mózgu, zanim to wszystko się stanie, to też mija trochę czasu. To są ułamki sekundy oczywiście, ale te obliczenia i angażowana liczba naszych biologicznych komórek też jest ogromna.

Algorytm robi to samo, nauczyliśmy go np. w miesiąc, bez milinów lat ewolucji oka i zmysłu wzroku. Albo teraz robimy to znacznie szybciej. I to jest bardzo interesujące porównanie właśnie z biologicznym zmysłem wzroku, ponieważ te algorytmy sztucznej inteligencji, których zadaniem jest analizować obraz, jak się okazuje, wyuczyły się bardzo podobnych rzeczy, jakie realizowane są przez nasze komórki nerwowe. Wiadomo z analizy budowy oka i siatkówki, że komórki, czopki i pręciki na dnie naszego oka połączone są ze sobą już w naszym oku w sieć, w taki pierwszy etap przetwarzania obrazu. I tam mamy produkcję bardzo dużych sygnałów nerwowych w reakcji na odpowiednie wzorce w obrazie, pojawiają się linie poziome, pionowe, okręgi, linie o odpowiednim nachyleniu i odpowiedniej grubości, a okazuje się, że sieci neuronowe, których też uczyliśmy zadania rozpoznawania obrazu, w swoich pierwszych warstwach uczą się i reagują dokładnie na te same rzeczy. Też nauczyły się, że ważne jest to, jakie to są linie, jak są pochylone i w jakich zgrupowaniach te drobne elementy obrazu występują.

K.G.: A to o czym by to świadczyło? O tym, że tak bardzo się inspirujemy naturą czy że proces uczenia się jest w pewnym sensie uniwersalny?

P.S.: Ja myślę, że ewolucja po prostu znalazła najlepsze rozwiązanie, wydajne dla naszych biologicznych organizmów, które od tego, czy nasze zmysły będą działały efektywnie, zależy nasze przetrwanie. To jest ta presja ewolucyjna. I ewolucja znalazła najlepsze rozwiązanie. My teraz, wielokrotnie powtarzając proces nauki sieci, nie mamy gwarancji, że wyjdzie pozytywny wynik i nasz model będzie w stanie dobrze realizować zadanie. Robimy dziesiątki tysięcy różnych podejść i eksperymentów, wymyślamy nowe sposoby połączenia pomiędzy tymi komórkami, nowe sposoby uczenia tych komórek, nowe architektury, zmieniamy głębokość takich sieci neuronowych, zmieniamy ich szerokość i szereg innych rzeczy, trochę naśladując tę biologiczną ewolucję i na końcu obserwujemy, czy uzyskany wynik jest dobry, czy nie. I okazuje się, że najlepsze wyniki uzyskujemy rzeczywiście wtedy, kiedy ten nasz algorytm, można powiedzieć w przenośni, wpadł na to samo, co przez miliony lat wypracowała ewolucja zmysłu wzroku.

K.G.: A to szalenie ciekawe. Pan, zajmując się sztuczną inteligencją, interesuje się również czy naukowo, czy bardziej prywatnie właśnie biologią i tym, jak to wszystko u nas działa?

P.S.: Tak. Nie da się tego uniknąć, bo my od tych obliczeniowych algorytmów bardzo często wymagamy tego samego, co realizują nasze zmysły. Wymagamy tego, żeby algorytm rozumiał mowę. Mówimy do mikrofonu, rejestrujemy próbki, powstaje sygnał, nasz mózg i ucho analizują ten sygnał w dziedzinie częstotliwości i zamieniają je w odpowiednie rozpoznawane wzory głosek. Potem kolejne partie w naszym mózgu te głoski składają w słowa, słowa są rozumiane, ponieważ uczyliśmy się ich w dzieciństwie. Gramatyka, składnia. I wyobraźmy sobie jeszcze, że chciałbym pomyślane zdanie przetłumaczyć na inny język. To muszę znać z kolei gramatykę, składnię, słownictwo tego drugiego języka, a następnie wypowiedzieć odpowiednie zdanie.

K.G.: Tak, niestety po prostu podkładanie słów pod naszą gramatykę nie zawsze działa w różnych językach. [śmiech]

P.S.: Tak.

K.G.: Jeszcze do tego trzeba dodać różne kwestie np. ironii czy kontekstu. Sztuczna inteligencja jest sobie w stanie poradzić z odczytywaniem ironii?

P.S.: Powoli do tego zmierzamy, m.in. dużo badań się teraz prowadzi nad takim zadaniem, które nazywa się analizą sentymentu. Sentyment rozumiany jako zdanie o wydźwięku pozytywnym, negatywnym, może niedługo także ironicznym, sarkastycznym.

K.G.: To jest trudne.

P.S.: Ponownie – wszystko rozbija się o to, czy posiadamy odpowiedni zbiór danych i odpowiednio dużo przykładów. Tu ciągle jest słabość tych algorytmów sztucznej inteligencji, że one nie potrafią nauczyć się na jednym przykładzie, a my potrafimy. Wystarczy, że ja raz zobaczę zdjęcie zwierzęcia, którego nigdy nie widziałem i ktoś mi powie: „Zobacz, to jest kapibara”. I ja już będę wiedział, jak odróżnić tę kapibarę od tysięcy innych gatunków. Algorytmy sztucznej inteligencji tego nie potrafią.

K.G.: Dlaczego?

P.S.: Ponieważ nie uczą się w taki sposób jak my. Tak jakbyśmy za każdym razem, gdy mamy nauczyć się nowego zadania, modyfikowali cały nasz mózg. A to przecież nie tak działa, bo części odpowiedzialne za rozumienie obrazu są zawsze takie same, a my mamy na końcu pewną świadomość, naszą podświadomość i potrafimy zastosować przeszłą wiedzę do tego, żeby rozwiązać nowe zadanie. Te algorytmy tego na razie nie umieją, ale dużo się teraz wysiłku wkłada w to, żeby takie rozumienie i generalizację, jak to mówimy, zastosować i wykorzystać też w algorytmach sztucznej inteligencji.

K.G.: To bardzo ciekawe, że właśnie mimo tego, że inspiracja jest ewidentnie biologiczna, to ta biologia cały czas wygrywa i to właśnie w takich dość prostych przykładach, tak jak pan wspomniał o tym pojedynczym zdjęciu, to faktycznie wyraźnie widać te różnice. Zmysły sztucznej inteligencji – pociągnijmy to trochę dalej, bo zmysły czy też „zmysły”, no ale ona jest w stanie odczytywać obraz, odczytywać mowę, a jest w stanie np. zorientować się w kwestii dotyku albo zapachu?

P.S.: Tak. Nie pamiętam, kto, ale ostatnio opublikowane były badania na temat czujnika zapachu i możliwości rozpoznawania go swoją precyzją dorównującą już wkrótce legendarnemu psiemu nosowi. Więc takie ambitne zadania opierają się na tym, że potrafimy najpierw, bez udziału sztucznej inteligencji, stworzyć czujniki, które pozyskają ze środowiska tę informację. A dopiero sztuczna inteligencja jest gdzieś dalej, która zinterpretuje tę informację, gdy ona już jest wyrażona w formie cyfrowej, czyli zapach – tak bardzo subiektywna i całkowicie biologiczna rzecz musi być odpowiednimi czujnikami zarejestrowany, opisany w całym spektrum swoich składników…

K.G.: Cząsteczki chemiczne przepisane na matematykę, tak?

P.S.: Tak. Każda koncepcja, jeżeli da się ją wyrazić liczbami w sposób jednoznaczny, to wtedy do tych liczb możemy zastosować sztuczną inteligencję. Piksele w obrazie przepisujemy na liczby, na koncepcje takie jak kształty i sztuczna inteligencja robi rozpoznanie.

K.G.: A dźwięk jak jest przepisywany?

P.S.: Dźwięk rozkładamy na składniki widmowe, czyli to, że ja mówię niskim głosem, a spółgłoski syczące mają zupełnie inne widmo. I taka reprezentacja widmowa jest następnie opisywana tzw. parametrami, czyli jak niski jest głos, jakie ma harmoniczne, jakie ma formanty i szereg innych rzeczy. I gdy tę tzw. niskopoziomową informację włożymy jako wejście do algorytmu sztucznej inteligencji i nauczymy go, że to i to oznacza składniki już tego przywołanego wcześniej słowa „kapibara”, mamy spółgłoski, samogłoski, to wtedy algorytm odpowiednio znajdzie te części w tym sygnale, w tej reprezentacji, które oznaczają rzeczywiście odpowiednie głoski, następnie litery, sylaby itd.

K.G.: A dotyk? Siła będzie rozbijana, rozpisywana na matematykę?

P.S.: To wydaje się nieskomplikowane. Nie śledziłem badań w tym kierunku, ale jest bardzo proste rozwiązanie jak np. perkusja elektroniczna. Tam można pałeczką uderzyć bardzo lekko i to jest rejestrowane jako lekkie uderzenie, i synteza dźwięku odtwarza nam bardzo cichy dźwięk np. uderzanego talerza. Albo możemy uderzyć bardzo mocno, więc ta siła jest bardzo prosta do pomierzenia. Pytanie teraz, w jaki sposób taki algorytm miałby naśladować nasz ludzki dotyk. My, dotykając, odczuwamy nie tylko siłę, ale też szorstkość powierzchni, odczuwamy temperaturę tej powierzchni i jej wilgotność, i jeszcze wiele innych rzeczy, które też są wielkościami fizycznymi, do których mamy odpowiednie czujniki. Pytanie teraz, czy badania pójdą dalej w tym kierunku, żeby zintegrować te wiele różnych czujników w jednym urządzeniu, takim sztucznym palcu, dłoni, która miałaby za pomocą pojedynczego dotyku rozpoznać te wszystkie wymienione cechy.

K.G.: Proszę wybaczyć, że ja tak pana dręczę o te zmysły, ale jestem w trakcie autozachwytu nad możliwościami biologicznymi ciała, dopiero, kiedy o tym rozmawiamy, jakoś mnie to tak uderza. A jeśli damy sztucznej inteligencji kiepskie dane, to co? To ona się kiepsko nauczy czy się zorientuje, że to są marnej jakości dane?

P.S.: Kiepsko się nauczy. To jest znane przysłowie: garbage in, garbage out, czyli jeśli wkładamy śmieci, to także nie uzyskamy wartościowej odpowiedzi. Co prawda dużo się dzieje również w tej dziedzinie. Powoli pojawiają się coraz bardziej zaawansowane metody uczenia bez nauczyciela. Bo to, co mówiłem wcześniej, nazywane jest uczeniem nadzorowanym albo uczeniem z nauczycielem, gdzie na każdy przykład my – uczący wiemy, jaka powinna być odpowiedź i sprawdzamy, czy model tej sztucznej inteligencji dał nam taką odpowiedź, jak trzeba i oceniamy jego działanie.

Uczenie bez nauczyciela polega na tym, że dane, które otrzymał algorytm, wcale nie muszą być opisane, że „To jest kot”, „To jest pies”, „To jest tygrys”, gdybyśmy rozpoznawali zwierzęta na zdjęciach. Takie dane bez żadnego opisu, po prostu zdjęcia, nie muszą mieć wysokiej jakości. One nie muszą mieć właściwych etykiet, właściwych nazw tych zwierząt, a algorytmy potrafią już pogrupować, że te zdjęcia przedstawiają jakiś gatunek A, którego algorytm nie zna, ale widzi, że te zwierzęta są podobne do siebie, a szereg innych zdjęć przedstawia zupełnie inny gatunek zwierzęcia, który ma szereg innych cech. I to nazywamy uczeniem nienadzorowanym. I jest to bardzo dobry i zalecany, że tak powiem, krok do tego, żeby algorytmy, które tworzymy, robić jeszcze lepszymi, bardziej sprawnymi i skutecznie działającymi.

K.G.: A co to takiego jest black box, czarna skrzynka, która wywołuje niepokoje, jeśli chodzi o sztuczną inteligencję?

P.S.: No to jest dobre pytanie, bo rzeczywiście brzmi to trochę złowieszczo, ale czarną skrzynką nazywamy te algorytmy z tego powodu, że wkładamy na wejście jakieś dane i obserwujemy, interesujemy się tym, co jest na wyjściu. W środku odbywa się szereg operacji matematycznych i jest ich często miliardy, i zajmują bardzo dużo czasu czasami. I trudno jest zajrzeć do środka, i zinterpretować, co oznacza pojedyncze mnożenie czy dodawanie jakichś dwóch liczb, dlatego uznaje się, że cały ten algorytm jest czarną skrzynką, do której nie za bardzo interesujemy się, jak zajrzeć. Ale ostatnie lata pokazały, że można to zrobić, można zajrzeć do tej czarnej skrzynki i zinterpretować jej działanie. Możemy zajrzeć do pojedynczej warstwy w wielowarstwowej kaskadzie wszystkich operacji i stwierdzić, że np. ta warstwa działa tak samo, jak siatkówka naszego oka i znajduje, i reaguje na linie, na punkty, na jakieś wyraźne kształty w obrazie. I taka dyscyplina nazywa się teraz wyjaśnialną sztuczną inteligencją. Taki termin z języka angielskiego XAI – explainable – wyjaśnialna sztuczna inteligencja.

Teraz pojawiły się rekomendacje Unii Europejskiej, które mówią, że wszędzie tam, gdzie nasze dane, dane liczbowe, dane o dacie urodzenia, płci, nazwisko, dane o naszym pochodzeniu czy dane medyczne miałyby być przetwarzane i rezultat z tego przetworzenia miałby nas bezpośrednio dotykać, jak np. diagnoza i skierowanie nas na dalsze badania, to my jako podmiot tego przetwarzania mamy prawo zażądać uzasadnienia, dlaczego wynik tego działania jest taki, a nie inny. W takim razie tam, gdzie dane są przetwarzane, potrzebujemy uzasadnienia do tego wyniku. I tutaj zastosowanie mają te algorytmy i dodatkowe narzędzia wyjaśniania działania sztucznej inteligencji.

K.G.: A to znaczy, że ten kłopot czarnej skrzynki w takim razie już schodzi na dalszy plan? Bo czytałam dużo właśnie takich zaniepokojonych głosów, również ze strony specjalistów, że pewnych rzeczy jednak nie powinniśmy zostawiać całkiem poza naszą kontrolą, że powinniśmy móc wiedzieć, co ta maszyna tam dokładnie robi. Ale to z tego, co pan mówi, wychodzi na to, że ta sprawa już przestaje być problematyczna.

P.S.: Tak, od kilku lat jest bardzo duża świadomość na ten temat. Że nie możemy pozostawić działającego algorytmu samemu sobie i powinniśmy wiedzieć, dlaczego on podjął taką, a nie inną decyzję, a co więcej, na samym końcu, gdy już z algorytmu otrzymaliśmy informację np. w aplikacji medycznej, że ten pacjent jest zdrowy, ta informacja nie powinna zostać automatycznie zastosowana np. w postaci SMS-a: „Odwołujemy twoją wizytę u lekarza”, tylko powinna trafić do specjalisty, który sam, dysponując własną wiedzą, doświadczeniem, a także czasami ważną intuicją, powinien dopiero wtedy podjąć decyzję. Algorytm chociaż jest bardzo wydajny, jak słyszymy coraz częściej, niesamowicie skuteczny w bardzo skomplikowanych zadaniach, on ma być tylko pomocą dla człowieka.

K.G.: Chociaż też w Radiu Naukowym rozmawiałam o zastosowaniach sztucznej inteligencji w wymiarze sprawiedliwości i tam np. poruszana była taka kwestia: oto jest algorytm stosowany w Stanach Zjednoczonych, który sugeruje sędziemu, czy wypuścić osobę na zwolnienie warunkowe, czy nie. No i kiedy taki algorytm mówi: „Hm, w dziewięćdziesięciu ośmiu procentach jest prawdopodobieństwo, że ponownie popełni przestępstwo”, a sędzia miałby np. tę intuicję albo wiedziałby, że dana osoba jednak robi pewne postępy w resocjalizacji i chciałby wypuścić, no to weźmie na siebie odpowiedzialność czy nie? Bo potem ktoś może do niego przyjść i powiedzieć: „No proszę zobaczyć, tutaj algorytm sugerował z dużym prawdopodobieństwem, żeby tego nie robić”. Bo ja rozumiem to, co pan mówi, że zasadniczo mówi się o tym, że to nie sztuczna inteligencja ma podejmować decyzje, tylko człowiek ostatecznie ma za to brać odpowiedzialność, ale ta siła sugestii może być na tyle duża, że w zasadzie jednak to algorytm będzie decydował.

P.S.: Trudno tego uniknąć oczywiście, ale to już etyka zawodowa i przygotowanie specjalisty do pracy z takim algorytmem. W swoim rozwoju musimy dogonić te możliwości, które daje nam sztuczna inteligencja.

K.G.: Dobra. Co nam sztuczna inteligencja daje? Możemy trochę więcej o kwestii medycyny? Bo to mniej więcej kojarzymy, że np. w radiologii sztuczna inteligencja analizuje właśnie zdjęcia i tam jest w stanie powiedzieć czy zasugerować, że tutaj dany pacjent może być chory albo zdrowy. A gdzie jeszcze w medycynie? Wiem też, że się pan zajmował interfejsem mózg-komputer.

P.S.: Tak, rzeczywiście, tutaj bardzo interesujące wyniki można uzyskać, jeżeli zastosujemy takie złożone algorytmy. Powoli chyba zacznę w rozmowie używać jednak pojęcia „algorytm”, ponieważ „sztuczna inteligencja” zawsze nam się kojarzy z pewnym bytem, który ma swój cel, któremu możemy niepotrzebnie przypisywać…

K.G.: Jak podbić świat i zniszczyć ludzkość, to wszyscy wiemy. [śmiech]

P.S.: To zdecydowanie nie jest prawda, możemy za chwilę do tego tematu wrócić – czy mamy się obawiać tej sztucznej inteligencji, czy nie. Więc algorytm – tak wolałbym teraz mówić – ten algorytm w medycynie. Proszę państwa, to są bardzo interesujące obecnie badania, które prowadzą do tego, że udaje się skutecznie rozpoznać intencje osoby, która np. jest sparaliżowana i która nie potrafi sama wykonać czynności albo się wypowiadać. Poprzez obserwowanie aktywności mózgu, poprzez rejestrację sygnałów w tym mózgu, sygnału EEG jesteśmy w stanie z tego sygnału wydobywać wzorce, rozpoznawać je i stwierdzać, że taka osoba ma np. chęć wypowiedzieć jakieś słowo i komunikować się z nami. To mogą być proste komunikaty: „Tak”, „Nie” albo bardziej złożone np. „Jest mi zimno”, „Jestem głodny” lub dowolne inne.

Na razie jeszcze mózg każdego człowieka w zasadzie jest niepoznany i to, że udaje się eksperyment wykonać dla jednego pacjenta, nie daje nam gwarancji, że dla innych osób będzie działać identycznie. Chociaż biologiczne mózgi wykazują duże podobieństwo, to jednak aktywność tych mózgów jest ciągle jeszcze dosyć różna, więc nie musimy się obawiać tego, że ktoś będzie odczytywał nasze myśli dlatego, że zrobienie algorytmu, który działa dla jednego pacjenta i potrafi określić, jaką on ma intencję, ten sam algorytm nie będzie miał zastosowania w przypadku innych osób. Gdybyśmy mieli kolejnego pacjenta, musimy dla niego tworzyć we współpracy właśnie z nim taki indywidualny słownik. Umówić się z tą osobą: „Pomyśl teraz o tym, że chcesz zjeść, chcesz pić albo obniżyć temperaturę w pokoju. My zarejestrujemy, jak wygląda aktywność twojego mózgu w trakcie tej intencji i wtedy nauczymy komputer, żeby za każdym razem tłumaczył nam to, co się dzieje w twoim mózgu właśnie na taki komunikat”. A u każdej osoby to będzie zupełnie inaczej.

K.G.: Myśli pan, że to mogłoby być też stosowane u osób zdrowych z jakiegoś takiego naszego turbolenistwa, że będziemy tylko myśleć: „Proszę zgasić światło” i światło będzie gasło? Pan się uśmiecha, ale to ja wiem, że my jesteśmy leniami okrutnymi.

P.S.: No okrutnymi leniami, rzeczywiście. Pytanie teraz, jak dużo z naszego życia mamy chęć oddać tym automatom? Patrząc chociażby od takich typowo rozrywkowych zastosowań, że włączę sobie playlistę muzyki i w ogóle mnie nie interesuje ręczne ustawianie, jaka piosenka będzie następna i w całości wysłucham, będę zadowolony z tej playlisty. A idąc do jakichś dalszych zastosowań, np. „Podniosę się z krzesła dopiero wtedy, jak moja opaska sportowa mi powie, że mam się podnieść” i szereg innych. Czy ludzie będą mieli tendencję do tego, żeby tak dużo własnego prywatnego życia oddać algorytmom, to trudno powiedzieć.

K.G.: Ale technicznie byłoby to możliwe pewnie?

P.S.: Tak.

K.G.: Dużo się mówi o generatorach różnych rzeczy, jakie właśnie sztuczna inteligencja jest w stanie zrobić. Generator muzyki, grafiki, twarzy, scenariuszy i książek. Przeczytałam ostatnio, że jedna książka napisana przez algorytm nawet się dostała do kolejnego etapu w japońskiej nagrodzie literackiej, więc… [śmiech] To była fantazja o sztucznej inteligencji, żeby było lepiej. Czy to jest rozrywka, czy to jest też coś, co może nam pomóc jakoś cywilizacyjnie, te wszystkie generatory?

P.S.: I rozrywka, i duża pomoc. Algorytmy generują tekst, generują artykuły naukowe, generują pejzaże, zdjęcia fotorealistyczne, kadry do filmu animowanego, kadry do komiksu i szereg innych rzeczy. Zaskakujące jest, i to jest historia ostatnich tygodni, jak bardzo mocno te algorytmy generujące obraz się rozwinęły. Oczywiście algorytm generujący mowę, muzykę także istnieje, ale szczególnie dużo emocji wzbudza ten generujący obraz.

Ostatnio Midjourney czy Stable Diffusion, czy kilka innych jest szeroko opisywanych w kontekście np. naruszania praw autorskich. I dopiero przyszłe miesiące albo lata przyniosą jakieś rozwiązanie i odpowiedź np. na bardzo ważne pytania: kto ma prawo do wyników działania takiego algorytmu, który został nauczony np. na moich dziełach? Czy to ja sam, skoro one są dziełami wtórnymi wynikającymi z moich opracowań, czy może twórca tego algorytmu, który dokonał subiektywnej selekcji, czy może jeszcze kto inny? Czy może użytkownik, który poprosił o wygenerowanie, dostarczył tzw. tekst zachęty, takie pytanie – często to są bardzo skomplikowane pytania i już samo wymyślenie, o co zapytać ten algorytm, jest pewnym takim aktem twórczym i sprawczym, więc może również ten użytkownik ma jakieś prawa autorskie, prawa własności do tego wygenerowanego wyniku? Myślę, że dużo musi wody upłynąć, zanim znajdziemy odpowiedź na to pytanie: kto ma prawo własności? Zobaczmy, że rozwój tych algorytmów tak bardzo swoją dynamiką nas zaskoczył, że nie mamy rozwiązań ani prawnych, ani etycznych na te nowe pytania.

K.G.: A jak pan myśli? Kto ma największe prawo autorskie – można powiedzieć – do takiej grafiki?

P.S.: Jeżeli w obrazie widzę jawną inspirację np. stylem van Gogha, to nie ma problemu, ponieważ van Gogh jest już w domenie publicznej, można byłoby powiedzieć, i niech te rezultaty rzeczywiście też będą ogólnodostępne i dla wszystkich. Natomiast, jeżeli widać tam nawiązania do stylu jakiegoś współczesnego grafika, który wypracował sobie indywidualny i bardzo rozpoznawalny styl, to jednak jego prace, jeżeli on sam jasno nie powie, że zezwala na wykorzystanie takich dzieł pochodnych, to ten rezultat jednak powinniśmy przypisywać jemu.

K.G.: Ale jest to trochę onieśmielające, przynajmniej dla mnie, że właśnie przychodzi sobie taki algorytm i jest w stanie tworzyć dzieła sztuki czy właśnie kadry, jak pan mówi, do filmów animowanych czy komiksów, czy tworzyć teksty – to szczególnie mnie niepokoi zawodowo. [śmiech] No właśnie, czy dla pana to też jest onieśmielające, czy może jednak to ma na tyle dużo ograniczeń, że nasza rola na świecie jako ludzi, twórców, coś, co jest dla nas bardzo ważne jako dla definiowania tego, że jesteśmy gatunkiem wyjątkowym, jesteśmy gatunkiem twórczym, jest jednak niezagrożona? Jak pan to widzi? Trudne pytanie o poranku.

P.S.: Trochę trudne, ale myślę w ten sposób, że skoro algorytm jest w stanie wykonać coś, co ma pewne aspekty estetyczne, może pewne emocje przekazuje poprzez obraz czy dźwięk, ale raczej ciągle kopiując dzieła znanych twórców, to może to jest teraz taką inspiracją dla innych twórców, że warto skupić się na wypracowaniu jakiegoś indywidualnego i niepowtarzalnego stylu, takiego, którego ten algorytm nie jest w stanie wytworzyć. Nie ma też gwarancji, że dzieło stworzone przez taki algorytm będzie w nas wywoływało takie emocje, jak dzieło rzeczywiście stworzone przez człowieka.

Możemy się doszukiwać tutaj pewnych korzyści z tego, że algorytm często jest pewną podpowiedzią dla artysty, może jego takim lepszym narzędziem, lepszym pędzlem do tworzenia treści. Wspomniałem tutaj np. o komiksie wykonanym przez sztuczną inteligencję, ale stworzenie tego komiksu wymagało odpowiedniej umiejętności w zastosowaniu tego właśnie inteligentnego pędzla i narzędzia. Człowiek wymyślił fabułę, wymyślił i sprawdził, w jaki sposób należy zadawać pytania temu algorytmowi, dokonał autorskiej selekcji tych rezultatów, wybrał i ułożył samodzielnie te kadry w całość i w ten sposób, korzystając z tego inteligentnego pędzla, stworzył dzieło, które jest ciągle jego własnym. Jeżeli w ten sposób spojrzymy, to możemy zarówno generatory treści, muzyki, jak i słów, obrazu traktować właśnie jako takiego wydajnego pomocnika, który dla nas zrobi dużo różnych rzeczy. Michał Anioł i jego freski, i szereg pomocników, którzy na jego polecenie dokonują tworzenia i tworzą detale, dorysowują i poprawiają.

K.G.: Jakie pan jeszcze widzi wyzwania? Bo mówił pan o tym, że trochę nie nadążamy za rozwojem tych algorytmów i tego, że one nas zaskoczyły w pewnym sensie swoimi możliwościami. Kwestia prawa własności, praw autorskich, ale myślę też, że kwestia np. odpowiedzialności jest istotna. Twórca algorytmu jest odpowiedzialny za jego działanie i decyzje? Dostarczyciel danych, użytkownik? Jak pan to widzi?

P.S.: No na pewno odpowiedzialny jest twórca. Zwróćmy uwagę np. na wynalazek druku. To pozwoliło w zasadzie publikować dowolne treści i wcale nie otworzyło to wielkiego worka czy jakieś puszki Pandory, tylko pozwoliło przekazywać na duże odległości wielu osobom to, co jest ważne, co może być istotne, co może pozwolić im poszerzyć swoją wiedzę i możliwości.

K.G.: No wie pan, złe rzeczy też w druku były i są kolportowane. [śmiech] To tak samo z Internetem – baza zarówno wiedzy, jak i głupoty.

P.S.: Zgadza się, ale my jako świadomi użytkownicy możemy to ocenić po swojemu. I tak jak istnieją obawy, że za chwilę Internet zostanie zalany deep fake’ami, czyli zdjęciami albo filmami, w których osoba robi coś, czego tak naprawdę nigdy nie zrobiła, podobna sytuacja mogła nastąpić, kiedy ktoś pisał i drukował jakiś paszkwil.

K.G.: No tak, ale to jeszcze nie jesteśmy do tego przyzwyczajeni. Bo myślę, że stąd jest ten niepokój, jeśli chodzi o deep fake’i, bo jednak picture or didn’t happen, czyli, że zobaczymy zdjęcie, że coś się wydarzyło i ufamy zdjęciu. Kiedyś tak było, teraz już wiemy, że te fotomontaże są proste. No to w takim razie wideo, bo z wideo nie jest łatwo. No to się okazuje, że wideo teraz przez deep fake’i mogą być takie, że Wołodymyr Zełenski ogłosi, że przyłącza się do Rosji – oczywiście nie będzie to on, ale tak to będzie wyglądało na tym wideo. I przez jakiś czas to może jednak wywołać zamieszanie. No to jest jednak jakieś zagrożenie.

P.S.: Dlatego nagłaśniajmy to. Nagłaśniajmy i uświadamiajmy, jak tylko się da, że materiał, który ktoś zobaczył w Internecie, wcale nie musi być autentyczny. Na szczęście jeszcze na razie film wygenerowany przez sztuczną inteligencję jest naprawdę bardzo sztuczny i wprawne oko albo chociażby osoba, która wie i usłyszała od znajomych, na co należy zwrócić uwagę, gdy się ogląda taki materiał, będzie w stanie wychwycić te różne niuanse. Przykładowo algorytmy tworzenia twarzy danej osoby świetnie sobie radzą z widokiem en face, ponieważ liczba danych i zdjęć pokazujących osobę, celebrytę na wprost jest ogromna. A znacznie mniej istnieje dostępnych zdjęć, które pokazywałyby profil, półprofil lub jakieś nietypowe ułożenie głowy, a w filmie oczekujemy, że takie gesty i przekręcanie głowy się pojawią. Algorytm, generując takie części obrazu, nie radzi sobie i np. zmienia kształt twarzy, zmienia rysy twarzy wtedy, kiedy ona jest pokazywana z półprofilu albo z profilu.

K.G.: A do czego algorytm, sztuczna inteligencja nie będzie się nadawać nigdy w pana opinii?

P.S.: Jeszcze jakiś czas temu myślałem, że właśnie brakować będzie w algorytmach tej zdolności wymyślania czegoś nowego, ale generatory obrazu pokazały nam, że to jest jak najbardziej możliwe, chociaż ciągle jest to wspomaganie autora. To ja muszę napisać ten tekst nazywany zachętą, muszę określić, czego tak naprawdę oczekuję, a wtedy algorytm spróbuje to zrobić. Oczywiście mogę tam podstawić losowy ciąg słów i zobaczyć, jaki jest wynik, i stwierdzić, że to jest w pełni kreacja sztucznej inteligencji, bo na początku algorytm wylosował słowa, a potem inny algorytm stworzył na tej podstawie np. obraz.

K.G.: Taki metapoziom.

P.S.: Tak. Czy dalej pójdzie to w takim kierunku, że rzeczywiście zauważymy jakąś twórczość, jakąś sprawczość – trudno teraz powiedzieć. Ale dopóki wszystko zamknięte jest w ramach takiego algorytmu, dopóki my wiemy, co robić z tymi wynikami i jesteśmy ostrożni, to nie widzę zagrożenia, żeby takie algorytmy miały za chwilę np. twórcom zagrozić czy generować jakieś niebezpieczne treści.

K.G.: Mam nadzieję, że sztuczna inteligencja nie da rady być np. komikiem. Bo ta kwestia ironii i sarkazmu jest, jak rozumiem, na razie jeszcze trudna dla algorytmów?

P.S.: Też tak uważam.

K.G.: To dobrze. [śmiech] Jak pan to widzi w takim razie? Bo ta dyskusja wraca raz na jakiś czas, że właśnie przyjdą maszyny, algorytmy i zmiotą w zasadzie większość zawodów. Jak pan to widzi? Jaka będzie ta nasza przyszłość? Czy ja się mam martwić jako dziennikarka?

P.S.: Sądzę, że nie. Ja nie chciałbym teraz rozmawiać z algorytmem.

K.G.: A dlaczego? Mógłby się pan nie zorientować, jakby był odpowiedni robot zrobiony, skóra bardzo podobna do ludzkiej, peruka, odpowiednia mimika, to wszystko już się dzieje przecież.

P.S.: Tak, takie bardzo realistyczne mimiki już widzieliśmy, ale ciągle jeszcze jest ten kontakt międzyludzki i to, że spojrzeniem wyrażamy dużo różnych rzeczy, które trudno odtworzyć w formie działającego robota. Czy np. to, że ktoś zrozumie kontekst i zaśmieje się w odpowiednim momencie. Gdybym rozmawiał z osobą, która w ogóle np. nie wyraża emocji – ja np. czasami bardzo mało emocji wyrażam – to byłoby mi wtedy ciężko. Czułbym, że algorytm czy robot naśladujący człowieka jest w tzw. dolinie niesamowitości, że jest tak bliski swoim realizmem człowiekowi, ale ciągle jeszcze bardzo odległy. To nazywane jest uncanny valley.

K.G.: I co, wywołuje niepokój?

P.S.: Bardzo duży niepokój. Ludzie, odbiorcy są bardziej skłonni zaakceptować nierealistycznego robota albo…

K.G.: R2-D2 lepiej jakby tu siedział.

P.S.: Tak. Niż hiperrealistyczna Ai-Da…

K.G.: Niż z Blade Runnera, okej. Czyli jako dziennikarka się nie martwię, ale jeśli chodzi o te zawody – część zawodów pewnie jednak zniknie. I ja wiem, że mają powstać kolejne, ale kiedy się o nich mówi, to one są wysoce wyspecjalizowane, to nie będą zawody dla każdego.

P.S.: Współcześnie też mamy wiele technologii, które zostały zautomatyzowane i do ich obsługi potrzebujemy specjalistyczne kompetencje. I z kolejnymi elementami naszego życia wydarzy się prawdopodobnie to samo. Bardzo łatwo jest w formie działającej maszyny wykonywać np. czynności, które są powtarzalne. Ale one człowieka nie rozwijają i myślę, że ludzie będą bardzo chętnie oddawali te powtarzalne czynności maszynom. Czynności takie jak obsługa jakiejś przestrzeni magazynowej itd., to już jest zautomatyzowane. Dostawy zautomatyzowane. I szereg innych. Myślę, że dzięki temu więcej osób będzie mogło zająć się zajęciami, które są rzeczywiście bardziej kreatywne.

K.G.: No tak, ale wie pan, czasami te proste prace są najłatwiejsze i najbardziej dostępne.

P.S.: Może prostą pracą będzie serwisowanie tych automatycznych urządzeń.

K.G.: Okej, może w ten sposób. Ale myśli pan, że to jest jakaś zasadnicza różnica jakościowa, jeśli chodzi o te zmiany cywilizacyjne, jakie niesie za sobą właśnie korzystanie z algorytmów, czy to jest taki bardzo wysoki skok, bardzo wysoki stopień na tych naszych schodach, czy to raczej jest coś… Bardziej pan to widzi płynnie? Jak to jest?

P.S.: Z perspektywy kilkunastu, dwudziestu albo trzydziestu lat to jest bardzo zaskakujące, bo jakiś czas temu nie byliśmy w stanie sobie nawet wyobrazić, że coś takiego powstanie. Chociaż oczywiście, słynne nawiązanie do literatury Stanisława Lema, który wymyślił Internet, a teraz widzimy urzeczywistnienie się tej wizji, czy wymyślił przenośne urządzenia, które pozwalają mieć dostęp do całej biblioteki – mamy je wszyscy w kieszeni. I ten postęp z perspektywy tych lat jest bardzo zaskakujący, ale tu i teraz, gdy obserwujemy w takim krótkoczasowym okresie, to nie jest zaskakujące. Więc pytanie, jak bardzo dynamiczny będzie ten postęp za chwilę. I dopiero kolejne miesiące i lata pokażą nam, czy należy się czegoś obawiać, czy przyjąć to z całym dobrodziejstwem, ponieważ z tych nowoczesnych technologii wynika bardzo wiele pozytywnych rzeczy. Skuteczna diagnostyka chorób, skuteczna prewencja, nasze własne bezpieczeństwo, jeżeli chodzi o samochody autonomiczne albo system bezpieczeństwa w samochodzie wspomagający kierowców, czy funkcjonowanie ekologicznych miast, które wypełnione są prostymi czujnikami, a jednocześnie pozwalają nam optymalizować zużycie energii na oświetlenie takiego miasta. Taki projekt realizuje Politechnika Gdańska i dlatego o tym wspominam.

K.G.: Co robicie na Politechnice Gdańskiej? Proszę trochę więcej opowiedzieć.

P.S.: Rzeczywiście w dziedzinie rozwoju sztucznej inteligencji, uczeniu maszynowym i tych wszystkich algorytmach bardzo dużo się teraz dzieje, ponieważ ośrodki akademickie, w tym właśnie Politechnika Gdańska, chcą nadążać za tym całym rozwojem. Z wielkimi emocjami obserwujemy to, co się dzieje na całym świecie i jesteśmy tego częścią. Jesteśmy tego częścią, zaczynając od studiów inżynierskich, na Politechnice jest kierunek Inżynieria danych, poprzez studia magisterskie, gdzie od roku prowadzimy dwie nowe specjalności poświęcone sztucznej inteligencji i uczeniu maszynowemu. Już mamy ogromne rezultaty w postaci kilkudziesięciu absolwentów właśnie po tych kierunkach, zresztą na Wydziale ETI. A jednocześnie też z wielkim zainteresowaniem śledzimy rozwój na całym świecie i staramy się wdrażać te badania w projektach i prowadzić własne.

K.G.: To jakie macie projekty?

P.S.: Mamy projekty, które przede wszystkim związane są z tradycją mojego zespołu i mojej katedry – inżynieria dźwięku i obrazu, systemy multimedialne. Teraz wspomagamy tego typu aplikacje i ten obszar sztuczną inteligencją. Wobec tego udaje się wykreować najrozmaitsze projekty, które angażują np. automatyczną analizę obrazu do tego, żeby wykryć niebezpieczne sytuacje w mieście, na drodze, stworzyć algorytmy do samochodów autonomicznych, które są w stanie rozpoznać przeszkodę na jezdni skuteczniej niż np. samochody za oceanem (przypadki z wypadkami, o których słyszeliśmy), czy diagnozować choroby na podstawie zdjęć z tomografii komputerowej albo zdjęć rentgenowskich, czy np. efektywnie wykorzystywać energię w mieście i sterować automatycznie oświetleniem.

K.G.: Bardzo praktyczne rzeczy.

P.S.: I rzeczywiście tutaj ta sztuczna inteligencja ma ogromne zastosowanie. I jest też duża potrzeba, żeby robić to w sposób wydajny i korzystać jak najbardziej ze zdobyczy tych algorytmów.

K.G.: To co by pan nam powiedział na koniec? Nie panikować?

P.S.: No zdecydowanie tak. Chłodno obserwujmy to, co się dzieje. Zobaczmy, ile z tego wszystkiego możemy czerpać też dla siebie. Może ja jako niespełniony grafik albo muzyk jestem w stanie za chwilę spełnić moje marzenie i skomponować jakiś utwór lub stworzyć nowy komiks bądź książkę. Może ona nie będzie superpopularna, ale da mi jakąś satysfakcję i będę cieszył się z tego, że wykorzystałem to inteligentne narzędzie, ten sprytny pędzel, nazwijmy to, do tego, żeby swoją wizję przedstawić światu, nie trzymać jej tylko w głowie, ale chociaż nie mam zdolności plastycznych, stworzyć jakiś obraz, o którym zawsze marzyłem.

K.G.: A jednocześnie trzeba gonić urzędników, żeby zajmowali się dostosowywaniem prawa do tego, co się dzieje.

P.S.: Teraz to jest zadanie dla filozofów, etyków…

K.G.: A kto ich słucha, proszę pana, kto ich słucha? Niestety.

P.S.: Tak. A potem dopiero urzędników.

K.G.: Doktor habilitowany inżynier Piotr Szczuko, profesor Politechniki Gdańskiej znalazł czas dla Radia Naukowego. Dziękuję serdecznie.

P.S.: Bardzo dziękuję za rozmowę.

Dodane:
2,9 tys.

Udostępnij:

Gość odcinka

prof. Piotr Szczuko

prof. Piotr Szczuko

Pracuje w Katedrze Systemów Multimedialnych na Wydziale Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej. Zainteresowania naukowe: przetwarzanie obrazu i dźwięków, animacja komputerowa i wizualizacja 3D, metody wnioskowania i sztucznej inteligencji, zastosowanie sztucznych sieci neuronowych, głębokiego uczenia, sieci splotowych, rekurencyjnych i capsule network, zastosowanie teorii zbiorów przybliżonych, klasyfikacja i percepcja obrazów i dźwięków, komputerowe metody analizy i rozumienia obrazu, tworzenie systemów wbudowanych.

Obserwuj Radio Naukowe

Ulubione

Skip to content