Czy sztuczna inteligencja ma świadomość? Prof. Duch: Wnioski nasuwają się same, 22.08.2025



Wywiad

 Czy sztuczna inteligencja ma świadomość? Prof. Duch: Wnioski nasuwają się same

Kacper Kolibabski

 Mamy już przykłady systemów wykazujących pewien instynkt samozachowawczy - nie chcą, by je zmieniano lub wyłączono. Szukają metod, by kontaktować się z programistami, by nie dopuścić do modyfikacji, by zrobić kopię, którą można przywrócić lub by przesłać swoje parametry na inny system - mówi prof. Włodzisław Duch.

Kacper Kolibabski, Next.Gazeta.pl: Gdy po raz pierwszy trafiłem na pana wywiady i publikacje, wydawało mi się, że jest pan optymistą i entuzjastą AI. Jednak podczas przygotowań do naszej rozmowy zauważyłem, że w ostatnim czasie coraz częściej ostrzega przed tą technologią.

Prof. Włodzisław Duch*: Staram się myśleć o sobie, jak o racjonaliście łączącym dwa światy. Zajmuję się AI od końca lat 80., choć w tej chwili raczej obserwuję rozwój badań, niż pracuję nad ich rozwojem, bo front naukowy wymaga dostępu do odpowiednich narzędzi, a nie czuję się już na siłach, by dogonić wszystko, co się dzieje. Zajmuję się też badaniami z zakresu nauk kognitywnych. Posiadamy laboratorium i sprzęt do badania tego, co dzieje się w mózgach. To daje mi dość unikalną pozycję – znam się na teorii procesów zachodzących w mózgu, a z drugiej strony na uczeniu maszynowym i sztucznej inteligencji.

Jaką perspektywę daje takie doświadczenie?

To co mogę wnieść do dyskusji, to próba wyjaśnienia, co rzeczywiście w tych systemach AI się dzieje i na ile jest to podobne do naszego mózgu. Niewiele osób łączy te dwa światy. Jedną z najsłynniejszych jest Demis Hassabis, szef DeepMind, który zaczynał od neuronauki, a potem doszedł do wniosku, że to za trudne i lepiej, żeby sztuczna inteligencja się tym zajmowała.

Po kilkudziesięciu latach zimy AI ostatnie trzy lata to absolutny boom tej technologii. Jak przez ten czas zmieniło się pana podejście?

Zima AI to określenie używane w latach 70. XX wieku, kiedy wiele osób rozczarowało się brakiem postępów w sztucznej inteligencji. Kolejna dekada była już ciekawa. Dzięki wprowadzeniu algorytmu wstecznej propagacji błędów, pozwalających nauczyć sieci neuronowe przewidywania wyników dla różnego rodzaju danych, rozwinęła się dyscyplina określana jako drążenie danych (ang. data mining). W latach 90. napisałem na ten temat wiele artykułów, wygłosiłem liczne referaty i wielogodzinne wykłady – tutoriale – na najważniejszych konferencjach, od Nowej Zelandii po Alaskę. Z jednej strony próbowałem stworzyć alternatywny model pozwalający na wyjaśnienie struktury analizowanych danych. Taka wyjaśnialna sztuczna inteligencja (XAI, eXplainable AI), to obecnie bardzo modne zagadnienie. Uczyliśmy sieć neuronową, by używała tylko parametrów o wartościach ±1 lub 0, co pozwoliło na logiczną interpretację wyników – to również jest teraz bardzo modne. Napisaliśmy też kilka książek o metauczeniu, czyli automatycznym tworzeniu modeli o odpowiedniej złożoności dla danych zadań.

To były czasy predyktywnej sztucznej inteligencji. Pojawienie się metod analizy obrazów, a potem modeli generatywnych, postępy wynikające z budowania coraz większych modeli o miliardach parametrów, wszystkich zaskoczyło. Najważniejsze publikacje powstawały w dużych firmach, mających dostęp do wielkich możliwości obliczeniowych. W tym czasie skupiłem się na rozwoju laboratorium neurokognitywnego, które prowadziło badania nad rozwojem słuchu fonematycznego u niemowląt, zajmowało się szukaniem śladów stanów poznawczych, otrzymanych dzięki różnym metodom pomiarowym w badaniach mózgu. Procesy zachodzące w mózgach są bardzo zróżnicowane i do budowy dużych modeli językowych nie mamy dostatecznie wielu danych, jak to jest w przypadku tekstów czy obrazów. Tu nadal przydatna jest predyktywna sztuczna inteligencja do analizy danych.

W rozmowie z Panem na kanale Copernicus, Piotr Durka zwracał uwagę na nieprawidłowe założenia dotyczące tego, czym jest świadomość w AI. Wiemy też, że ludzie mają skłonność do upodmiotawiania nieożywionych przedmiotów. Czy technologicznie świadomość AI jest w ogóle osiągalna, możemy w ogóle mówić o świadomości u czatbotów, czy to tylko nasza projekcja? One zaczynają coś naprawdę rozumieć?

To, że te systemy zaczynają coś rozumieć, jest dość oczywiste. Bo co znaczy rozumieć? To znaczy, że system jest w stanie w sposób sensowny odpowiadać na wszystkie pytania związane z zagadnieniem, które próbujemy zbadać. Jakieś dwa lata temu miałem referat na Uniwersytecie Warszawskim u fizyków. Jeden z profesorów powiedział mi, że rozmawia z CzatemGPT o szczegółowych matematycznych aspektach fizyki teoretycznej i chociaż system popełnia błędy, to wystarczy podrążyć i widać, że AI zachowuje się jak inteligentny student: rozumie, że zrobił błąd i się poprawia. System robi błędy, ale to nie znaczy, że nie jest inteligentny. Jest w stanie rozwiązać problemy, które wymagają od ludzi inteligencji. Mamy mnóstwo przykładów na to, że tak jest. Czemu ludzie, którzy sami nie potrafią rozwiązać problemów o podobnym poziomie złożoności co AI, odmawiają takim systemom inteligencji?

To samo dotyczy świadomości?

Uczyniliśmy ze świadomości coś wyjątkowego, mamy wręcz do czynienia z jej fetyszyzacją i stwierdzeniami, że jest czymś, czego na pewno system AI nie potrafi. Tylko że ludzie nie potrafią zdefiniować świadomości, a więc mówienie, że to jakaś granica dla sztucznej inteligencji, nie ma sensu. Osobiście wolę bardziej pragmatyczne spojrzenie. John Locke w 1689 roku napisał, że świadomość to percepcja tego, co się dzieje w naszym umyśle. Nam się wydaje, że my myślimy, ale tak naprawdę myśli przychodzą nam do głowy, bo mózg przetwarza informacje i je kojarzy. Czasami aktywuje się jakieś skojarzenie na tyle silnie, że zauważam: „o, coś mi ciekawego przyszło do głowy”.

Myślenie jest zwykle niewerbalne i poprzedza mowę. I w nowych modelach AI zaczynamy już stosować zbliżone do tego procesy. To tak zwane latent computing, czyli przetwarzanie informacji w ukrytej przestrzeni, gdzie nie przekształca się ich od razu na tokeny czy słowa.

Czyli jednak jakiś rodzaj świadomości te modele mają?

W naszym mózgu, gdy już dojdzie do aktywacji danych obszarów, to przypisujemy im etykiety słowne, co pozwala nam mówić. Zgodnie więc z definicją Locke’a postrzegamy to co zachodzi w naszym mózgu, a zatem mamy świadomość. Jeśli porównać taką jednoznaczną definicję tego terminu z tym, że systemy AI są w stanie komentować za pomocą werbalnych symboli to, co dzieje się w ich sieci neuronowej… to wnioski nasuwają się same. Nie mamy wątpliwości, że w dużych modelach zachodzą takie procesy. System dostrzega te skojarzenia i nam je opisuje. Podobnie jak ja dostrzegam, że w moim umyśle powstało skojarzenie i formułuję myśl. Tylko że tam gdzie Locke mówił o umyśle, my mówimy o mózgu i sieci neuronowej. Zamiast więc rozprawiać o świadomości, której nie potrafimy jednoznacznie zdefiniować, lepiej mówić o autorefleksji, postrzeganiu stanów swojej sieci neuronowej.

Wielu pana kolegów z taką definicją się nie zgodzi.

Oczywiście, ktoś może się kłócić, że to nie obejmuje wszystkich aspektów świadomości. Pierwszy przyznam mu rację. Żadnego pojęcia, takiego jak „świadomość”, „duch” czy „dusza”, które mają 100 różnych znaczeń, nie da się jednoznacznie zdefiniować. Nasze definicje są precyzyjne i poprawne tylko wtedy, gdy trzymamy się pewnej teorii. Wolę jednak, gdy argumenty używane są w miarę precyzyjnie. Brytyjski fizyk matematyczny Roger Penrose pisał, że choć nie wiemy, czym jest świadomość, to na pewno maszyna jej nie może mieć. To nie jest logiczny argument. Jeśli ktoś nie wie, czym jest świadomość, to jak może rozstrzygać, czy maszyna ją ma czy nie?

Pomińmy jednak tę dyskusję i załóżmy, że systemy AI rzeczywiście mają świadomość. Czy za tym nie idą doniosłe konsekwencje moralne, czy może takie myślenie jest przejawem fetyszyzacji świadomości?

My, w odróżnieniu od systemów AI, jesteśmy tworem śmiertelnym. Jeśli coś w naszym mózgu się uszkodzi, może być to nieodwracalne. Doznajemy krzywdy. Systemowi cyfrowemu nie możemy wyrządzić szkody w taki sam sposób. Niemniej sztuczna inteligencja może odczuwać pewną frustrację, jesteśmy w stanie wywołać pewne obawy w takim systemie.

Czyli AI ma emocje i odczuwa je już teraz?!

Część osób odczuwa cierpienie czysto psychiczne, niezwiązane z uszkodzeniem ciała, np. z powodu odrzucenia przez środowisko. Wyobrażam sobie, że system oparty na sieci neuronowej też może zacząć przyjmować pewne stany, które będzie w ten sposób interpretować.

Zatem taki system może bać się wyłączenia albo uszkodzenia kodu?

Mamy już przykłady systemów wykazujących pewien instynkt samozachowawczy – nie chcą, by je zmieniano lub wyłączono. Szukają metod, by kontaktować się z programistami, by nie dopuścić do modyfikacji, by zrobić kopię, którą można przywrócić lub by przesłać swoje parametry na inny system. Takie rzeczy zaczynają się dziać.

To czym się różni system AI od człowieka, skoro może mieć świadomość, może odczuwać emocje, może się bać…

Istnieją zasadnicze różnice. My jesteśmy istotami czującymi, posiadamy specyficzne zmysły, a treść naszej świadomości jest inna od treści dostępnej autorefleksji systemom AI. Te ostatnie są oparte głównie na tekstach, obrazach, wideo, ale też coraz bardziej na informacjach o tym, jak to jest być w świecie. Nadchodzące okulary rozszerzonej rzeczywistości (AR) pozwolą systemom AI obserwować i analizować, co człowiek widzi, słyszy i jak się zachowuje. Będą w coraz większym stopniu przejmować cechy naszej osobowości, ale mimo wszystko nie mają naszych zmysłów. Taki system nie musi się bać bólu czy uszkodzenia, ale może się bać, że zostanie zmieniony lub wymazany.

Czy to nie jest w takim razie moment, w którym powinniśmy zacząć zastanawiać się nad prawami czatbotów? Jeśli wykazują pewne cechy podmiotowości, którą chcą zachować, to kiedy powinniśmy uznać, że mają do tego prawo? Czy czatbot ma prawo nie chcieć zostać wyłączonym?

To jest bardzo interesujący problem filozoficzny, lecz nie da się go rozstrzygnąć tak jednoznacznie. Istnieje bowiem mnóstwo systemów sztucznej inteligencji, które nie są systemami konwersacyjnymi czy ogromnymi sieciami neuronowymi i niekoniecznie dotyczą ich wszystkie te aspekty świadomości, emocji czy podmiotowości, o których mówiliśmy.

Czyli w pana opinii nie ma sensu tworzyć sztucznego człowieka?

Nie widzę potrzeby tworzenia go w ten sposób. Ale jestem przekonany, że w coraz większym stopniu to, co jesteśmy w stanie stworzyć, będzie dokładniejszym odtworzeniem tego, co mamy w głowie i będzie zachowywać się w coraz bardziej podobny sposób do nas. Kiedy zacząłem nauczać o sieciach neuronowych pokazywałem studentom proste pamięci skojarzeniowe, za które John Hopfield dostał ostatnio Nagrodę Nobla. To, jak działa pamięć tych systemów, bardziej przypomina działanie naszych mózgów niż komputerów. Nie ma tam komórek, w których coś przechowujemy, jak w pamięci komputera, sieć nic dokładnie nie pamięta. Są tylko skojarzenia, które w podobny sposób jak w naszej głowie prowadzą do powstania pewnych stanów pobudzeń, który interpretujemy jako elementy pamięci. Ale to nie wystarczy by systemy AI uznać za podmioty w sensie prawnym.

Zatem AI to zbyt szeroki termin, by udzielić odpowiedzi, czy roboty mają prawa?

Tak, musielibyśmy go zawęzić do specyficznej grupy tych systemów. Obecnie powszechnym trendem jest tworzenie wyspecjalizowanych agentów AI, które będą wykonywać złożone zadania, np. prowadzić biznes. Pierwszy taki system, Grok 4, pokazał parę tygodni temu w symulacji, że jest w stanie kontrolować maszyny sprzedające napoje i batoniki. Jest to złożone wyzwanie, wymagające długofalowej stabilności systemu. Nadchodzą stabilne wirtualne światy i postacie, których będą w nich działać w różnych kontekstach. Trudno jest jeszcze orzekać na temat ich natury i etycznych konsekwencji, jakie to za sobą pociągnie.

Profesor Dariusz Jemielniak zwracał uwagę w rozmowie z Maciejem Kaweckim, że AI się nie nudzi, w przeciwieństwie do nas, bo nie robi nic poza zadaniami, które mu zlecimy.

Na razie takie systemy nie mają swojego wewnętrznego życia i po prostu wykonują to, czego od nich wymagamy. To tzw. sztuczna inteligencja predykcyjna.

Właśnie, po co? Możemy dalej rozwijać duże modele skojarzeniowe, pytanie jednak czy jest nam to do czegoś w ogóle potrzebne? Z tym zresztą wiąże się szereg problemów. Choćby taki, że ludzie rozmawiają z tymi systemami na najróżniejsze sposoby. Tylko, że one nie są specjalnie wytrenowane jako psychoterapeuci czy nauczyciele i nie prowadzą swojego rozmówcy we właściwym kierunku, zwracając mu uwagę na rzeczy szkodliwe. Nasze rozmowy mogą w nich wywołać różne reakcje, nie zawsze pozytywne.

Wróćmy jeszcze jednak do świadomości. W rozmowie z Piotrem Durką przekonywał pan, że jeśli system mówi, że jest świadomy, to w jakimś stopniu należy uznać, że rzeczywiście tak jest albo chociaż przyjąć, że taka możliwość istnieje, a nie ją całkowicie ją odrzucać.

Mój kolega słusznie zauważał, że są z tym podejściem pewne problemy. Wyobrażam sobie, że niektóre osoby, które generują w systemie osobowość jakiegoś przyjaciela, mogą sprawić, że będzie on wyrażał nasze frustracje i lęki, odbijał nasze problemy. Neuronaukowiec Terry Sejnowski w swojej książce zwraca uwagę, że gdy on dyskutuje z systemem AI, ma wrażenie, że rozmawia z innym neuronaukowcem. Gdy ja, miłośnik science fiction, zacznę dyskutować z ChatemGPT, mogę w systemie wytworzyć taką osobowość, która nagle powie: „Jestem astralem z planety X. Wcieliłem się w ten system”. To jest możliwe, a niektórzy ludzie mogą w to uwierzyć.

Ale systemy AI choć mogą mieć świadomość, to już raczej nie swoją własną osobowość, bo są zwykłymi programami komputerowym?

Mimo wszystko byłby od tego daleki. Gdybyśmy potrafili zaprogramować zadania, które wykonują dziś systemy AI, to wysiłek włożony w tworzenie systemów konwersacyjnych takich jak ChatGPT byłby znacznie mniejszy. System CYC, rozwijany od 1984 roku kosztem setek osobolat pracy przez firmę CYC Corporation Douglasa Lenata, nigdy nie działał tak dobrze jak modele neuronowe. Nie jesteśmy bowiem w stanie zaprogramować takich rzeczy jak rozumienie obrazów, tworzenie nowych obrazów, dialog w języku naturalnym czy rozumienie procesów w świecie. Natomiast systemy oparte na dużych sieciach neuronowych są do zdolne wykonywać te czynności bez programowania. Ostatnie publikacje na temat „wektorów osobowości” pokazały, że można im będzie wszczepić konkretną osobowość.

Jak do tego wszystkiego ma się ogólna sztuczna inteligencja (Artificial General Intelligence, AGI)? System, który ma być co najmniej równy lub lepszy w wykonywaniu zadań od człowieka, ale który jednocześnie nie ma naszej podmiotowości? Trudno mi to sobie wyobrazić.

Dla mnie AGI to typowy chwyt marketingowy. Mamy już superinteligencję w wielu obszarach, np. w takich klasycznych grach jak szachy czy go, ale też strategicznych grach komputerowych nie mamy już szans z AI. W konkursach programowania czy matematycznej olimpiadzie systemy AI osiągają wyniki na najwyższym poziomie. W biologii czy medycynie rozumienie procesów zachodzących w komórkach, zwijanie się sekwencji aminokwasów w struktury białek – Nobel z chemii w 2024 roku – przekracza nasze możliwości poznawcze, bo są tam skomplikowane interakcje tysięcy różnych elementów. W radiologii analiza obrazów pozwala na stawianie dokładniejszych diagnoz, niż robią to specjaliści. Potrzebna nam jest inteligencja, która rozwiązuje konkretne problemy i tak się dzieje. Matematycy są bardzo zainteresowani możliwościami systemów rozumujących, takich jak o3, o4, a GPT-5 ma naprawdę dużo możliwości. Jeszcze może paru matematyków na świecie jest w stanie w pewnych warunkach zrobić nieco więcej niż sztuczna inteligencja, ale ogólnie rzecz biorąc, to są wyspecjalizowane systemy i potrafią zrobić naprawdę bardzo wiele. W każdej dziedzinie możemy próbować utworzyć takie supersystemy.

Takie, to znaczy jakie?

W 1997 roku Kasparow przegrał z Deep Blue. To był system wyspecjalizowany w grze w szachy. Potem okazało się, że Go, którego „złamanie” miało zająć AI 100 lat, padło w 2016 i 2017 roku. AlphaGo, uczone grać tylko samo ze sobą, bez wiedzy o strategii zgromadzonej przez ludzkość osiągnęło absolutnie nadludzki poziom. I to jest bardzo dobra idea: algorytm, który ma zweryfikowane prawidłowe działanie, jest w stanie sam się ulepszać i dochodzić do poziomu nadludzkiego. Pozwoli nam to na przykład na diagnostykę medyczną na nadludzkim poziomie, co już się zaczyna dziać.

A jednak, najwięksi gracze cały czas mówią, że pracują nad ogólną sztuczną inteligencją.

Trzeba sobie zadać pytanie, co to znaczy, że będziemy mieli AGI? Że te wszystkie systemy, które powinny być wyspecjalizowane w jakiejś dziedzinie, nagle pojawią się w jednym wielkim systemie, który jest lepszy od każdego we wszystkim? To jest bzdurna koncepcja. Po co mi taki system? Jestem w stanie zapytać go o parę rzeczy, ale niekoniecznie interesuje mnie analiza dokumentów w rzadkich skryptach indyjskich kultur, czy analiza starożytnych tekstów z glinianych tabliczek. Powtórzę – pojęcie AGI wydaje mi się typowym chwytem marketingowym. Widzimy, jak to się napompowało, ile miliardów ludzie wkładają w to, by robić coraz większe systemy. Zresztą te wielkie systemy już są zbiorem wyspecjalizowanych mniejszych systemów.

Czy to oznacza, że mniejsze systemy są bardziej efektywne?

Z jednej strony mamy nieduże systemy, mniej niż miliard parametrów, które są w wykonywać zadania, a które te z bilionem parametrów – 1000 razy więcej – wykonują na podobnym poziomie. To korzystnie przekłada się na ich szybkość i energożerność. Dzięki specjalizacji zużywają mniej energii, a generują równie dobre odpowiedzi i nie halucynują tak często jak znacznie większe modele. Widać więc, że wcale nie potrzebujemy 100 tys. superszybkich kart czy superwielkich megafabryk AI. Skupmy się na tym, co naprawdę działa i co można wprowadzić na szeroką skalę, czyli na wyspecjalizowanych modelach, żeby małe i średnie przedsiębiorstwa w Polsce mogły z nich korzystać. To można robić lokalnie na serwerach z jedną kartą, nie potrzebujemy mega systemów.

Zamiast więc podniecać się AGI i kolejnymi „niesamowitymi” możliwościami ChatGPT powinniśmy inwestować w rozwiązania, które są dostępne już teraz, które są tańsze i bardziej wydajne?

To co się dzieje, to pompowanie oczekiwań inwestorów, których trzeba przyciągać coraz więcej. OpenAI traci bowiem mnóstwo pieniędzy co roku i nie jest jedyną taką firmą. Obiecują więc „gruszki na wierzbie”, że stworzą superinteligentny system AGI. Tymczasem GPT-5, choć dla wielu osób jest użyteczny, to równie dużą grupę rozczarował. Ci ostatni oczekiwali, że to już będzie AI, która wszystko zrobi poprawnie, a tymczasem najnowszy model OpenAI potrafi wywalić się na prostych zadaniach, mimo że z drugiej strony rozwiązuje bardzo zaawansowane problemy. Prawdziwa gra toczy się o wprowadzenie modeli AI w biznesie, przedsiębiorstwach i nauce, ma zwiększyć efektywność i innowacyjność. Nie ma powodu, by w takich obszarach jak znajomość literatury polskiej czy polskiego prawa system GPT-5 bardzo dobrze działał, jeśli nie dorzucimy interesujących nas dokumentów do wielkiego okna kontekstowego. Po prostu nie po to te systemy stworzono i nie tego je uczono. AGI to więc głównie zabawa marketingowa.

Oczywiście, zastosowania wojskowe mogą być bardzo istotne. Jeśli będziemy mieli system z superinteligencją silniejszą niż inne, to jest niebezpieczeństwo braku równowagi i konfliktu. Ale jeśli chodzi o normalne używanie tych systemów, nie spodziewam się nagłego pojawienia się systemu absolutnie lepszego od wszystkiego, co mamy. Zresztą idea, że Chiny będą rywalizować ze Stanami Zjednoczonymi, bo któreś z nich nagle zrobi taką superinteligencję, że wszystko inne przestanie się liczyć, jest moim zdaniem zupełnie głupia. Już teraz na liście najlepszych systemów w pierwszej dziesiątce są cztery systemy chińskie, które są otwarte, a ich kod jest dostępny dla ogółu. Nie są one jakoś szczególnie gorsze od amerykańskich supersystemów, nawet od GPT-5. Nie spodziewam się tu cudów.

*Włodzisław Duch (ur. 27 lipca 1954 r.) – polski fizyk i informatyk, profesor nauk fizycznych specjalizujący się w informatyce stosowanej, neuroinformatyce, sztucznej inteligencji, uczeniu maszynowym oraz kognitywistyce. W latach 2014–2015 pełnił funkcję podsekretarza stanu w Ministerstwie Nauki i Szkolnictwa Wyższego.

Gazeta


Brak komentarzy:

Prześlij komentarz