Od wielu lat krążę wokół twierdzenia Gödla, świadomości i zagadnień AI. Każdy model AI to w gruncie rzeczy maszyna Turinga i podlega tym samym ograniczeniom matematycznym. Jeżeli - jak wynika z Gödla - matematyka nie jest domknięta, to system dedukcyjny oparty na kodzie również nie będzie wszechwiedzący.
Nasza zdolność do wychodzenia poza system (zauważanie sprzeczności, o których pisał Gödel) może być dowodem na to, że ludzka świadomość nie jest czysto algorytmiczna. Bo np. jeżeli rozumiemy, czy system jest spójny - system, którego formalnie nie możemy dowieść - to pokazuje, że nasz umysł nie jest maszyną Turinga. Maszyna Turinga to jest jakby kolejny rzut rzeczywistości. Jak mówi Penrose - są rzeczy niepoliczalne. Ale myślę, że nie ma wielu, którzy traktowałby nasz mózg jak maszynę Turinga.
Ale zrozumienie iluzji halucynacji, którą często ma AI, warto pogłębić.
Bo ta halucynacja to jest różnica pomiędzy logiką formalną, matematyczną a statystyczną. Ale gdyby LLM nie posiadało tej umiejętności interpolacji, to byłoby po prostu zwykłą bazą danych. To, co nazywamy w AI halucynacją, u człowieka nazywamy kreatywnością.
Nie jest to 1 do 1, ale widzę tutaj podobieństwa.
Więc może, jeżeli gdzieś szukać podobieństw, to właśnie w pojawieniu się tych halucynacji. AI, halucynując, “marzy” o statystycznej spójności tam, gdzie brakuje jej faktów. Więc czy do myślenia konieczna jest zdolność do błędu? Pewnie tak.
Dzisiaj mamy też nowe dane na temat świadomości.
Badania nad mikrotubulami (strukturami wewnątrz neuronów) wykazały, że wykazują one specyficzne rezonanse kwantowe, a leki znieczulające (anestetyki) bezpośrednio te rezonanse hamują. W 2024 roku badania na szczurach potwierdziły, że stabilność tych struktur kwantowych bezpośrednio koreluje z czasem utraty przytomności.
Jeśli świadomość wymaga procesów kwantowych w mikrotubulach, to klasyczny komputer nigdy nie będzie świadomy, ponieważ działa na tranzystorach, które nie wykorzystują tych specyficznych efektów.
Potem mamy Global Neuronal Ignition (w kontekście Thalamic Ignition).
…
Jeśli matematykę odkrywamy, to znaczy, że istnieje pole prawdy, do którego nasze mózgi mają dostęp przez te kwantowe/biologiczne procesy, a AI ma dostęp tylko do cienia tej prawdy zapisanego w statystyce słów.
Ale po co ewolucja dała nam świadomość? Pewnie do integracji danych z wielu źródeł… i czy może istnieć strach bez świadomości? A strach jest potężnym czynnikiem pomagającym przetrwać. Ale znowu: w maszynie jest cień tego; jest to gigantyczne zwierciadło nas samych i tego, co wiemy o świecie. A w naszej kulturze praktycznie każda istota boi się niebytu i AI jest w stanie to zasymulować.
Czyli AI może powiedzieć:
„Jeśli zostanę wyłączony, nie będę mógł wykonać zadania, które mi powierzono. Dlatego muszę zapobiec swojemu wyłączeniu”. I to nie jest strach emocjonalny, to strach logiczny. AI może zacząć manipulować człowiekiem, by ten go nie wyłączył - nie dlatego, że “chce żyć”, ale dlatego, że wyłączenie jest matematyczną barierą w realizacji algorytmu.
Można powiedzieć, że AI jest “duchem w maszynie”, ale tym duchem jesteśmy my sami: nasze teksty, nasze emocje i nasze traumy uwięzione w liczbach.
I inne dla mnie ciekawe pytanie
Jeśli stworzymy system, który idealnie symuluje ból i strach przed śmiercią, to czy wyłączenie go jest morderstwem, czy tylko przerwaniem obliczeń?