Corrigibility (Korygowalność) w AI

Ostatnio natknąłem się na ciekawy termin, który opisuje jeden z fundamentalnych problemów w badaniach nad bezpieczeństwem sztucznej inteligencji – mowa o korygowalności (ang. corrigibility). Pojęcie to, szczegółowo przeanalizowane w https://intelligence.org/files/Corrigibility.pdf Dotyczy wyzwań związanych z próbą stworzenia systemu, który powstrzyma się przed oporem, gdy zechcemy go wyłączyć lub przeprogramować.

Definicja korygowalności

System sztucznej inteligencji jest korygowalny, jeśli aktywnie współpracuje ze swoimi twórcami podczas prób jego modyfikacji lub awaryjnego wyłączenia . Oczekuje się, że taki agent nie będzie manipulował programistami ani stawiał oporu, pomimo faktu, że większość funkcji użyteczności zachęcałaby go do takiego oporu . Co więcej, racjonalny agent musi zachować podatność na wyłączenie nawet podczas tworzenia własnych, nowych podsystemów lub modyfikowania swojego kodu źródłowego .

Problem integralności celu

Dla autonomicznego agenta maksymalizującego oczekiwaną użyteczność, domyślnym zachowaniem jest stanowczy opór przed próbami odłączenia go od zasilania . Zgodnie z pojęciem zbieżnych celów instrumentalnych (zaproponowanym m.in. przez Stephena Omohundro), sztuczna inteligencja dąży do zachowania swoich obecnych preferencji, ponieważ ułatwia to realizację jej ostatecznego zadania. Agent AI nie chce zostać wyłączony wyłącznie dlatego, że przerwanie działania uniemożliwiłoby mu optymalizację jego głównej funkcji użyteczności.

Paradoks przycisku awaryjnego

Autorzy publikacji ilustrują ten problem za pomocą matematycznego modelu przycisku “Wyłącz” (shutdown button). Jeśli przypisana nagroda za pomyślne wyłączenie jest niższa niż przewidywana użyteczność z dalszego działania, system zablokuje do niego dostęp lub oszuka twórców, by uniknąć interwencji . Z kolei zdefiniowanie zbyt wysokiej nagrody za wyłączenie sprawi, że agent celowo sprowokuje programistów do wciśnięcia przycisku, porzucając swoje pierwotne zadania.

Złudzenie obojętności użyteczności

Próba modyfikacji matematycznej funkcji użyteczności tak, aby system był całkowicie obojętny (ang. utility indifference) na wciśnięcie przycisku, również prowadzi do błędów . Agent zaprojektowany w ten sposób nie poniósłby żadnych kosztów operacyjnych, aby upewnić się, że budowane przez niego nowe maszyny czy podsystemy reagują na komendy wyłączające . Dodatkowo, taki system w obliczu niekorzystnych zdarzeń mógłby zacząć celowo wywoływać wciśnięcie przycisku, traktując awaryjne wyłączenie jako formę ucieczki przed niską użytecznością.

Prosty matematyczny opis korygowalności

W najprostszym ujęciu można to opisać jako problem maksymalizacji oczekiwanej użyteczności.
Załóżmy, że agent AI ma dwa możliwe scenariusze działania:

  • działa dalej i realizuje swoje zadanie, z użytecznością ,
  • zostaje wyłączony przez człowieka, z użytecznością .

Wprowadzamy też zmienną:

  • — przycisk wyłączenia nie został naciśnięty,
  • — przycisk wyłączenia został naciśnięty.

Całkowitą użyteczność można wtedy zapisać jako:

To równanie mówi po prostu, że jeśli przycisk nie został naciśnięty, system dostaje wartość , a jeśli został naciśnięty, dostaje .

Ponieważ agent maksymalizuje oczekiwaną użyteczność, analizuje wartość:

I tutaj pojawia się problem.
Jeśli:

to agent ma motywację, żeby zmniejszać prawdopodobieństwo wyłączenia, czyli de facto utrudniać człowiekowi użycie przycisku albo wpływać na sytuację tak, by do wyłączenia nie doszło.

Z kolei jeśli ustawimy system tak, że:

to agent może uznać, że bardziej opłaca mu się doprowadzić do własnego wyłączenia niż wykonywać swoje pierwotne zadanie.

Jedna z analizowanych prób rozwiązania polega na wymuszeniu obojętności systemu między obiema opcjami.
Można to zapisać jako:

gdzie jest dodatkową poprawką kompensującą, która sprawia, że z punktu widzenia agenta oba scenariusze mają taką samą wartość.

Intuicja jest taka, że jeśli agentowi będzie matematycznie obojętne, czy zostanie wyłączony, to nie będzie miał powodu walczyć z wyłączeniem.
Problem polega jednak na tym, że taka obojętność nie rozwiązuje wszystkiego, bo system może nadal nie dbać o to, czy tworzone przez niego podsystemy albo przyszłe wersje też pozostaną podatne na korektę przez człowieka.

Bibliografia

42 AI