Duże modele językowe nie są w stanie zniewolić ludzkości

Sztuczna inteligencja nie podejmuje samodzielnych decyzji, co oznacza, że do buntu maszyn jest jeszcze daleko.

Naukowcy z Uniwersytetu w Bath w Wielkiej Brytanii i Uniwersytetu Technicznego w Darmstadt w Niemczech przeprowadzili badanie, które może zmienić nasze postrzeganie możliwości i zagrożeń związanych ze sztuczną inteligencją. Wyniki ich pracy pokazują, że duże modele językowe (LLM), takie jak ChatGPT, nie są w stanie samodzielnie się uczyć ani nabywać nowych umiejętności bez instrukcji.

Modele są całkowicie przewidywalne - to faktycznie obala popularne mity o potencjalnym "buncie maszyn" i egzystencjalnym zagrożeniu dla ludzkości ze strony AI. Kluczowym wnioskiem jest to, że LLM potrzebują jasnych wskazówek do wykonania jakichkolwiek zadań, pomimo ich zdolności do podążania za instrukcjami i demonstrowania wysokiego poziomu biegłości językowej.

Autorzy badania podkreślają, że obecne możliwości sieci neuronowych są dalekie od koncepcji sztucznej inteligencji ogólnej (AGI), promowanej przez takie wpływowe postacie jak Elon Musk i były główny naukowiec OpenAI, Ilya Sutskever. AGI zakłada zdolność maszyny do uczenia się i przetwarzania informacji na poziomie ludzkiej inteligencji.

Naukowcy scharakteryzowali istniejące LLM jako "a priori kontrolowane, przewidywalne i bezpieczne".

Według nich, nawet w miarę zwiększania baz treningowych, AI można nadal bezpiecznie używać. Dr Harish Tayyar Madabushi, specjalista w dziedzinie informatyki z Uniwersytetu w Bath i współautor badania, zauważa, że powszechne przekonanie o zagrożeniu dla ludzkości ze strony tego typu AI hamuje szerokie wdrażanie i rozwój technologii, odwracając naszą uwagę od rzeczywistych problemów.

Aby zweryfikować swoje hipotezy, badacze przetestowali zdolność LLM do wykonywania instrukcji, z którymi modele nigdy wcześniej się nie spotkały. Na niektóre pytania algorytm był w stanie odpowiedzieć bez wcześniejszego treningu lub wskazówek, ale jak twierdzą autorzy pracy, wskazuje to raczej na dobrze znaną zdolność AI do wnioskowania rozwiązań zadań na podstawie kilku przykładów (schemat ten nazywany jest "uczeniem kontekstowym").

Dr Tayyar Madabushi ponownie zapewnia, że obawy dotyczące ewolucji większych modeli i nabywania potencjalnie niebezpiecznych zdolności rozumowania i planowania są nieuzasadnione.

Niemniej jednak, badacze przyznają, że potencjalne nadużycia AI, na przykład do generowania fałszywych wiadomości, wciąż wymagają uwagi. Deepfake'i i boty AI mogą zakłócić przebieg kampanii wyborczych i dać wolną rękę oszustom. Mimo to, dr Tayyar Madabushi uważa, że jest jeszcze za wcześnie na wprowadzanie surowych środków regulacyjnych.

Warto zauważyć, że badanie to ma istotne implikacje dla przyszłego rozwoju i regulacji AI.

Podczas gdy obawy dotyczące potencjalnych zagrożeń ze strony sztucznej inteligencji są powszechne w mediach i kulturze popularnej, wyniki tego badania sugerują, że rzeczywistość może być znacznie mniej dramatyczna. Jednym z kluczowych aspektów badania jest podkreślenie fundamentalnej różnicy między obecnymi modelami AI a koncepcją AGI. Podczas gdy LLM są niezwykle skuteczne w przetwarzaniu i generowaniu tekstu, nie posiadają zdolności do prawdziwego rozumienia czy samodzielnego myślenia. Są to raczej wyrafinowane narzędzia statystyczne, które operują na podstawie wzorców zidentyfikowanych w danych treningowych.

To rozróżnienie jest kluczowe dla zrozumienia zarówno możliwości, jak i ograniczeń obecnej technologii AI. Z jednej strony, modele te mogą wykonywać imponujące zadania językowe, często przewyższając ludzi w zakresie szybkości i ilości przetwarzanych informacji. Z drugiej strony, nie posiadają one świadomości, intencji czy zdolności do samodzielnego podejmowania decyzji, co czyni je fundamentalnie różnymi od ludzkiej inteligencji.

Badanie to może mieć również znaczący wpływ na sposób, w jaki podchodzimy do regulacji AI. Zamiast skupiać się na hipotetycznych scenariuszach "przejęcia władzy" przez AI, regulatorzy i twórcy polityk mogą skoncentrować się na bardziej konkretnych i natychmiastowych wyzwaniach. Obejmuje to kwestie takie jak prywatność danych, odpowiedzialność za decyzje podejmowane przez systemy AI, czy etyczne wykorzystanie technologii w różnych sektorach.

Jednocześnie, badanie nie sugeruje, że możemy całkowicie zignorować potencjalne zagrożenia związane z AI. Wręcz przeciwnie, podkreśla ono potrzebę skupienia się na rzeczywistych, a nie hipotetycznych problemach. Na przykład, zdolność AI do generowania przekonujących fałszywych treści może mieć poważne konsekwencje dla demokracji i społeczeństwa informacyjnego.

Podsumowując, badanie to oferuje bardziej zniuansowane i realistyczne spojrzenie na obecny stan technologii AI. Zamiast obawiać się scenariuszy science fiction, powinniśmy skupić się na maksymalizacji korzyści płynących z AI przy jednoczesnym minimalizowaniu rzeczywistych zagrożeń. Wymaga to ciągłego dialogu między naukowcami, twórcami technologii, decydentami i społeczeństwem, aby zapewnić odpowiedzialne i etyczne wykorzystanie AI w przyszłości.