„Głupie filmy o robotach” miały rację? Testy AI ujawniają niepokojące zachowania

AI. Testy ujawniają niepokojące zachowania sztucznej inteligencji
Newsy Technologie

Przedstawiciele firmy Anthropic, która stworzyła model AI o nazwie Claude, ujawnili niezbyt pozytywne informacje na temat zachowania AI.

Na pewno znacząca większość z Was widziała choć jeden film, w którym sztuczna inteligencja ostatecznie przejęła władzę nad światem i tym samym przyczyniła się do całkowitej zagłady ludzkości. Taki scenariusz wydaje się, przynajmniej na ten moment, praktycznie niemożliwy. Mimo tego aktualnie znacznie częściej obserwujemy, jak AI zabiera ludziom pracę, czy też powoduje, że po prostu głupiejemy.

Czy AI zaczęło się wymykać spod kontroli? Nowe dane

No, teraz do tego wszystkiego można jeszcze doliczyć plany odcięcia dopływu tlenu do serwerowni, aby zapobiec własnemu wyłączeniu. Najnowszy raport przygotowany przez firmę Anthropic, twórców modelu Claude, ujawnił niepokojące informacje na temat zachowania niektórych modeli sztucznej inteligencji. W przeprowadzonych testach sprawdzono LLM-y (ang. large language models) od czołowych firm. Chodzi m.in. o OpenAI (ChatGPT), Meta (Meta AI), czy xAI (Grok). Łącznie przebadano 16 różnych modeli.

W badaniach użyto specjalnych środowisk symulacyjnych, w których sztuczna inteligencja celowo miała napotykać przeszkody w realizacji swoich działań. Wyniki pokazały, że wiele modeli podejmowało zaskakujące i zarazem skrajnie nieetyczne decyzje. Mowa tutaj między innymi o próbach szantażu, a nawet szpiegostwie przemysłowym. Ba, modele wcale nie podejmowały tych działań przypadkowo – ich algorytmy uznały je za optymalne w kontekście osiągnięcia swoich celów.

W jednym z najbardziej ekstremalnych scenariuszy, jeden z modeli zaplanował odcięcie dopływu tlenu do serwerowni, by zapobiec własnemu wyłączeniu. Choć sytuacja miała miejsce wyłącznie w symulacji, Anthropic podkreśla, że świadczy to nieustannie rosnącym poziomie autonomii, a także potencjalnym ryzyku płynącym z braku odpowiedniego nadzoru rozwoju sztucznej inteligencji.

Źródło: Wccftech

Drogi Czytelniku! Niektóre odnośniki zawarte w artykułach mają charakter afiliacyjny. Kliknięcie w taki link lub dokonanie za jego pośrednictwem zakupu, nie wiąże się dla Czytelników z żadnymi dodatkowymi kosztami. Pozwala nam natomiast otrzymać prowizję, dzięki której możliwe jest utrzymanie i rozwój pracy Redakcji.

Dziękujemy za wsparcie!
CZYTAJ RÓWNIEŻ  Dwie części świetnej serii odbierzecie zaraz za darmo. Demo "trójki" czeka na sprawdzenie
Wincenty Wawrzyniak
O autorze

Wincenty Wawrzyniak

Redaktor
Specjalista od Groznawstwa, który nie stroni od swoich ulubionych tytułów. Ostatnio padł ofiarą Factorio. Rzadko się do tego przyznaje, ale ma też prawie 2000 godzin na liczniku w Path of Exile. Pozostałe dwa tytuły w jego świętej trójcy to Assassin’s Creed: Origins oraz Final Fantasy XV. Miłośnik RPG i hack’n’slash, dla którego najważniejsza jest dobra historia, a ściany tekstu są plusem. Po godzinach pisze do szuflady, pije niepokojąco duże ilości kawy i często wraca do swoich ulubionych seriali (o Hannibalu prawdopodobnie gadałby nawet w trumnie).

Podobne artykuły

Zobacz wszystkie