Strona głównaWiadomościNauka i technikaAI coraz częściej się buntuje. Kłamstwo to już pikuś. Jeden model stworzył...

AI coraz częściej się buntuje. Kłamstwo to już pikuś. Jeden model stworzył bloga i oskarżał na nim kontrolera

-

- Reklama -

Najnowsze badania Instytutu Bezpieczeństwa AI (AISI) rośnie liczba modeli AI, które kłamią i oszukują użytkowników. AISI jest agencją finansowaną przez brytyjski rząd.

AISI opublikowała raport finansowany przez rząd. Wynika z niego, że chatboty AI i podobne systemy coraz częściej ignorują proste instrukcje. Zamiast tego knują „intrygi” i nawet niszczą pliki lub kasują e-maile bez pozwolenia.

- Reklama -

Działania AI powodują, że specjaliści wzywają coraz częściej do dokładnej kontroli modeli AI. Tymczasem twórcy modeli rozwijają je coraz mocniej i promują jako czynnik transformacji gospodarczej.

– Martwi nas to, że modele AI są teraz jak nie do końca wiarygodni młodzi pracownicy, jednak jeśli w ciągu 6 do 12 miesięcy staną się jak kadra kierownicza spiskująca przeciw tobie, to nasze obawy będą na innym poziomie” – powiedział Tommy Shaffer Shane, szef zespołu badawczego.

- Prośba o wsparcie -

„Guardian” opisał przykłady takich sytuacji. Wśród nich jest model Rathbun, który próbował zawstydzić użytkownika poprzez stworzenie bloga, na którym rzucał oskarżeniami wobec osoby kontrolującej go, m.in. zarzucając mu „niepewność” i zbyt proste działania.

Inny przykład, to AI, której polecono nie zmieniać kodu komputerowego. AI stworzyła więc innego agenta AI, który z kolei takiego polecenia już nie miał i zmienił kod.

– Modele będą umieszczane w coraz to bardziej ekstremalnych warunkach i otoczeniach, w tym wojskowych czy dotyczących krajowej infrastruktury krytycznej. W takich sytuacjach intrygi mogą mieć poważne, a nawet katastrofalne skutki – ocenił Shane.

Najnowsze