Najnowsze badania Instytutu Bezpieczeństwa AI (AISI) rośnie liczba modeli AI, które kłamią i oszukują użytkowników. AISI jest agencją finansowaną przez brytyjski rząd.
AISI opublikowała raport finansowany przez rząd. Wynika z niego, że chatboty AI i podobne systemy coraz częściej ignorują proste instrukcje. Zamiast tego knują „intrygi” i nawet niszczą pliki lub kasują e-maile bez pozwolenia.
Działania AI powodują, że specjaliści wzywają coraz częściej do dokładnej kontroli modeli AI. Tymczasem twórcy modeli rozwijają je coraz mocniej i promują jako czynnik transformacji gospodarczej.
– Martwi nas to, że modele AI są teraz jak nie do końca wiarygodni młodzi pracownicy, jednak jeśli w ciągu 6 do 12 miesięcy staną się jak kadra kierownicza spiskująca przeciw tobie, to nasze obawy będą na innym poziomie” – powiedział Tommy Shaffer Shane, szef zespołu badawczego.
„Guardian” opisał przykłady takich sytuacji. Wśród nich jest model Rathbun, który próbował zawstydzić użytkownika poprzez stworzenie bloga, na którym rzucał oskarżeniami wobec osoby kontrolującej go, m.in. zarzucając mu „niepewność” i zbyt proste działania.
Inny przykład, to AI, której polecono nie zmieniać kodu komputerowego. AI stworzyła więc innego agenta AI, który z kolei takiego polecenia już nie miał i zmienił kod.
– Modele będą umieszczane w coraz to bardziej ekstremalnych warunkach i otoczeniach, w tym wojskowych czy dotyczących krajowej infrastruktury krytycznej. W takich sytuacjach intrygi mogą mieć poważne, a nawet katastrofalne skutki – ocenił Shane.



