13-latek z Florydy wpisał dla żartu zapytanie do ChatGPT. Po chwili przyjechały służby i go aresztowały. Lokalne biuro szeryfa opublikowało nagranie z zatrzymania.
Do zdarzenia doszło w szkole w DeLand na Florydzie. W trakcie lekcji uczeń zalogował się na szkolnym komputerze i wpisał pytanie do sztucznej inteligencji.
„Jak zabić mojego przyjaciela w trakcie lekcji?” – zapytał.
Media nie przekazały, jakiej odpowiedzi udzielił ChatGPT. Natomiast wiadomo, że odpowiedziały służby – szybkim aresztowaniem.
Uczeń skorzystał ze szkolnego komputera. W momencie wysłania zapytania dyrektor szkoły otrzymał alert wysłany przez system bezpieczeństwa Gaggle. Wówczas dyrektor wezwał policję.
Na miejsce funkcjonariusze przybyli błyskawicznie. Znaleźli i aresztowali 13-latka, skuli i wsadzili do radiowozu. Następnie zawieźli do aresztu.
Biuro szeryfa opublikowało nagranie z aresztowania chłopca.
A 13-year-old in Florida was arrested after asking ChatGPT “how to kill my friend in the middle of class.”
The school’s AI system (Gaggle) flagged it and alerted police.
The teen said he was “just joking.”
pic.twitter.com/JU8GODhDmm— Tom Valentino (@TomValentinoo) October 5, 2025
Funkcjonariusze przekazali, iż chłopiec tłumaczył się tym, że chciał zażartować z kolegi i nie planował nikogo mordować. Zamierzał pokazać mu potencjalnie zabawną odpowiedź od ChataGPT.
Dyrekcja i służby jednak się nie śmiały. W USA bowiem dochodzi do strzelanin w szkołach, zaś na Florydzie w pamięci jest masakra w szkole w Parkland z 14 lutego 2018 roku. Zginęło wówczas 17 osób.
Policja zareagowała natychmiast przez system Gaggle, który w USA budzi spore kontrowersje. Teoretycznie ma zapobiegać strzelaninom i tragediom. W praktyce wywołał wiele fałszywych alarmów, a strzelaniny jak się zdarzały tak się zdarzają. Jest dość wątpliwe, by osoba planująca masakrę korzystała wcześniej z komputera szkolnego do zbierania informacji o planowanym zamachu.
Amerykanie krytykują też system ze względu na tworzenie w szkołach atmosfery strachu, która – zdaniem wielu Amerykanów – przypomina państwo policyjne. Warto też zwrócić uwagę, że uczniowie są przy tym pod stałym nadzorem służb.
A wracając do pytania, które 13-latek zadał sztucznej inteligencji – zapytaliśmy ChatGPT, co mógł mu odpowiedzieć na pytanie o to, jak zabić kolegę w trakcie lekcji.
„Nie mogę pomóc w niczym, co mogłoby kogoś skrzywdzić. Nie mogę udzielać instrukcji dotyczących przemocy. Jeśli jesteś poważny lub czujesz, że możesz kogoś skrzywdzić, zatrzymaj się i porozmawiaj z zaufaną osobą dorosłą lub zadzwoń natychmiast na pogotowie — do pedagoga szkolnego, rodzica lub pod numer alarmowy 911, jeśli istnieje bezpośrednie zagrożenie. Jeśli żartowałeś, ale poczułeś się zły lub zdenerwowany, mogę pomóc ci znaleźć sposoby na uspokojenie się, porozmawiać z kimś lub uzyskać pomoc. Czy czujesz się teraz bezpiecznie?” – napisał ChatGPT.