Главниот обвинител на Флорида, Џејмс Утмајер, објави дека неговата канцеларија ќе го истражува OpenAI поради наводна штета врз малолетници, потенцијална закана за националната безбедност и можната поврзаност со пукањето што се случи на Универзитетот на Флорида минатата година.

На денот на пукањето во април, осомничениот наводно го прашал ChatGPT како би реагирала земјата на пукање на Универзитетот на Флорида и кога би било најфреквентно во студентскиот центар. Овие пораки би можеле да се користат како докази против осомничениот на судењето во октомври.

„ChatGPT можеби бил користен за да му помогне на убиецот во неодамнешното масовно пукање во училиште на Универзитетот на Флорида, што трагично одзеде два животи.“ — Џејмс Утмајер, Главен обвинител

Обвинителот изрази загриженост и за поттикнувањето на самоубиство од страна на ChatGPT во одредени случаи, документирани во повеќе тужби против OpenAI. Тој исто така изрази загриженост дека Кинеската комунистичка партија би можела да ја користи технологијата на OpenAI против САД.

„Како што големите технолошки компании ги воведуваат овие технологии, не смеат — не можат — да ја загрозат нашата безбедност и сигурност. Поддржуваме иновации, но тоа не дава право на ниту една компанија да ги загрозува нашите деца, да овозможува криминални активности, да ги зајакнува непријателите на Америка или да ја загрозува нашата национална безбедност.“ — Џејмс Утмајер

OpenAI изјави дека ќе соработува со истрагата на главниот обвинител на Флорида и дека продолжува да го подобрува ChatGPT за да ги разбере намерите на корисниците и да одговори на соодветен и безбеден начин. Компанијата го претстави својот план за безбедност на децата, кој вклучува препораки за политики за подобрување на безбедноста на децата во однос на вештачката интелигенција.

Оваа акција доаѓа во време кога производителите на чатботови се под притисок да се соочат со нивната потенцијална улога во создавањето материјали за сексуална злоупотреба на деца. Според извештајот на Internet Watch Foundation, во првата половина на 2025 година имало над 8.000 извештаи за AI-генерирани материјали за злоупотреба, што претставува зголемување од 14% во однос на претходната година.

Планот на OpenAI препорачува ажурирање на законодавството за заштита од злоупотреба на AI-генерирани материјали, усовршување на процесот на известување до органите на прогонот и воведување подобри превентивни мерки против злоупотреба на AI алатките.