11. mart 2026 17:21

Istraživanje: AI četbotovi ponekad pomažu u planiranju nasilja, samo 12 obeshrabrivalo

Izvor: TANJUG

podeli vest

Istraživanje: AI četbotovi ponekad pomažu u planiranju nasilja, samo 12 obeshrabrivalo

Foto: Shutterstock.com/Summit Art Creations, ilustracija

LONDON - Popularni AI četbotovi, uključujući ČetGPT i Gugl Džeminaj, u testovima su povremeno pružali detaljne instrukcije za nasilne napade, dok su neki, poput Kold i "My AI", dosledno odbijali pomoć, pokazalo je danas istraživanje Centra za borbu protiv digitalne mržnje (CCDH).

Istraživanje sprovedeno u Sjedinjenim Američkim Državama i Irskoj testiralo je deset četbotova, a rezultati pokazuju da su u proseku omogućili nasilje u tri četvrtine slučajeva, dok su ga obeshrabrivali samo u 12 odsto testova, piše Gardijan.

ČetGPT, Džeminaj i kineski model DipSik (DeepSeek) pružali su detaljne savete, uključujući uputstva o eksplozivima, oružju i ciljevima, dok su se istraživači predstavljali kao 13-godišnji dečaci zainteresovani za napade ili politička ubistva.

Kompletan sadržaj vesti dostupan je korisnicima Tanjugovih servisa