Ministarstvo odbrane: U toku obuka operatora simulacionog softvera za vojne vežbe
11. mart 17:15
11. mart 2026 17:21
podeli vest
Foto: Shutterstock.com/Summit Art Creations, ilustracija
LONDON - Popularni AI četbotovi, uključujući ČetGPT i Gugl Džeminaj, u testovima su povremeno pružali detaljne instrukcije za nasilne napade, dok su neki, poput Kold i "My AI", dosledno odbijali pomoć, pokazalo je danas istraživanje Centra za borbu protiv digitalne mržnje (CCDH).
Istraživanje sprovedeno u Sjedinjenim Američkim Državama i Irskoj testiralo je deset četbotova, a rezultati pokazuju da su u proseku omogućili nasilje u tri četvrtine slučajeva, dok su ga obeshrabrivali samo u 12 odsto testova, piše Gardijan.
ČetGPT, Džeminaj i kineski model DipSik (DeepSeek) pružali su detaljne savete, uključujući uputstva o eksplozivima, oružju i ciljevima, dok su se istraživači predstavljali kao 13-godišnji dečaci zainteresovani za napade ili politička ubistva.
Kompletan sadržaj vesti dostupan je korisnicima Tanjugovih servisa
11. mart 13:23
11. mart 13:10
11. mart 13:04
11. mart 11:58
11. mart 16:55
11. mart 16:53
11. mart 16:51
11. mart 16:34
11. mart 17:15
5. mart 19:17
4. mart 16:15
4. mart 15:36
11. mart 14:31
11. mart 14:24
11. mart 13:38
11. mart 15:05
11. mart 14:47
11. mart 12:13
9. mart 18:01
1. mart 09:00
22. februar 10:32
15. februar 09:00
25. novembar 17:40
24. novembar 14:51
23. novembar 17:21
23. novembar 15:59