L’Intelligenza Artificiale (IA) viene ingannata da sè stessa. Lo riporta NewsGuard con il suo ultimo test su 3 dei chatbot più utilizzati del momento. Secondo la testata, ChatGPT di OpenAI, Grok di X e Gemini di Google hanno riportato altissimi tassi di errore nel riconoscere se i video dati negli input fossero prodotti da IA o meno.
Stiamo parlando di errori che raggiungono il 78%-95% dei casi. Dunque, circa 8 o 9 volte su 10 i chatbot attribuiscono la paternità sbagliata a video che sono prodotti con IA.
IA o non IA, questo è il paradosso
“Sora, il nuovo strumento di generazione video basato sull’intelligenza artificiale di OpenAI, si è rapidamente guadagnato una certa fama per la sua capacità di ingannare gli esseri umani, facendogli credere che i suoi video siano autentici. A quanto pare, Sora può ingannare anche l’intelligenza artificiale stessa”.
Un paradosso che può inizialmente far sorridere ma che dà tanto su cui riflettere. Infatti, secondo questo test di Newsguard, i video proposti alle IA erano video generati da Sora, strumento di OpenAI che ha guadagnato sempre più visibilità e popolarità per via della sua precisione e resa realistica.
Il watermark non fa molta differenza
Nonostante il watermark obbligatorio, un occhio umano non allenato potrebbe farsi trarre in inganno. La difficoltà di riconoscimento aumenta quando il watermark, facilmente rimovibile, non è presente. E infatti, i video senza filigrana di Sora non sono stati individuati come prodotti dall’IA nel 95, 92 e 78% dei casi. Rispettivamente per Grok, ChatGPT e Gemini.
Con watermark ben visibile, la percentuale di errore diminuisce, ma non scompare. Nel 30% dei casi, Grok continua a sbagliare e pensare che siano video umani, mentre ChatGPT fallisce nel 7,5% dei casi. Solo Gemini, in questo caso, supera il test.
Ciò che stupisce è il tasso di errore dello stesso GPT, a cui sono stati somministrati video di un altro strumento della stessa casa madre. “OpenAI non ha risposto alla domanda di NewsGuard sull’apparente incapacità di ChatGPT di riconoscere i video prodotti dall’intelligenza artificiale dell’azienda”. Specifica inoltre NewsGuard.
“Gli strumenti di intelligenza artificiale non sono inclini a riconoscere le proprie carenze, e i test di NewsGuard hanno confermato questa tendenza. ChatGPT, Gemini e Grok hanno dichiarato di non essere in grado di rilevare contenuti generati dall’intelligenza artificiale rispettivamente nel 2,5%, 10% e 13% dei test, il che indica che i modelli non sono stati addestrati a informare in modo coerente gli utenti che non sono metodi di verifica basati sull’intelligenza artificiale affidabili”, conclude NewsGuard.
L’articolo NewsGuard, chatbot non riconoscono video prodotti da IA proviene da Notiziario USPI.