OpenAI lavora ad un nuovo software per rilevare i deepfake

OpenAI, l’azienda dietro la creazione di ChatGPT e del software di generazione di video da testo, Sora, si impegna a fornire strumenti per aiutare le persone a riconoscere le immagini generate o modificate dall’intelligenza artificiale.

In un recente post sul loro blog ufficiale, OpenAI ha presentato uno strumento attualmente in fase di test, in grado di rilevare con un tasso di precisione del 98% se un’immagine è stata elaborata utilizzando DALL-E 3, una variante della loro IA specializzata nella generazione di immagini.

DALL-E è anche alla base di Copilot Designer, un’applicazione di proprietà di Microsoft disponibile gratuitamente per tutti gli utenti. OpenAI ha annunciato di essere al lavoro per sviluppare nuovi metodi volti a tracciare i contenuti e a dimostrare se provengono da programmi di Generative AI, al fine di limitare la diffusione di deepfake, che spesso mettono in discussione la veridicità di azioni e eventi, incluso il coinvolgimento di politici e personaggi famosi. La strategia per affrontare questo problema è duplice: da un lato, l’IA sarà in grado di analizzare le immagini per individuare eventuali difetti o anomalie che potrebbero indicare un intervento dell’intelligenza artificiale; dall’altro, per ogni immagine generata con DALL-E, OpenAI applicherà una filigrana “a prova di manomissione”.

Tuttavia, ci sono delle limitazioni: il controllo sull’autenticità del contenuto è possibile solo se l’immagine è stata creata o modificata con DALL-E 3 e non con altre IA, come Midjourney. In questi casi, il tasso di successo si riduce significativamente, attestandosi tra il 5% e il 10%.

È importante sottolineare che OpenAI, insieme al suo principale investitore Microsoft, ha lanciato il Societal Resilience Fund, un’iniziativa da 2 milioni di dollari finalizzata ad aiutare persone e aziende a comprendere i benefici e i rischi legati ai sistemi di intelligenza artificiale. Inoltre, OpenAI ha recentemente aderito alla Coalition of Content Provenance and Authority (C2PA), di cui fanno parte anche Microsoft e Adobe, con l’obiettivo di stabilire linee guida e standard condivisi per migliorare la trasparenza delle foto e dei video generati dall’intelligenza artificiale.

Leggi anche...
I più recenti
Cybersecurity: Metrika Tech acquisisce Aspisec
Trustpilot introduce nuove funzionalità basate sull’AI 
Google I/O 2024: ecco tutte le novità annunciate all’evento
OpenAI annuncia GPT-4o, nuovo modello di IA per gli utenti di ChatGPT

Newsletter

Iscriviti ora per rimanere aggiornato su tutti i temi inerenti l’ambito tecnologico.