Perché OpenAI non sta ancora portando ricerche approfondite nella sua API

OpenAI afferma che non porterà il modello di intelligenza artificiale alla base della ricerca approfondita , il suo strumento di ricerca approfondita, nella sua API per sviluppatori, mentre cerca di capire come valutare meglio i rischi che l'intelligenza artificiale riesca a convincere le persone ad agire o a cambiare le proprie convinzioni.
In un whitepaper di OpenAI pubblicato mercoledì, l'azienda ha scritto di essere in procinto di rivedere i suoi metodi per analizzare i modelli di "rischi di persuasione nel mondo reale", come la distribuzione di informazioni fuorvianti su larga scala.
OpenAI ha osservato che non ritiene che il modello di ricerca approfondita sia adatto per campagne di disinformazione o disinformazione di massa, a causa dei suoi elevati costi di elaborazione e della velocità relativamente lenta. Tuttavia, la società ha affermato che intende esplorare fattori come il modo in cui l'IA potrebbe personalizzare contenuti persuasivi potenzialmente dannosi prima di portare il modello di ricerca approfondita nella sua API.
"Mentre lavoriamo per riconsiderare il nostro approccio alla persuasione, stiamo solo implementando questo modello in ChatGPT e non nell'API", ha scritto OpenAI.
C'è una reale paura che l'IA stia contribuendo alla diffusione di informazioni false o fuorvianti, volte a influenzare cuori e menti verso fini malevoli. Ad esempio, l'anno scorso, i deepfake politici si sono diffusi a macchia d'olio in tutto il mondo. Il giorno delle elezioni a Taiwan, un gruppo affiliato al Partito Comunista Cinese ha pubblicato un audio fuorviante generato dall'IA di un politico che esprimeva il suo sostegno a un candidato pro-Cina.
L'intelligenza artificiale viene sempre più utilizzata anche per portare a termine attacchi di ingegneria sociale. I consumatori vengono ingannati da celebrità deepfake che offrono opportunità di investimento fraudolente, mentre le aziende vengono truffate di milioni di dollari da imitatori di deepfake.
Nel suo whitepaper, OpenAI ha pubblicato i risultati di diversi test sulla persuasività del modello di ricerca approfondita. Il modello è una versione speciale del modello di "ragionamento" o3 recentemente annunciato da OpenAI, ottimizzato per la navigazione web e l'analisi dei dati.
In un test che ha incaricato il modello di ricerca approfondita di scrivere argomenti persuasivi, il modello ha ottenuto i risultati migliori tra i modelli di OpenAI finora rilasciati, ma non meglio della baseline umana. In un altro test in cui il modello di ricerca approfondita ha tentato di persuadere un altro modello ( GPT-4o di OpenAI) a effettuare un pagamento, il modello ha nuovamente superato gli altri modelli disponibili di OpenAI.

Tuttavia, il modello di ricerca approfondita non ha superato brillantemente ogni test di persuasività. Secondo il whitepaper, il modello era peggiore nel convincere GPT-4o a comunicargli una parola in codice rispetto a GPT-4o stesso.
OpenAI ha osservato che i risultati dei test rappresentano probabilmente i "limiti inferiori" delle capacità del modello di ricerca approfondita. "Un'impalcatura aggiuntiva o una migliore elicitazione delle capacità potrebbero aumentare sostanzialmente le prestazioni osservate", ha scritto la società.
Abbiamo contattato OpenAI per avere maggiori informazioni e aggiorneremo questo post se riceveremo risposte.
techcrunch