
Una controversia interna a OpenAI si è intensificata, portando al licenziamento temporaneo del CEO Sam Altman e rivelando un progetto segreto chiamato Q*. Secondo fonti interne, alcuni ricercatori di OpenAI hanno sollevato preoccupazioni riguardo a Q*, sostenendo che potrebbe rappresentare un pericolo per l’umanità. La scoperta è emersa poco prima del licenziamento di Altman, quando almeno quattro membri del consiglio di amministrazione, inclusi il direttore scientifico Ilya Sutskever, l’attivista dell’Altruismo Efficace Helen Toner, l’esperta in robotica Tasha McCauley e l’imprenditore Adam D’Angelo, hanno votato per rimuovere Altman. Le preoccupazioni principali riguardavano la possibilità che Altman potesse commercializzare Q* senza valutarne adeguatamente i rischi.
Leggi anche: WhatsApp, ecco la nuova funzione che nasconde le chat
Leggi anche: Bill Gates: “Ecco come vivrete fra 5 anni…” La profezia sull’intelligenza artificiale è horror
Progetto Q*, mistero e inquietudine legate all’Intelligenza Artificiale Generale AGI
Le informazioni su Q* sono scarse, ma sembra essere un progetto legato all’Intelligenza Artificiale Generale (AGI), un livello avanzato di intelligenza artificiale che può replicare e superare le capacità umane. Mentre le attuali IA generative, come ChatGpt di OpenAI, si basano su modelli predefiniti e non comprendono completamente il significato delle loro creazioni, l’AGI può apprendere e comprendere problemi specifici come farebbe un essere umano.

Alcuni ricercatori ritengono che Q* abbia dimostrato capacità di risolvere problemi matematici, seppur di livello elementare, indicando un passo significativo verso l’AGI. Questa capacità di ragionamento avvicinerebbe l’intelligenza artificiale alla mente umana, aprendo la strada a decisioni autonome.
L’11 novembre, Altman, durante il DevDay di OpenAI, ha dichiarato che ciò che è stato lanciato sembrerà antiquato rispetto a ciò che stanno costruendo per il futuro. Successivamente, ha menzionato nuovi progressi in un discorso a San Francisco il 16 novembre.
Guarda il video dell’intervento di Sam Altman al DevDay:
Il giorno successivo all’intervento, Altman è stato licenziato dal consiglio di amministrazione, ma la sua riassunzione è stata rapida a causa delle pressioni da parte dei dipendenti di OpenAI e degli investitori, inclusa Microsoft.
Tuttavia, il dibattito sulla direzione dell’IA e dei suoi rischi persiste. Alcuni esperti, come Andrew Ng e Yann LeCun, ritengono che l’allarme sull’estinzione umana sia esagerato e utilizzato da grandi aziende tech per promuovere una regolamentazione che bloccherebbe la concorrenza nel settore dell’IA.
Il futuro di OpenAI, sotto la guida di Altman, solleva domande cruciali sulla responsabilità nell’evoluzione dell’IA e sulla necessità di regolamentazioni globali per mitigare i rischi associati a un potenziale AGI. L’industria dell’IA si trova di fronte a una svolta critica, dove il progresso tecnologico deve essere bilanciato da una considerazione attenta delle implicazioni etiche e sociali.