Il CEO di Google “non dorme la notte” preoccupato per l’Intelligenza Artificiale

Sundar Pichai ritiene che l’intelligenza artificiale richiederà un quadro normativo globale, simile a quello per il controllo delle armi nucleari.

La vera paura e preoccupazione di Sundar Pichai è che nel prossimo futuro – se non quello quasi immediato – non ci sarà più il posto dominante per la sua azienda. Forse, per un insieme di motivi e principalmente per quello che chiamiamo “L’obsoleta mentalità di mercato”, continuerà ad avere ancora un posto nel panorama della “grande trasformazione” che stiamo vivendo. Ho letto che Google ha arricchito se sue mappe con i migliori, più sperduti e meravigliosi sentieri in giro per il mondo. Ci sarà “un posto al sole” anche per Google.

AD

chatGPT diventa una super mega-piattaforma di Intelligenza artificiale

Il CEO di Google Sundar Pichai ha affermato che le sue preoccupazioni sull’intelligenza artificiale “lo tengono sveglio la notte”, aggiungendo che la tecnologia all’avanguardia potrebbe rivelarsi “molto dannosa” se applicata in modo errato.

Pichai ritiene che l’intelligenza artificiale richiederà un quadro normativo globale, simile a quello per il controllo delle armi nucleari. Il capo di Google riconosce che la concorrenza nel settore tecnologico potrebbe mettere da parte la preoccupazione per i problemi di sicurezza. In un’intervista su 60 Minutes della CBS, Pichai ha affermato che i governi dovranno sviluppare quadri normativi globali insieme allo sviluppo di sistemi di intelligenza artificiale.

Circa due settimane fa, la questione dei potenziali pericoli di A.I. è tornato nella sfera pubblica quando più di 1.000 ricercatori e leader tecnologici, tra cui Elon Musk e il co-fondatore di Apple Steve Woniak, hanno chiesto una “pausa” di sei mesi nello sviluppo di una potente tecnologia di intelligenza artificiale. Questa tecnologia potrebbe essere accompagnata da “gravi rischi per la società e l’umanità”.

La società madre di Google, Alphabet, possiede la società britannica di intelligenza artificiale DeepMind. Google ha già lanciato un chatbot AI, Bard, nel tentativo di “rispondere” al popolare accordo multimiliardario di ChatGPT e OpenAI con Microsoft.

Pichai sottolinea che l’intelligenza artificiale potrebbe causare problemi a causa della potenziale disinformazione. “Con l’intelligenza artificiale, sarà possibile creare facilmente un video in cui si potrebbe vedere Scott (alias Scott Pelley, il giornalista della CBS che lo ha intervistato) dire qualcosa, o io dire qualcosa, che non abbiamo mai detto. E potrebbe essere vero. Su scala sociale può causare gravi danni”.

Il capo di Google ha sostenuto che la versione della sua tecnologia di intelligenza artificiale ora disponibile al pubblico, tramite il chatbot Bard, è sicura. Ha aggiunto che Google agisce in modo responsabile, non rilasciando versioni avanzate di Bard al pubblico per i test.

NYT: la sicurezza sacrificata per la velocità

Solo 24 ore fa, il New York Times ha rivelato che Google ha lanciato Bard dopo anni di discussioni interne sul fatto che i vantaggi dell’A.I. superato i rischi. Nel 2020, il gigante della tecnologia ha anche annunciato Meena, un chatbot simile, ma alla fine quel sistema è stato ritenuto troppo rischioso da lanciare, hanno detto tre persone a conoscenza della questione. Queste preoccupazioni sono state rivelate in precedenza dal Wall Street Journal.

“Google era a conoscenza”

Secondo il NYT, Google ha impedito a due dei suoi principali ricercatori di intelligenza artificiale ed etica, Tinit Gebru e Margaret Mitchell, di pubblicare un documento in cui avvertiva che i modelli di linguaggio di grandi dimensioni utilizzati nei nuovi sistemi di intelligenza artificiale, potrebbero scatenare un linguaggio offensivo. Nel gennaio 2022, Google ha cercato di impedire a un altro ricercatore, il dott. El Mahdi, dalla pubblicazione di uno studio critico, secondo il NYT.

“Non comprendiamo nemmeno appieno il nostro sistema di intelligenza artificiale”

Ora Pichai ammette che Google non ha compreso appieno come il proprio sistema di intelligenza artificiale ha risposto in determinate situazioni. “C’è un aspetto di questo fenomeno che tutti noi sul campo chiamiamo la ‘scatola nera’. Non lo capiamo del tutto. E non possiamo dire esattamente perché ha detto qualcosa o perché ha commesso un errore”.

Alla domanda del giornalista della CBS sul perché Google abbia rilasciato Bard pur non comprendendo appieno come funziona, Pichai ha risposto: “Mettiamola in questo modo. Non credo che comprendiamo nemmeno del tutto come funziona la mente umana”.

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale

Pichai riconosce che la società non sembra pronta per i rapidi progressi dell’intelligenza artificiale. “Sembra esserci una discrepanza” tra la velocità con cui la società pensa e si adatta al cambiamento rispetto alla velocità con cui l’intelligenza artificiale si sta evolvendo. Tuttavia, ha aggiunto che “almeno le persone stanno iniziando a rendersi conto dei suoi potenziali pericoli più rapidamente”. “Rispetto a qualsiasi altra tecnologia, ho visto più persone preoccuparsene all’inizio del suo ciclo di vita. Quindi mi sento ottimista”.

Pichai ha affermato che l’impatto economico dell’Intelligenza Artificiale sarà significativo e influenzerà tutto. “Ogni prodotto in ogni azienda.”

Riferendosi all’industria medica come esempio, Pichai ha affermato che tra cinque o dieci anni un radiologo potrebbe lavorare con un assistente di intelligenza artificiale per dare priorità ai casi. Stima che tra le professioni che saranno interessate vi siano scrittori, contabili, architetti e programmatori.

Fonte: stampa estera