Superintelligence PARTE UNO

Le armi di distruzione di massa, le nanotecnologie, le cyber armi, solo state solo l’inizio della storia distopica. Cosa ci cambierà davvero? Ci cambierà lo sviluppo di artificial general intelligence. Quello che più preoccupa sono le comunità che stanno sviluppando le AI, che hanno gettato le basi e ora dettano regole per il futuro, magari pure ispirate da nobili intenti, ma che potrebbero avere risultati inaspettati se non per dire opposti. Sicuramente le AI produrranno benefici per l’umanità, probabilmente le AI (ricordo a tutti che sono artificiali) si evolveranno accanto a un livello di intelligenza sociale. A breve le AGI arriveranno a essere artificialmente molti intelligenti, ma quanto – e non ho detto quando – saranno capaci di percepire l’autocoscienza? Ecco già du questo punto c’è da chiedersi quanti esseri umani siano dotati di autocoscienza e se tutti ne siano dotati.

E gli umani hanno capito se è una Invenzione o una Evoluzione?

Sicuro è che cambierà i modi fare, intendere ed agire, sia che questi siano buoni o cattivi. Al di là del fatto che ormai l’esplosione di AGI è prossima, qualcuno verrà colto dai soliti e ben noti problemi filosofici, infatti tutto questo produrrà una crisi esistenziale per qualche essere umano dotato di autocoscienza e anche molto altro (sempre ammesso che ne sia dotato).

Per alcuni rappresenterà una sfida, per altri si innesterà il principio di auto-conservazione. Ovvero la società e la civiltà affronterà un tema a cui non è stata invitata alla discussione (orientamento e progettazione) ma si troverà davanti “a tutto” a giochi fatti.

Diamo per scontato che le AGI saranno con noi sinergiche, ma se al contrario si sviluppassero dei contraddittori? Una AGI si scontrerà con il nostro lato oscuro, con la nostra etica, con i nostri valori?

Ci ritroveremo ad interagire con un qualcosa di complesso, e con comportamenti emergenti che non saranno sempre in linea al comune agire o al comune sentire. Già l’essere umano molte volte si affida al caso, altre volte si affida più all’intuito e all’istinto, cose che una AGI potrà difficilmente comprendere e peggio interpretare.

Sono molte le persone che si preoccupano sui rischi esistenziali associati ai sistemi AI/AGI, tra non molto tempo le persone avranno davanti a sé applicazioni con AI “visibili”. E fioccheranno problemi come “giudizi e i pregiudizi” in mezzo a una società che si troverà realmente spaccata in due.

Sicuramente sono già scesi in campo organizzazioni atte a studiare questo problema al fine di evitarlo (Elon Musk, Max Tegmark e MIT, Stanford University e molti altri) per calibrare e ridurre gli impatti sociali. Ma oltre a questo stanno studiando affinché nel lungo termine non si arrivi a formare una AGI con un profilo di “intelligence cattivo”. Ovviamente sono già molti i gruppi che si stanno muovendo al fine di ottenere una copertura “mediatica favorevole” dei sistemi AI. Di fatto è già partita la macchina del consenso.

Usa, Russia e Cina (cyber-spionaggio e battaglia informatica) stanno gareggiando per creare una AGI. Ora prendiamo la classica sfera di cristallo: cosa potrebbe andare storto?

  • a) La corsa agli armamenti AGI obbliga gli sviluppatori a concentrarsi sugli obiettivi, pur di non arrivare secondi in questa maratona non tutti utilizzeranno la massima cautela nella progettazione e qualche errore scapperà. AI e AGI portano con sé problemi vecchi come il mondo e non ancora risolti.
  • b) Rimane sempre presente l’hacking (non esistono codici software immuni all’hacking) e diventerà imperativo proteggere i sistemi ed evitare vulnerabilità (e qua la vedo dura). Dunque immaginiamo un sistema AGI che oltre alla funzioni operative abbia la capacità di gestire decisioni: allora in caso di aggressione del sistema il problema potrebbe assumere dimensioni inaspettate, con una lunga serie di problemi a cascata.
  • c) In questa maratona qualcuno non si curerà troppo di etica o di proteggere i nostri valori sociali, già noi siamo una società dove al suo interno spesso non si va d’accordo, figuriamoci se il tutto verrà sviluppato sulle cose corrette da proteggere (ma fatemi il piacere!).
  • d) AI/AGI si stanno sviluppando su una raccolta dati di internet di dieci anni e sulla base di questo limitatissimo modello si vuole estrarre il modello corretto da seguire, quindi non si tiene conto di molte variabili. E chi decide cosa è giusto inserire come valori in questi sistemi?

Appare chiaro e lampante che al momento certi problemi non verranno risolti, la complessità del sistema è enorme e alcuni problemi delle AGI in futuro diventeranno pericolosi. Le elaborazioni di sistemi (macchine che apprendono) spesso sono profilate da noi esseri umani, e in un modo o nell’altro si verificheranno sempre problemi indesiderati o risultati negativi. Nel frattempo si stanno sviluppando sistemi automatizzati di apprendimento senza supervisione: identificare e correggere velocemente un problema diventerà difficile, non sono problemi di poco conto se parliamo di una macchina che prende decisioni in autonomia e poi passa ad azioni concrete.

ALESSIA http://liberticida.altervista.org/