Sam Altman, l’inventeur de ChatGPT, fait partie de ces chefs d’entreprise les plus visionnaires qui soient. En quelques années, le fondateur d’OpenAI, la société chargée du développement de l’intelligence artificielle, qui se présente sous forme de chatbot, est devenu une figure emblématique de la technologie. Il est aussi connu pour sa position qui privilégie la prudence face à l’avenir de l’IA. Effectivement, Sam Altman croit en l’apocalypse. Il s’y prépare même. Et c’est d’ailleurs pourquoi il ne se sépare jamais de son « sac à dos nucléaire ».
Une préoccupation majeure autour des progrès de l’IA
Il faut dire que les perspectives actuelles, et surtout le futur de l’intelligence artificielle qui reste un mystère, terrifient bon nombre d’individus. Le fondateur d’OpenAI a beau être à l’origine de l’une des plateformes conversationnelles dopées à l’IA les plus populaires au monde. Il reconnaît également les préoccupations qui l’entourent. Face à la possibilité que les robots se retournent un jour contre l’humanité, Altman garde toujours avec lui un sac à dos bleu que l’on peut comparer à une mallette nucléaire d’un président des États-Unis.
Voir cette publication sur Instagram
Les autorités doivent prendre des mesures
Cet objet contiendrait la clé pour détruire ChatGPT, si jamais ses intentions tournaient mal. La clé en question serait un MacBook qui a la capacité de désactiver à tout moment l’ensemble des serveurs hébergeant l’IA. Bien qu’il n’existe aucune preuve attestant la véracité de cette information, cela démontre que le patron d’OpenAI prend très au sérieux la menace de voir un jour ChatGPT supplanter les humains.
excited 4 today pic.twitter.com/wKMRZID2Qg
— Sam Altman (@sama) March 14, 2023
Un scénario apocalyptique qui fait penser au programme SkyNet du film Terminator de James Cameron. Pour éviter le pire, Altman incite ainsi les gouvernements à prendre des mesures sérieuses pour limiter les risques, et ce, le plus rapidement possible.
Une réalité qui nécessite un encadrement à l’échelle mondiale
En mai dernier, le créateur de ChatGPT a même cosigné une déclaration selon laquelle « l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires ». Parmi les autres signataires du document figurait Demis Hassabis, directeur exécutif de Google DeepMind. Après tout, dans un monde où l’intelligence artificielle est en train de façonner l’avenir de l’humanité, il est devenu primordial de trouver le bon équilibre entre progrès technologique et sécurité, sous peine d’en payer le prix.
[wpdiscuz-feedback id= »jzpivkayxa » question= »Veuillez laisser un commentaire à ce sujet » opened= »0″]Que pensez-vous de cette théorie ? N’hésitez pas à partager votre avis, vos remarques ou nous signaler une erreur dans le texte (cliquez sur la bulle à droite pour publier un commentaire).[/wpdiscuz-feedback]