Le mystérieux sac à dos de Sam Altman, une « valise nucléaire » pour tuer ChatGPT en cas d’apocalypse ?

Le PDG d’OpenAI affirme détenir la clé pour éteindre les serveurs qui hébergent ChatGPT au cas où l’IA deviendrait incontrôlable, détruisant ainsi complètement le système qui permet à cette technologie de fonctionner.

Sam Altman, l’inventeur de ChatGPT, fait partie de ces chefs d’entreprise les plus visionnaires qui soient. En quelques années, le fondateur d’OpenAI, la société chargée du développement de l’intelligence artificielle, qui se présente sous forme de chatbot, est devenu une figure emblématique de la technologie. Il est aussi connu pour sa position qui privilégie la prudence face à l’avenir de l’IA. Effectivement, Sam Altman croit en l’apocalypse. Il s’y prépare même. Et c’est d’ailleurs pourquoi il ne se sépare jamais de son « sac à dos nucléaire ».

Une préoccupation majeure autour des progrès de l’IA

Il faut dire que les perspectives actuelles, et surtout le futur de l’intelligence artificielle qui reste un mystère, terrifient bon nombre d’individus. Le fondateur d’OpenAI a beau être à l’origine de l’une des plateformes conversationnelles dopées à l’IA les plus populaires au monde. Il reconnaît également les préoccupations qui l’entourent. Face à la possibilité que les robots se retournent un jour contre l’humanité, Altman garde toujours avec lui un sac à dos bleu que l’on peut comparer à une mallette nucléaire d’un président des États-Unis.

Les autorités doivent prendre des mesures

Cet objet contiendrait la clé pour détruire ChatGPT, si jamais ses intentions tournaient mal. La clé en question serait un MacBook qui a la capacité de désactiver à tout moment l’ensemble des serveurs hébergeant l’IA. Bien qu’il n’existe aucune preuve attestant la véracité de cette information, cela démontre que le patron d’OpenAI prend très au sérieux la menace de voir un jour ChatGPT supplanter les humains.

Un scénario apocalyptique qui fait penser au programme SkyNet du film Terminator de James Cameron. Pour éviter le pire, Altman incite ainsi les gouvernements à prendre des mesures sérieuses pour limiter les risques, et ce, le plus rapidement possible.

Une réalité qui nécessite un encadrement à l’échelle mondiale

En mai dernier, le créateur de ChatGPT a même cosigné une déclaration selon laquelle « l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires ». Parmi les autres signataires du document figurait Demis Hassabis, directeur exécutif de Google DeepMind. Après tout, dans un monde où l’intelligence artificielle est en train de façonner l’avenir de l’humanité, il est devenu primordial de trouver le bon équilibre entre progrès technologique et sécurité, sous peine d’en payer le prix.

[wpdiscuz-feedback id= »jzpivkayxa » question= »Veuillez laisser un commentaire à ce sujet » opened= »0″]Que pensez-vous de cette théorie ? N’hésitez pas à partager votre avis, vos remarques ou nous signaler une erreur dans le texte (cliquez sur la bulle à droite pour publier un commentaire).[/wpdiscuz-feedback]

Rejoignez nos 900 000 abonnés via notre Newsletter , Google Actualité et WhatsApp
Source
programmeur.ch

Marc Odilon

J'ai rejoint Neozone en 2020. Avant de me lancer dans le journalisme en 2014, j'ai suivi des études universitaires en gestion d'entreprise et en commerce international. Mon baccalauréat technique en mécanique industrielle m'a permis de me familiariser avec l'univers de la tech. Installateur de panneaux solaires et électronicien autodidacte, je vous fais découvrir tous les jours les principales actualités des nouvelles technologies. Curieux de nature et grand amoureux du web, je suis un rédacteur polyvalent et ma plume n'a pas de limites. Quand je ne travaille pas, je fais du jogging !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Bouton retour en haut de la page