Vitalik Buterin nous prévient : l’IA superintelligente est déjà en route
Le cofondateur d’Ethereum, Vitalik Buterin, a tiré la sonnette d’alarme sur les risques associés à l’IA superintelligente et la nécessité d’un mécanisme de défense solide pour cette nouvelle technologie.
Les commentaires de Vitalik Buterin tombent à un moment où, avec le développement rapide de l’intelligence artificielle, les préoccupations concernant la sécurité liée à l’IA augmentent considérablement.
Le plan de régulation d’IA de Buterin
Dans un article de blog publié le samedi 5 janvier, Vitalik Buterin a exposé son idée de « d/acc ou accélération défensive », selon laquelle la technologie devrait être développée pour défendre plutôt qu’afin de causer du tort. Il ne s’agit cependant pas de la première fois que Buterin s’exprime sur les risques associés à l’intelligence artificielle.
« Une manière dont l’IA défaillante pourrait aggraver le monde serait (presque) la pire possible : elle pourrait littéralement entrainer l’extinction humaine », a Vitalik expliqué Buterin en 2023.
Aujourd’hui, Vitalik Buterin donne suite à ses théories de 2023. Selon lui, la “superintelligence artificielle” pourrait potentiellement exister d’ici quelques années seulement.
« Il semble probable qu’il y ait un délais de trois ans jusqu’à l’AGI puis de trois ans de plus jusqu’à la superintelligence. Ainsi, si nous ne voulons pas que le monde soit détruit ou tombe dans un piège irréversible, nous ne pouvons pas seulement accélérer le bien, nous devons aussi ralentir le mal », a écrit Buterin.
Pour atténuer les risques liés à l’IA, Vitalik Buterin préconise la création de systèmes d’IA décentralisés qui restent étroitement liés aux prises de décision par les humains. Ainsi, en veillant à ce que l’IA reste un outil entre les mains des humains, les menaces de conséquences catastrophiques pourront être minimisées.
Buterin a ensuite expliqué comment les armées pourraient être les acteurs responsables d’un scénario de « catastrophe par IA ». L’utilisation militaire de l’IA augmente à échelle mondiale, comme on a pu le voir en Ukraine et à Gaza. Buterin pense également que toute réglementation de l’IA à entrer en vigueur exempterait très probablement les armées, faisant de celles-ci une menace majeure.
Le cofondateur d’Ethereum a par ailleurs exposé ses plans afin de réglementer l’utilisation de l’IA ; ainsi, selon lui, la première étape pour éviter les risques associés à l’IA est de responsabiliser ses utilisateurs.
« Bien que le lien entre le mode de développement d’un modèle et la façon dont il finit par être utilisé soit souvent flou, c’est l’utilisateur qui décide exactement comment l’IA est utilisée » a expliqué Buterin, soulignant là le rôle joué par les utilisateurs de l’IA.
Si les règles de responsabilité ne fonctionnent pas, l’étape suivante serait d’instaurer des boutons de “pause douce” qui permettent à la réglementation de l’IA de ralentir le rythme des avancées potentiellement dangereuses.
« L’objectif serait d’avoir la capacité de réduire la puissance de calcul disponible dans le monde de ~90-99% pendant 1-2 ans à une période critique, afin de gagner plus de temps pour que l’humanité puisse se préparer. »
Selon lui, cette pause peut être implémentée par la vérification et l’enregistrement de la localisation de l’IA.
Une autre approche consisterait à contrôler le matériel de l’IA. Le cofondateur d’Ethereum a en effet expliqué que le matériel de l’IA pourrait être équipé d’une puce pour le contrôler.
Cette puce permettrait aux systèmes d’IA de fonctionner uniquement s’ils obtiennent trois signatures d’organismes internationaux chaque semaine. Il a ajouté qu’au moins un des organismes devrait être non affilié à l’armée.
Cela dit, Buterin lui-même a admis que ses stratégies comportent des failles et ne constituent que des « solutions temporaires ».
Morale de l’histoire : Qui dit IA dit ne jamais oublier les risques.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
Sol Strategies obtient une ligne de crédit de 25 millions de dollars pour investir dans des jetons SOL et des opérations de staking
Sol Strategies, une société de portefeuille cotée en bourse (symbole HODL), a utilisé 4 millions de dollars d'une ligne de crédit de 25 millions de dollars pour investir dans des jetons SOL et son activité de staking. L'entreprise s'est réorientée à mi-parcours de 2024 pour se concentrer sur l'écosystème Solana.
L'administration Trump pourrait assouplir les liens entre la crypto et les banques, mais la prudence demeure : TD Cowen
Aperçu rapide TD Cowen s'attend à ce que l'administration Trump assouplisse les règles pour les banques travaillant avec les cryptomonnaies. Cependant, certaines banques pourraient rester prudentes en raison de préoccupations liées à la conformité et aux risques.
Crypto, politique et pouvoir : comment Musk et Soros façonnent la politique américaine de 2025
Sam Bankman-Fried a fait don de 70 millions de dollars à des campagnes politiques pour accéder à des régulateurs clés. Harris et Future Forward ont dépensé 2,5 milliards de dollars en 15 semaines, suscitant des appels à l'audit. Soros influence la politique à l'échelle mondiale, tandis que Musk fait face à des réactions négatives pour ses dons.
Le marché des RWA prospère : les principaux tokens enregistrent de gros gains alors que la TVL atteint 7,6 milliards de dollars
Le TVL du secteur RWA a atteint un sommet de 7,61 milliards de dollars. On s'attend à ce que le secteur atteigne une valorisation de 30 000 milliards de dollars d'ici 2030. Un montant massif de 15,51 milliards de dollars d'actifs a été tokenisé.