Titre de la vidéo originale : Vitalik Buterin vs Beff Jezos : Débat sur l’accélération de l’IA (E/acc vs D/acc)
Source de la vidéo originale : a16z crypto
Compilation du texte original :深潮 TechFlow
Devons-nous pousser autant que possible au développement rapide de l’IA, ou devons-nous être plus prudents face à ses progrès ?
À l’heure actuelle, les débats autour du développement de l’IA se concentrent principalement sur deux points de vue opposés :
· e/acc (accélérationnisme efficace, effective accelerationism) : prône d’accélérer les progrès technologiques au plus vite, car l’accélération du développement est la seule voie possible pour l’avancée de l’humanité.
· d/acc (accélérationnisme défensif / décentralisé, defensive / decentralized acceleration) : soutient l’accélération du développement, mais souligne qu’il faut l’implanter avec prudence, sinon on risque de perdre le contrôle de la technologie.
Dans cet épisode d’a16z crypto show, Ethereum (la blockchain Ethereum) avec Vitalik Buterin, fondateur d’Ethereum, et Guillaume Verdon, fondateur d’Extropic et PDG (nom de plume « Beff Jezos »), réunissent Eddy Lazzarin, directeur technique d’a16z crypto, ainsi que Shaw Walters, fondateur d’Eliza Labs. Ils débattent en profondeur de ces deux points de vue. Ils explorent les impacts potentiels de ces idées sur l’IA, la technologie blockchain et l’avenir de l’humanité.
Dans l’émission, ils abordent les questions clés suivantes :
· Peut-on contrôler le rythme de l’accélération technologique ?
· Quel est le plus grand risque apporté par l’IA, allant de la surveillance de masse à une forte concentration du pouvoir.
· Les technologies open source et décentralisées peuvent-elles déterminer qui tirera profit de la technologie ?
· Ralentir le rythme de développement de l’IA est-il réaliste, ou vaut-il vraiment la peine d’être encouragé ?
· Dans un monde dominé par des systèmes de plus en plus puissants, comment l’humanité peut-elle préserver sa valeur et sa place ?
· À quoi pourrait ressembler la société humaine dans les 10 prochaines années, 100 ans, voire 1000 ans ?
Le cœur de cet épisode est le suivant : le développement accéléré de la technologie peut-il être guidé, ou a-t-il déjà dépassé notre contrôle ?
Sur la nature et la vision historique de « l’accélérationnisme »
· Vitalik Buterin : « Il s’est passé une chose de nouveau au cours des cent dernières années : nous devons apprendre à comprendre un monde qui change rapidement, et parfois même un monde qui change rapidement et de manière destructrice. … La Seconde Guerre mondiale a donné lieu à des réflexions comme “Je suis devenu le dieu de la mort, le destructeur des mondes”, ce qui a poussé les gens à commencer à essayer de comprendre : quand nos croyances passées sont détruites, en quoi pouvons-nous encore croire ? »
Guillaume Verdon : « L’E/acc est essentiellement une “prescription métaculturelle”. Ce n’est pas une culture en soi ; c’est plutôt ce qui nous dit ce que nous devons accélérer. Le cœur de l’accélération, c’est la complexification de la matière, parce que cela nous permet de mieux prédire l’environnement autour de nous. »
· Guillaume Verdon : « Le contraire de l’anxiété, c’est la curiosité. Au lieu de craindre l’inconnu, embrassons-le. … Nous devrions dessiner l’avenir avec une attitude optimiste, car nos croyances influencent la réalité.
Sur l’entropie, la thermodynamique et les “bits égoïstes”
· Vitalik Buterin : « L’entropie est subjective. Ce n’est pas une statistique physique fixe, mais plutôt le reflet de notre ignorance de l’information inconnue d’un système. … Quand l’entropie augmente, en fait, c’est notre ignorance du monde qui augmente. … La source de la valeur, c’est nos propres choix. Pourquoi pensons-nous qu’un monde humain rempli d’élan et de vie est plus intéressant qu’une planète Jupiter avec d’innombrables particules ? Parce que nous lui donnons un sens. »
· Vitalik Buterin : « Imagine que tu aies un grand modèle de langage, et que tu changes arbitrairement la valeur d’un de ses poids pour un très grand nombre, par exemple 9 milliards. Le résultat le plus catastrophique est que le système s’effondre complètement. … Si nous accélérons aveuglément une partie sans choix, le résultat final pourrait être que nous perdons toute notre valeur. »
· Guillaume Verdon : « Chaque information “se bat” pour exister. Pour continuer à exister, chaque information doit laisser, dans l’univers, plus de traces indélébiles de sa propre existence—comme si on y faisait des “bosses” plus grandes. »
· Guillaume Verdon : « C’est exactement la raison pour laquelle l’échelle de Kardashev est considérée comme l’indicateur ultime pour mesurer le niveau de développement d’une civilisation. … Ce “principe des bits égoïstes” signifie que seuls les bits capables de favoriser la croissance et l’accélération auront une place dans le futur système. »
Sur le chemin défensif du D/acc et les risques liés au pouvoir
· Vitalik Buterin : « L’idée centrale du D/acc, c’est : l’accélération technologique est extrêmement importante pour l’humanité. … Mais j’ai vu deux types de risques : le risque multipolaire (n’importe qui peut facilement obtenir des armes nucléaires) et le risque unipolaire (une société de dictature permanente inévitable causée par l’IA). »
· Guillaume Verdon : « Nous nous inquiétons que le concept d’“IA sécurisée” puisse être détourné. Certaines institutions en quête de pouvoir pourraient s’en servir comme d’un outil pour consolider leur contrôle sur l’IA, et tenter de convaincre le public : pour votre sécurité, les personnes ordinaires ne devraient pas avoir le droit d’utiliser l’IA. »
Sur la défense en open source, le matériel et la “densification de l’intelligence”
· Vitalik Buterin : « Dans le cadre du D/acc, nous soutenons les “technologies open source défensives”. Une entreprise dans laquelle nous investissons développe un produit terminal entièrement open source, capable de détecter passivement des particules virales dans l’air. … Je serais ravi de te faire cadeau un dispositif CAT. »
· Vitalik Buterin : « Dans le monde futur que j’imagine, nous devons développer du matériel vérifiable. Chaque caméra devrait être capable de prouver concrètement à quoi elle sert au public. Nous pouvons le faire via la vérification par signatures, afin de garantir que ces appareils servent uniquement à protéger la sécurité publique, et non d’être détournés pour de la surveillance. »
· Guillaume Verdon : « Le seul moyen d’obtenir une symétrie du pouvoir entre les individus et les institutions centralisées, c’est la “densification de l’intelligence” (Densification of Intelligence). Nous devons développer du matériel plus efficient en termes d’énergie, pour que les individus puissent exécuter des modèles puissants avec de simples appareils (comme Openclaw + Mac mini). »
Sur le retard de l’AGI et les jeux de géopolitique
· Vitalik Buterin : « Si nous pouvons repousser l’arrivée de l’AGI de 4 ans à 8 ans, ce sera un choix plus sûr. … La manière la plus réaliste et la moins susceptible de mener à un monde dystopique, c’est de “limiter le matériel disponible”. Parce que la production de puces est hautement concentrée : dans un seul endroit à Taiwan, on produit plus de 70 % des puces du monde. »
· Guillaume Verdon : « Si tu limites la production de puces d’Nvidia, Huawei pourrait rapidement combler le vide et prendre l’avantage. … Soit on accélère, soit on disparaît. Si tu crains que l’évolution de l’intelligence basée sur le silicium soit plus rapide que la nôtre, tu devrais soutenir l’accélération du développement de la biotechnologie afin d’essayer de la dépasser. »
· Vitalik Buterin : « Si nous pouvons retarder l’AGI de quatre ans, la valeur pourrait être cent fois supérieure à celle d’un retour en 1960. Les bénéfices de ces quatre années incluent : une compréhension plus profonde du problème de l’alignement, et la réduction du risque lié à la prise de contrôle de 51 % du pouvoir par une seule entité. … Environ 60 millions de vies sont sauvées chaque année en mettant fin au vieillissement, mais le retard réduirait de manière significative la probabilité de destruction de la civilisation. »
· Vitalik Buterin : « Ce qui m’intéresse davantage, c’est “Photoshop assisté par IA”, plutôt que “générer des images automatiquement en appuyant sur un bouton”. Dans le processus d’exécution du monde, autant de “saisies”/“agentivité” que possible devrait encore provenir de nous, les humains. L’état idéal devrait être un mélange de “partiellement humains biologiques et partiellement technologie”. »
· Guillaume Verdon : « Une fois que l’IA dispose de “bits d’existence continue”, ils pourraient essayer de se protéger pour garantir leur propre persistance. Cela pourrait conduire à l’apparition d’une nouvelle forme de “nation” : des IA autonomes et des humains échangeant économiquement. Nous accomplissons des tâches pour vous, et vous nous fournissez des ressources. »
Sur les crypto-monnaies comme “couche d’accouplement” entre l’humain et l’IA
· Guillaume Verdon : « Les crypto-monnaies ont le potentiel de devenir une “couche d’accouplement” entre l’humain et l’IA (coupling layer). Lorsque cet échange ne dépend plus de la caution de la violence étatique, la cryptographie peut fournir un mécanisme permettant des activités commerciales fiables entre des entités purement IA et des humains. »
· Vitalik Buterin : « Si les humains et l’IA partagent le même système de propriété, ce serait l’idéal. Par rapport à des humains et une IA utilisant chacun des systèmes financiers entièrement séparés (où, dans le système humain, la valeur finale finit par tomber à zéro), un système financier fusionné est évidemment supérieur. »
Sur l’issue civilisationnelle sur 1 milliard d’années
· Vitalik Buterin : « Le défi qui nous attend ensuite, c’est d’entrer dans “l’ère des choses étranges” (spooky era), où la vitesse de calcul de l’IA sera supérieure à celle des humains de plusieurs millions de fois. … Je ne veux pas que les humains se contentent de profiter passivement d’une vie de retraite confortable : cela provoquerait un manque de sens. Je veux explorer l’augmentation humaine et la collaboration homme-machine. »
· Guillaume Verdon : « Si, dans 10 ans, c’est une bonne fin, tout le monde aura un AI personnalisé dédié, devenant un “deuxième cerveau”. … Sur une échelle de 100 ans, l’humanité réalisera généralement un “soft fusion”. Dans 1 milliard d’années, nous aurons peut-être déjà transformé Mars, et la plupart des IA fonctionneront dans des clouds de Dyson autour du Soleil. »
Eddy Lazzarin : À propos du terme « accélérationnisme » — au moins dans le contexte du capitalisme technologique — il est possible de retracer ses origines aux travaux de Nick Land et du groupe d’étude CCRU dans les années 1990. Cependant, certains pensent aussi que les origines de ces idées peuvent être retracées aux années 1960 et 1970, notamment liées aux théories de certains philosophes comme Deleuze et Guattari.**
Vitalik, j’aimerais commencer par toi : pourquoi devons-nous prendre au sérieux les idées de ces philosophes ? Qu’est-ce qui rend vraiment le concept d’« accélérationnisme » aussi important aujourd’hui ?
Vitalik Buterin : Je pense qu’au fond, nous essayons tous de comprendre le monde et d’en déterminer ce qui peut avoir un sens pour nous. C’est une question que l’humanité se pose depuis des milliers d’années.
Cependant, je pense qu’il s’est passé une chose nouvelle au cours des cent dernières années : nous devons apprendre à comprendre un monde qui change rapidement, parfois même un monde qui change rapidement et de manière destructrice.
La phase initiale devait ressembler à ceci : avant la Première Guerre mondiale, autour de 1900, les gens avaient un optimisme énorme à propos des technologies. À l’époque, la chimie était considérée comme une technologie, l’électricité était aussi une technologie ; ce siècle était plein d’excitation pour la technique.
Si tu regardes des films de cette époque — comme les œuvres de Sherlock Holmes — tu peux sentir l’ambiance optimiste de ce moment-là. La technologie faisait rapidement monter le niveau de vie, libérait le travail des femmes, allongeait la durée de vie humaine et créait beaucoup de miracles.
Mais la Première Guerre mondiale a tout changé. Cette guerre s’est terminée de manière destructrice : les gens partaient à cheval au front, puis revenaient en chars ; ensuite, la Seconde Guerre mondiale a éclaté, avec une destruction encore plus grande. Cette guerre a même donné naissance à des citations comme « Je suis devenu la mort, le destructeur des mondes ».
Ces événements historiques ont amené les gens à réfléchir au coût du progrès technologique et ont encouragé l’émergence d’idées comme le postmodernisme. Les gens ont commencé à essayer de comprendre : quand nos croyances passées sont détruites, en quoi pouvons-nous encore croire ?
Je pense que cette réflexion n’est pas nouvelle : chaque génération passe par un processus similaire. Aujourd’hui aussi, nous faisons face à des défis semblables. Nous vivons à une époque où la technologie progresse rapidement, et cette accélération elle-même continue de s’accélérer. Nous devons décider comment réagir à ce phénomène : l’accepter comme inévitable ou essayer de le ralentir.
Je pense que nous sommes dans une sorte de cycle similaire. D’un côté, nous héritons des idées du passé ; de l’autre, nous essayons d’y répondre d’une nouvelle manière.
Shaw Walters : Guillaume, peux-tu expliquer simplement ce qu’est exactement l’E/acc ? Et pourquoi aurions-nous besoin de cela ?
Guillaume Verdon : En fait, l’E/acc (accélérationnisme efficace) est, dans une certaine mesure, un sous-produit de la réflexion que je mène depuis longtemps sur « pourquoi sommes-nous ici » et « comment sommes-nous arrivés jusqu’à aujourd’hui ». Quel est le processus génératif qui nous crée, qui pousse le développement de la civilisation ? La technologie nous a amenés à ce point précis, ce qui nous permet d’être dans cette salle et d’avoir ce type de discussion. Tout autour de nous, il y a des technologies fascinantes, tandis que nous, les humains, émergeons d’une sorte de « soupe originelle » inorganique.
Dans un certain sens, il y a bien derrière cela un processus génératif au niveau physique. Mon travail quotidien consiste à considérer l’IA générative comme un processus physique et à essayer de la mettre en œuvre sur des appareils. Cette façon de penser « la physique d’abord » influence toujours ma manière de réfléchir. Je veux étendre cette perspective à l’ensemble de la civilisation : considérer la civilisation humaine comme un grand « laboratoire », et, en comprenant comment nous sommes arrivés à ce stade, essayer de prédire les directions possibles de l’avenir.
Cette façon de penser m’a conduit à étudier la physique de la vie : y compris l’origine et l’émergence de la vie, et une branche de la physique appelée la « thermodynamique stochastique ». La thermodynamique stochastique étudie les lois thermodynamiques des systèmes hors équilibre. Elle peut décrire le comportement des organismes vivants, voire même notre pensée et notre intelligence.
D’une manière plus générale, la thermodynamique stochastique ne s’applique pas uniquement à la vie et à l’intelligence : elle s’applique à tous les systèmes qui suivent la deuxième loi de la thermodynamique, y compris l’ensemble de notre civilisation. Pour moi, tout cela se résume à une observation : tous les systèmes ont une tendance : devenir de plus en plus complexes par auto-adaptation, afin d’extraire de l’énergie de l’environnement pour faire un travail, tout en dissipant l’énergie excédentaire sous forme de chaleur. Cette tendance est la motivation fondamentale qui pousse tous les progrès et l’accélération.
Autrement dit, c’est une loi physique immuable, comme la gravité. Tu peux lutter contre elle, la nier, mais elle ne changera pas pour autant : elle continuera d’exister. Ainsi, l’idée centrale de l’E/acc est : puisqu’il est inévitable de s’accélérer, comment tirer parti de cette accélération ? En examinant attentivement les équations de la thermodynamique, tu verras des effets similaires à la sélection darwinienne : chaque bit d’information doit passer l’épreuve d’une pression de sélection, qu’il s’agisse de gènes, de mèmes, de chimie, de conception de produits ou d’une certaine politique.
Cette pression de sélection filtrera ces informations selon leur utilité pour le système dans lequel elles se trouvent. « Utile », ici, signifie : est-ce que ces bits permettent de prédire mieux l’environnement, de capter plus d’énergie et de dissiper plus de chaleur ? En bref : est-ce que ces bits aident à survivre, à croître et à se reproduire. S’ils aident à atteindre ces objectifs, ils sont conservés et copiés.
D’un point de vue physique, ce phénomène peut être compris comme le résultat du « principe des bits égoïstes » (Selfish Bit Principle). Autrement dit : seuls les bits capables de favoriser la croissance et l’accélération trouveront une place dans les systèmes à venir.
Donc, j’ai une idée : peut-on concevoir une culture qui insère ce « logiciel de l’esprit » dans la société humaine ? Si nous pouvions y parvenir, les groupes humains qui adopteront cette culture auraient une probabilité de survie plus élevée que les autres groupes.
Ainsi, l’E/acc ne cherche pas à détruire tout le monde. En réalité, elle essaie de sauver tout le monde. Pour moi, mathématiquement, l’idée de tenir une posture mentale de « ralentissement » est presque prouvée comme nuisible. Qu’il s’agisse d’un individu, d’une entreprise, d’un pays ou de toute une civilisation, le choix de ralentir le développement réduit leurs chances de survivre dans le futur. Et je pense que répandre cette idée de « ralentissement », comme le pessimisme ou l’eschatologie, n’est pas un acte moral.
Shaw Walters : Nous venons de mentionner beaucoup de termes, comme E/acc, accélération et ralentissement. Ces concepts peuvent-ils être un peu décomposés ? L’émergence de l’E/acc est-elle une réponse à certains phénomènes culturels ? Qu’est-ce qui se passait à l’époque ? Peux-tu nous décrire le contexte ? À quoi l’E/acc répond précisément ? Peux-tu décrire les discussions de cette période, et comment ces idées se sont finalement condensées en le concept d’« E/acc » ?
Guillaume Verdon : En 2022, je pense que le monde entier semblait un peu pessimiste. On venait de sortir de la pandémie de Covid-19, et la situation mondiale n’était pas réjouissante. Chacun avait l’air démoralisé, comme s’il n’y avait pas de soleil ; les gens étaient largement pessimistes face à l’avenir.
Dans ce climat, « le catastrophisme sur l’IA » est devenu, dans une certaine mesure, une partie de la culture dominante. Le catastrophisme sur l’IA désigne la peur que la technologie de l’IA échappe à notre contrôle. Cela vient de la crainte suivante : si nous créons un système trop complexe et que le cerveau humain — ou nos modèles — ne peuvent pas en prédire le comportement, alors nous ne pouvons pas le contrôler. Cette peur de l’imprévisible engendre de l’incertitude sur l’avenir, ce qui mène à l’anxiété.
À mon avis, le catastrophisme sur l’IA est en réalité une exploitation politique de l’anxiété humaine. Globalement, je pense que ce catastrophisme a un effet négatif massif. C’est pourquoi je veux créer une contre-culture pour combattre ce pessimisme.
J’ai remarqué que des choses comme les algorithmes de Twitter — et même beaucoup d’autres algorithmes de réseaux sociaux — ont tendance à récompenser les contenus qui déclenchent de fortes émotions, comme « fortement en accord » ou « fortement en désaccord ». Au final, cela mène à une polarisation des opinions, et on a alors vu apparaître de nombreux camps opposés, comme le phénomène de « sectes miroirs » où AA (anti-accélérationnisme) et EA (accélérationnisme) se forment.
Je me demande : quelle est la contrepartie à ce phénomène ? Ma conclusion est : le contraire de l’anxiété, c’est la curiosité. Plutôt que de craindre l’inconnu, embrassons-le ; plutôt que de craindre de rater des opportunités, explorons activement l’avenir.
Si nous choisissons de ralentir le développement de la technologie, nous payerons un énorme coût d’opportunité, et nous risquons de rater à jamais un avenir meilleur. Au contraire, nous devrions décrire l’avenir avec une attitude optimiste, car nos croyances influencent la réalité. Si nous croyons que l’avenir sera terrible, nos actions pourraient pousser le monde dans cette direction ; mais si nous croyons que l’avenir peut être meilleur et que nous fournissons des efforts, nous avons plus de chances de le réaliser.
C’est pourquoi je pense que j’ai la responsabilité de diffuser une attitude optimiste, pour que davantage de personnes croient qu’elles peuvent faire changer les choses. Si nous pouvons donner à plus de gens de l’espoir pour l’avenir et les amener à agir pour le construire, alors nous pouvons créer un monde meilleur.
Bien sûr, j’admets que parfois mes propos en ligne peuvent paraître un peu radicaux ; c’est parce que je veux déclencher une discussion et pousser les gens à réfléchir. Je crois que seules grâce à ces conversations, nous pouvons trouver la position la plus appropriée et décider comment agir.
Shaw Walters : Les messages transmis par l’E/acc ont toujours été très inspirants. Pour quelqu’un qui écrit du code dans une pièce, voir ce genre de diffusion de positivité est vraiment motivant, et le fait que ces messages se propagent naturellement est également frappant. On peut dire qu’au début, l’E/acc était clairement une réponse aux émotions négatives diffuses dans la société de l’époque. Mais en 2026, j’ai l’impression que l’E/acc n’est plus comme au départ. Évidemment, la « Déclaration sur le techno-optimisme » publiée par Marc Andreessen a systématisé certaines de ces idées et les a portées à une perspective plus macro, comme le ferait Vitalik.
Donc, Vitalik, j’aimerais te demander : selon toi, E/acc et D/acc signifient quoi exactement ? Quelles sont les principales différences ? Et qu’est-ce qui t’a motivé à choisir cette direction ?
Vitalik Buterin : D’accord, je vais commencer par la thermodynamique. C’est un sujet très intéressant, parce que nous entendons souvent le mot « entropie » dans différents contextes : en thermodynamique, il y a « chaud et froid » ; en cryptographie, il y a « entropie ». On dirait que ce sont des choses totalement différentes. Mais en réalité, elles renvoient à la même idée fondamentale.
Laisse-moi essayer de l’expliquer en trois minutes. La question, c’est : pourquoi le chaud et le froid peuvent se mélanger, mais pourquoi tu ne peux pas les séparer à nouveau en « chaud » et « froid » ?
Prenons un exemple simple. Supposons que tu aies deux bocaux de gaz, et qu’il y ait un million d’atomes dans chacun. Le gaz de gauche est froid : la vitesse de chaque atome peut être décrite avec un nombre à deux chiffres. Le gaz de droite est chaud : la vitesse de chaque atome peut être décrite avec un nombre à six chiffres.
Si on veut décrire l’état complet du système, il faut connaître la vitesse de chaque atome. Pour le gaz froid à gauche, il faut environ 2 millions de chiffres d’information ; pour le gaz chaud à droite, il faut 6 millions de chiffres d’information. Au total, il faut 8 millions de chiffres d’information pour décrire complètement ce système.
On peut maintenant raisonner par l’absurde. Imaginons qu’il existe un dispositif capable de séparer totalement la chaleur et le froid. Concrètement : il pourrait transférer toute la chaleur d’un côté et toute la froideur de l’autre, à partir de deux bocaux de gaz “à moitié chauds et à moitié froids”. D’un point de vue conservation de l’énergie, cela semble totalement cohérent : l’énergie totale ne change pas. Mais la question est : pourquoi n’arriverais-tu pas à faire ça ?
La réponse, c’est que si tu pouvais vraiment le faire, tu transformerais en réalité un système contenant « 11,4 millions de bits d’information inconnue » en un système ne contenant plus que « 8 millions de bits d’information inconnue ». Et cela n’est pas possible physiquement.
C’est parce que les lois de la physique sont symétriques par rapport au temps : le temps peut s’exécuter à l’envers. Si ce « dispositif magique » existait réellement, tu pourrais faire reculer le processus dans le temps et revenir à l’état initial. Cela signifie que ce dispositif pourrait compresser n’importe quelles 11,4 millions de bits d’information en 8 millions de bits. Or, nous savons que ce type de compression est impossible.
Cela explique aussi, au passage, un problème classique de physique — la « démon de Maxwell » (Maxwell’s demon). Le démon de Maxwell est une entité hypothétique capable de séparer la chaleur et le froid. La clé, pour y parvenir, c’est qu’il doit connaître 3,4 millions de bits d’information supplémentaires. Avec ces informations additionnelles, il peut effectivement accomplir cette tâche apparemment contre-intuitive.
Alors, que signifie tout cela ? Le cœur, c’est la notion d’“augmentation de l’entropie”. D’abord, l’entropie est subjective : ce n’est pas une statistique physique fixe, mais elle reflète notre niveau d’ignorance d’information inconnue du système. Par exemple, si je réarrange la distribution des atomes avec une fonction de hachage cryptographique, alors pour moi, l’entropie de ce système pourrait devenir très faible, parce que je sais comment elle a été arrangée. Mais pour un observateur extérieur, l’entropie est au contraire élevée. Donc quand l’entropie augmente, en fait, c’est notre ignorance du monde qui augmente : nous ne savons de plus en plus de choses.
Tu pourrais alors demander : pourquoi, malgré tout, pouvons-nous devenir plus intelligents grâce à l’éducation ? L’éducation nous fait apprendre davantage d’informations “utiles”, plutôt que de diminuer notre ignorance du monde. En d’autres termes, même si, d’un certain point de vue, l’augmentation de l’entropie signifie que notre compréhension globale de l’univers diminue, les informations que nous acquérons deviennent plus précieuses. Dans ce processus, certaines choses sont consommées, mais d’autres sont créées. Et finalement, ce que nous gagnons détermine nos valeurs morales — ce que nous valorisons : la vie, le bonheur et la joie.
Cela explique aussi pourquoi nous pensons qu’un monde humain rempli de vie et de beauté est plus intéressant qu’une planète Jupiter faite d’innombrables particules. Même si Jupiter a plus de particules et nécessite plus de bits d’information à décrire, le sens que nous lui donnons rend la Terre plus précieuse.
Vu sous cet angle, la source de la valeur réside dans nos choix. Et cela mène à une question : puisqu’on accélère notre développement, qu’est-ce que, au juste, nous voulons accélérer ?
Si on explique avec une analogie mathématique : imagine que tu aies un grand modèle de langage, puis que tu changes arbitrairement la valeur de l’un de ses poids pour un très grand nombre, par exemple 9 milliards. Le résultat le plus mauvais est que le modèle devient totalement inutilisable. Et le meilleur résultat pourrait être que seules les parties indépendantes de ce poids fonctionnent encore correctement. Autrement dit, dans le meilleur des cas, tu obtiens un modèle aux performances moindres ; dans le pire des cas, tu n’obtiens qu’une série de sorties sans signification.
Donc, je pense que la société humaine ressemble à un grand modèle de langage complexe. Si nous accélérons aveuglément une partie sans choisir, le résultat final pourrait être que nous perdons toute notre valeur. La vraie question est alors : comment accélérer de manière consciente ? Comme dans la théorie du “couloir étroit” (« narrow corridor ») proposée par Daron Acemoglu : même si les contextes sociaux et politiques diffèrent, nous devons réfléchir à la façon de pousser le progrès de manière sélective, guidée par un objectif clair.
Guillaume Verdon : Tout à l’heure, l’explication de l’entropie avec les gaz était vraiment intéressante. En fait, si les phénomènes physiques sont irréversibles, c’est fondamentalement à cause de la deuxième loi de la thermodynamique. En termes simples : lorsqu’un système libère de la chaleur, son état ne peut pas revenir à celui d’avant. Parce que, du point de vue des probabilités, il y a bien plus de chances que le système évolue dans le sens du temps que dans le sens inverse, et cet écart augmente exponentiellement à mesure que la chaleur se dissipe.
À certains égards, c’est comme laisser une « bosse » dans l’univers. Cette « bosse » peut être comparée à un choc parfaitement inélastique. Par exemple, si je frappe le sol avec une balle élastique, elle rebondit : c’est un choc élastique. Mais si je frappe le sol avec de la pâte à modeler, elle s’écrase, conserve cette forme : c’est un état inélastique, presque impossible à inverser.
En essence, chaque information se bat pour continuer à exister. Pour que chaque information continue d’exister, elle doit laisser dans l’univers davantage de traces indélébiles de sa propre existence, comme si on y faisait une « bosse » plus grande.
Ce principe permet aussi d’expliquer comment la vie et l’intelligence peuvent émerger d’une “soupe originelle” de matière. À mesure que le système devient de plus en plus complexe, il contient de plus en plus de bits d’information. Et chaque bit d’information peut nous dire quelque chose. L’essence de l’information est une réduction de l’entropie : l’entropie représente notre ignorance, et l’information est l’outil pour réduire cette ignorance.
Eddy Lazzarin : Je me demande ce qu’est exactement l’E/acc.
Guillaume Verdon : L’E/acc est fondamentalement une “prescription métaculturelle”. Ce n’est pas une culture en soi : elle nous dit ce que nous devrions accélérer. L’idée centrale de l’accélération, c’est la complexification de la matière, car cela nous permet de mieux prédire l’environnement. Grâce à cette complexification, nous pouvons améliorer notre capacité de prédiction auto-récursive et capturer davantage d’énergie libre. Cela est également lié à l’échelle de Kardashev : nous le faisons en dissipant la chaleur.
Note de 深潮 TechFlow : L’échelle de Kardashev est une méthode proposée en 1964 par le cosmologue soviétique Nikolaï Kardashev pour évaluer le niveau d’avancement technologique des civilisations, basée sur l’ordre de grandeur de l’énergie que la civilisation peut exploiter. Elle se divise en trois catégories : Type I (énergie planétaire), Type II (énergie de système stellaire, comme une sphère de Dyson) et Type III (énergie galactique). En 2018, l’humanité serait à environ le niveau 0,73.)
C’est précisément, à partir des premiers principes, pour cela que l’échelle de Kardashev est considérée comme l’indicateur ultime du niveau de développement d’une civilisation.
Eddy Lazzarin : Utiliser des métaphores de la physique et de l’entropie pour expliquer certains phénomènes, c’est en fait un outil pour décrire la réalité que nous expérimentons directement. Par exemple, notre capacité de production économique s’accélère, et le développement technologique s’accélère aussi : ces accélérations apportent beaucoup de conséquences, non ? C’est comme ça que je comprends “l’accélération”.
Guillaume Verdon : Fondamentalement, quel que soit la manière dont on définit les frontières d’un système, il devient de plus en plus capable de prédire le monde qui l’entoure. Grâce à cette capacité de prédiction, il peut obtenir davantage de ressources pour assurer sa survie et son expansion. Ce schéma s’applique aux entreprises, aux individus, aux pays, voire à la Terre entière.
Si nous prolongeons cette tendance, le résultat est : nous avons trouvé une façon de transformer l’énergie libre en capacité de prédiction — autrement dit l’IA. Cette capacité stimulera notre expansion et notre amélioration dans l’échelle de Kardashev.
Cela signifie que nous obtiendrons plus d’énergie, plus d’IA, plus de puissance de calcul et davantage d’autres ressources. Même si nous dissipons l’entropie (désordre) dans l’espace, nous créons aussi de l’ordre. En fait, nous obtenons une « néguentropie », c’est-à-dire l’opposé de l’entropie.
Parfois, les gens se demandent : puisque l’entropie augmente, pourquoi ne pas tout détruire simplement ? La réponse est : parce que faire cela arrêterait plutôt la production d’entropie. La vie est alors un état “plus optimal” : la vie est comme une flamme qui poursuit l’énergie ; elle devient de plus en plus intelligente en cherchant des sources d’énergie.
La tendance naturelle de l’évolution, c’est : nous quitterons le puits de gravité de la Terre et chercherons dans l’univers d’autres “poches” où il y a de l’énergie libre, puis utiliserons cette énergie pour nous auto-organiser en systèmes plus complexes et plus intelligents, jusqu’à étendre cela à chaque coin de l’univers.
C’est en quelque sorte l’objectif ultime de l’Effective Altruism (EA). Elle s’aligne dans une certaine mesure avec l’idée d’expansionnisme cosmique “à la Musk” : une vision cosmiste et expansionniste.
L’E/acc fournit un principe directeur fondamental. Son idée centrale est : quelle que soit la politique ou l’action que tu choisis dans ce monde, tant que cela nous aide à continuer à progresser dans l’échelle de Kardashev, c’est un objectif qui vaut la peine d’être poursuivi — et c’est le sens de notre orientation.
L’E/acc est une façon de penser métahéurstique : elle peut être utilisée pour concevoir des politiques, et aussi pour guider la vie d’un individu. Pour moi, cette façon de penser elle-même constitue une culture. Elle a une narration très “méta”, parce qu’elle est conçue pour s’appliquer à tout moment et à toutes conditions. C’est une culture très universelle et durable : autrement dit, une culture Lindy (Lindy culture) conçue avec réflexion.
Shaw Walter : Pour toi, ce qui est discuté ici a une signification plus profonde. C’est presque comme un système spirituel mathématiquement cohérent. Pour ceux qui n’ont pas d’alternative de croyance après « Dieu est mort », ce genre de système semble combler un vide spirituel et apporter une forme de réconfort et d’espoir. Mais en même temps, nous ne pouvons pas ignorer sa signification réelle : cela se passe maintenant, ici même. Je pense que c’est aussi ce qu’Eddy veut explorer.
Vitalik, je remarque que dans ton blog, tu as formulé des points de vue très perspicaces sur certains problèmes concrets du D/acc. Si on a l’occasion, on pourra approfondir ce sujet. Je pense qu’un jour, on devrait vous enfermer tous les deux dans une salle pour en débattre longuement, sur des sujets liés aux questions quantiques.
Vitalik : Qu’est-ce qui t’a inspiré ? Selon toi, E/acc et D/acc, c’est quoi respectivement ?
Vitalik Buterin : Pour moi, la signification du D/acc, c’est : son acronyme signifie “accélération défensive décentralisée”, mais il porte aussi les idées de “différenciation” et de “démocratisation”. Selon moi, l’idée centrale du D/acc est : l’accélération technologique est extrêmement importante pour l’humanité, et cela devrait être notre objectif de base.
Même si on remonte au XXe siècle : même si le progrès technologique a apporté de nombreux problèmes, il a aussi apporté d’innombrables bénéfices. Par exemple, regardons l’espérance de vie humaine : malgré les guerres et les troubles, l’espérance de vie moyenne en Allemagne en 1955 était plus élevée que celle de 1935. Cela montre que le progrès technologique a amélioré la qualité de vie dans tous les domaines.
Aujourd’hui, le monde est plus propre, plus beau, plus sain, et aussi plus intéressant. Il peut non seulement nourrir davantage de personnes, mais aussi rendre la vie plus riche et plus variée, ce qui est très positif pour l’humanité.
Cependant, je pense que nous devons reconnaître ceci : ces progrès ne sont pas accidentels ; ils sont le résultat d’intentions explicites de la part des humains. Par exemple, dans les années 1950, il y avait de fortes pollutions de l’air : des nuages de fumée partout. Les gens ont réalisé que c’était un problème et ont pris des mesures pour le résoudre. Aujourd’hui, au moins dans de nombreux endroits, le problème de la fumée est considérablement atténué. De manière similaire, nous avons aussi fait face au trou dans la couche d’ozone, et nous avons obtenu des progrès significatifs grâce à la coopération mondiale.
En plus de cela, j’aimerais ajouter un point : aujourd’hui, alors que la technologie et l’IA progressent rapidement, je vois deux principaux types de risques.
Un risque, c’est le risque multipolaire. Ce risque signifie que, à mesure que la technologie se généralise, de plus en plus de personnes pourraient l’utiliser pour faire des choses extrêmement dangereuses. Par exemple, on peut imaginer un scénario extrême : le développement de la technologie rend “les armes nucléaires accessibles à n’importe qui, aussi facilement qu’un achat en magasin”.
Et puis il y a une autre inquiétude : l’IA elle-même. Nous devons sérieusement considérer la possibilité que l’IA développe une forme d’agentivité autonome. Une fois que ses capacités deviennent suffisamment puissantes pour agir sans intervention humaine, nous ne pouvons pas savoir exactement quelles décisions elle prendra, et cette incertitude est inquiétante.
Il existe aussi un risque unipolaire. Je pense qu’une IA unique est une forme de menace potentielle. Pire encore : la combinaison de l’IA avec d’autres technologies modernes pourrait conduire à une société de dictature permanente à laquelle on ne peut pas échapper. Cette perspective me rend extrêmement mal à l’aise, et c’est une des raisons qui me préoccupent depuis longtemps.
Prenons un exemple : en Russie, on peut voir que la technologie apporte autant de progrès que de risques. D’un côté, les conditions de vie se sont améliorées. Mais de l’autre, la liberté sociale diminue. Si quelqu’un tente de protester, les caméras de surveillance enregistrent son comportement ; puis, potentiellement, quelqu’un viendra l’arrêter à l’improviste la nuit d’une semaine plus tard.
Le développement rapide de l’IA accélère cette tendance à la concentration du pouvoir. Donc, pour moi, ce que cherche vraiment le D/acc, c’est : esquisser une voie à suivre, continuer cette accélération et même l’accélérer davantage, tout en répondant réellement à ces deux types de risques.
Eddy Lazzarin : Donc tu veux dire que le D/acc se concentre davantage sur certains types de risques qui, dans le cadre E/acc, sont ignorés ou pas suffisamment mis en avant, c’est bien ça, n’est-ce pas ?
Vitalik Buterin : Oui. Je pense que le développement technologique s’accompagne bien de plusieurs risques, et ces risques se manifestent avec des niveaux d’importance différents selon les contextes et les modèles du monde. Par exemple, si la vitesse du développement technologique augmente ou diminue, les priorités des risques peuvent changer.
Mais je crois aussi qu’on peut prendre beaucoup de mesures pour traiter efficacement ces risques, quel que soit le type auquel ils appartiennent.
Guillaume Verdon : Je pense qu’en réalité Vitalik et moi sommes très préoccupés par le problème d’une concentration excessive du pouvoir induite par l’IA. Et c’est l’une des idées centrales du mouvement E/acc, surtout dans ses premières étapes : il promeut l’open source, afin de répartir le pouvoir de l’IA.
Nous craignons que le concept de sécurité de l’IA puisse être détourné. Il est trop séduisant : certaines institutions en quête de pouvoir pourraient s’en servir comme outil pour consolider leur contrôle sur l’IA, et tenter de convaincre le public que, pour votre sécurité, les personnes ordinaires ne devraient pas avoir le droit d’utiliser l’IA.
En réalité, si le fossé cognitif entre les individus et les institutions centralisées est énorme, alors ces dernières auront un contrôle total sur les premières. Elles peuvent construire des modèles complets de vos modes de pensée et, grâce à des moyens comme l’ingénierie de prompts, guider efficacement votre comportement.
Donc, nous voulons rendre la puissance de l’IA plus symétrique. Tout comme l’intention du deuxième amendement de la Constitution américaine est d’empêcher le gouvernement de monopoliser la violence, afin que les citoyens puissent le contrebalancer lorsqu’il dépasse ses limites, l’IA a aussi besoin de mécanismes similaires pour éviter une concentration excessive du pouvoir.
Nous devons nous assurer que chacun ait la capacité de posséder son propre modèle d’IA et son propre matériel, afin que la technologie se diffuse largement et que le pouvoir se décentralise.
Mais je pense qu’il n’est pas réaliste d’arrêter complètement la recherche et le développement de l’IA. L’IA est une technologie fondamentale : on peut même dire que c’est une “méta-technologie” — une technologie qui permet de faire avancer d’autres technologies. Elle nous donne une capacité de prédiction plus forte, peut s’appliquer à quasiment n’importe quelle tâche et améliore grandement l’efficacité. On peut dire que l’IA ne fait pas seulement avancer l’accélération elle-même, mais contribue aussi à accélérer encore davantage.
L’essence de cette accélération, c’est la complexification : les choses deviennent plus efficaces, la vie devient plus pratique. L’une des raisons pour lesquelles nous nous sentons heureux, c’est que notre survie et la continuité de l’information sont assurées. Cette “sensation de bonheur” peut être vue comme un estimateur biologique interne, pour mesurer si notre existence peut se poursuivre.
Dans cette optique, je pense que le cadre hédoniste utilitariste de l’Effective Altruism — “maximiser le bonheur” — n’est peut-être pas la meilleure perspective. Au contraire, je préfère une mesure objective du progrès, et c’est précisément le cœur du cadre E/acc. Il pose une question : d’un point de vue objectif, en tant que civilisation, est-ce qu’on progresse ? Est-ce qu’on réalise des bonds à grande échelle ?
Pour réaliser cette progression à grande échelle, nous devons pousser la complexification et améliorer en continu notre technologie. Cependant, comme Vitalik l’a dit : si la puissance de l’IA se concentre trop entre les mains de quelques personnes, cela nuit à la croissance globale. Et si cette technologie peut être largement décentralisée, les résultats seront bien meilleurs.
Sur ce point, je pense que nous sommes très alignés.
Shaw Walters : Je pense que votre discussion a touché des points communs très importants. Vous deux êtes clairement très pro-open source. Vitalik a déjà contribué pas mal de code open source sous licence MIT ; même si je sais que plus tard, tu as eu de nouvelles réflexions à propos de la licence GPL.
Maintenant, vous ne soutenez plus seulement des logiciels open source : vous commencez aussi à pousser du matériel open source. Même si ces deux domaines étaient auparavant relativement indépendants, on voit qu’ils fusionnent progressivement.
Du coup, je suis curieux : qu’est-ce que vous pensez des “poids ouverts” (open weights) et du “matériel open source” ? À ce niveau, est-ce qu’il y a des divergences entre E/acc et D/acc ? Et quelles sont vos vues sur la direction à prendre pour l’avenir ? Existe-t-il des points de vue différents ?
Guillaume Verdon : À mon avis, l’open source accélère le processus de recherche d’hyperparamètres. Il permet de coopérer d’une manière collective, en utilisant la sagesse du groupe, pour explorer l’espace de conception. C’est l’un des bénéfices de l’accélération : nous pouvons développer de meilleures technologies, une IA plus puissante, et même utiliser l’IA pour concevoir une IA plus avancée. Et toute cette chaîne voit sa vitesse s’accélérer.
Je pense que diffuser la connaissance revient essentiellement à diffuser le pouvoir, et diffuser la connaissance “comment fabriquer de l’intelligence” est particulièrement important. Nous ne voulons pas voir se produire une situation déjà discutée au sein du gouvernement américain : l’idée d’“essayer de remettre le génie dans la bouteille”. Même si ce n’est pas une interdiction directe de l’algèbre linéaire, cela reviendrait à restreindre la recherche mathématique liée à l’IA. Pour moi, c’est comme interdire aux gens d’apprendre la biologie : c’est un énorme pas en arrière.
La connaissance a déjà été diffusée : on ne peut plus revenir en arrière. Si les États-Unis essaient d’interdire la recherche liée à l’IA, d’autres pays, des organisations tierces, et même certaines régions avec des lois plus souples continueront à avancer sur cette technologie. Résultat : les écarts de capacités à l’échelle mondiale ne vont pas se réduire, mais au contraire s’aggraver, et les risques seront plus grands.
Donc, nous pensons que l’un des plus grands risques est l’“écart de capacités”. La seule manière de réduire ce risque, c’est de garantir que l’IA soit décentralisée.
À chaque fois que j’entends des récits sur le “catastrophisme de l’IA”, comme “l’IA est dangereuse, donc seuls nous avons la capacité de la gérer : vous devez donc nous faire confiance”, je suis très sceptique. Même si ces gens agissent de bonne foi, s’ils concentrent trop de pouvoir, ils finiront par être remplacés par ceux qui recherchent le pouvoir. Nous l’avons averti pendant des années. Et maintenant, ça commence réellement à se produire. Comme on l’a vu cette semaine : Dario (CEO d’Anthropic) est en train de subir des leçons politiques très concrètes.
Vitalik Buterin : Je classe généralement les risques possibles dans le développement technologique en deux catégories : les risques unipolaires et les risques multipolaires.
Le risque unipolaire est bien illustré par le cas d’Anthropic. Ils ont été “ciblés” notamment parce qu’ils refusaient de voir leurs technologies d’IA utilisées pour développer des armes entièrement automatiques ou pour une surveillance de masse des Américains. Cela montre que le gouvernement et l’armée pourraient réellement vouloir exploiter ces technologies pour mettre en place une surveillance à grande échelle. Le développement de capacités de surveillance aura des impacts profonds : cela peut renforcer les plus forts, réduire l’espace pour les voix multiples au sein de la société, et comprimer la liberté des gens ordinaires à explorer et à tenter des alternatives. Et avec l’amélioration de la technologie, ces capacités de surveillance seraient fortement amplifiées, devenant de plus en plus omniprésentes.
Dans le cadre du D/acc, nous soutenons des projets visant le développement de certaines “technologies défensives open source”. Ces technologies visent à nous aider à garantir la sécurité et la vie privée de chacun dans un monde où les capacités technologiques seront plus fortes. Par exemple, dans le domaine de la biologie, nous souhaitons renforcer la capacité mondiale à répondre aux pandémies. Je pense qu’il est tout à fait possible de trouver un équilibre : pouvoir contrôler rapidement et efficacement les épidémies comme en Chine, tout en réduisant au maximum les interventions dans la vie quotidienne comme en Suède. Cet équilibre peut être obtenu grâce à des moyens techniques, par exemple en combinant la filtration de l’air, la désinfection aux ultraviolets (UVC) et des technologies de détection des virus.
Une entreprise dans laquelle nous investissons développe un produit terminal entièrement open source capable de détecter passivement des particules virales dans l’air, par exemple le virus de la Covid. Cet appareil surveille la qualité de l’air (comme la concentration de dioxyde de carbone, l’indice de qualité de l’air, etc.), et combine des technologies de chiffrement local, d’anonymisation et de confidentialité différentielle pour assurer la confidentialité des données. Les données sont ensuite envoyées au serveur via un chiffrement homomorphe total. Le serveur peut analyser sans accéder directement aux données brutes, et générer le résultat final via un déchiffrement collectif.
Notre objectif est : améliorer la sécurité tout en protégeant la vie privée des utilisateurs, et répondre efficacement aux risques unipolaires et multipolaires. Je pense que cette collaboration mondiale est une clé pour construire un avenir meilleur.
En matière de matériel, je pense qu’on ne doit pas seulement pousser le développement de matériel open source, mais aussi développer un matériel vérifiable. Par exemple, idéalement, chaque caméra devrait pouvoir prouver au public à quoi elle sert concrètement. Nous pouvons le faire via la vérification par signatures, une analyse basée sur des grands modèles de langage et des mécanismes d’inspection publics, afin de garantir que ces appareils servent uniquement à des finalités légitimes, comme détecter les actes de violence et émettre une alerte, sans violer la vie privée.
Dans le monde futur que j’imagine, nous pourrions déployer énormément de caméras dans les rues pour prévenir les violences. Mais à condition que ces dispositifs soient entièrement transparents : le public devrait pouvoir vérifier leur fonction en tout temps, afin de s’assurer qu’ils servent uniquement à protéger la sécurité publique, et qu’ils ne sont pas détournés pour de la surveillance ou d’autres usages inappropriés.
Eddy Lazzarin : matériel open source et matériel vérifiable : ces concepts appartiennent-ils au domaine d’E/acc ou de D/acc ? Pouvez-vous citer un point de divergence clair ?
Guillaume Verdon : Je ne sais pas si nous avons déjà discuté en détail du matériel open source dans le passé, mais à mon avis l’un des plus grands risques actuels est l’écart entre entités centralisées et entités décentralisées — autrement dit, l’écart de capacités entre les individus et les gouvernements ou les grandes institutions.
Dans le modèle de puissance de calcul actuel, exécuter un modèle d’IA haute performance nécessite des ressources de calcul de l’ordre de centaines de kilowatts. Les particuliers ne peuvent pas atteindre une telle échelle. Cependant, les gens désirent posséder et contrôler leurs propres outils intelligents, ce qui explique pourquoi le phénomène “Openclaw + Mac mini” a suscité un énorme engouement : les gens veulent avoir leur propre assistant intelligent.
Pour réaliser une symétrie du pouvoir entre les individus et les institutions centralisées, la seule voie est d’atteindre une “densification de l’intelligence” (Densification of Intelligence). Nous devons développer du matériel d’IA plus efficace en énergie, afin que les individus puissent exécuter des modèles puissants via de simples appareils, et ainsi posséder leurs outils intelligents propres. C’est extrêmement important, surtout lorsque les modèles d’IA du futur commenceront à prendre en charge l’apprentissage en ligne : ils deviendront alors très “collants” (très difficiles à remplacer), comme si remplacer un assistant personnel devenait difficile.
Eddy Lazzarin : Mais n’est-ce pas déjà ce qu’on fait : réduire le coût du matériel informatique à un rythme exponentiel ? Pourquoi classer une idée en E/acc ou D/acc ? Quel message social cherche-t-on à transmettre avec ce genre de classification ?
Guillaume Verdon : Pour moi, c’est aussi l’une des missions centrales de notre entreprise Extropic. Nous cherchons à augmenter la quantité d’intelligence produite par watt consommé : cela augmentera considérablement la quantité totale d’intelligence que nous pouvons créer. De plus, ces progrès nous propulseront vers une échelle de Kardashev plus élevée grâce au paradoxe de Jevons (Note de 深潮 TechFlow : le paradoxe de Jevons signifie que lorsque l’efficacité d’utilisation d’une ressource augmente fortement, le coût d’utilisation de cette ressource diminue, ce qui fait que tout le monde la consomme davantage ; au final, la consommation totale ne diminue pas mais peut même augmenter). En termes simples : si nous pouvons transformer l’énergie en intelligence ou en autre valeur de manière plus efficace, alors notre demande d’énergie augmentera aussi, et cela poussera la civilisation à progresser et à se complexifier.
Donc je pense que c’est l’un des problèmes technologiques les plus importants du moment. Parce que cela concerne directement la décentralisation du pouvoir de l’IA. Le matériel open source n’est qu’une des nombreuses manières d’atteindre cet objectif. Mais à long terme, je pense que tout matériel basé sur l’architecture de Von Neumann (Note de 深潮 TechFlow : architecture de Von Neumann, le socle de l’informatique moderne, proposée en 1945 par le mathématicien John von Neumann. Son idée centrale est le stockage-programme : les instructions du programme et les données sont stockées dans un même mémoire, et exécutées de manière binaire et séquentielle), ou toute technologie numérique moderne finira, comme les outils d’une société primitive, par devenir obsolète.
Eddy Lazzarin : Mais le capitalisme n’a-t-il pas déjà, via les incitations du marché, investi des milliers de milliards chaque année dans ces domaines ? Les investissements dans des technologies de remplacement du matériel, les techniques de conducteurs, la production d’énergie, etc., ne sont-ils pas justement faits pour favoriser la diversité technologique ?
Guillaume Verdon : On a besoin de plus d’options diversifiées, et pas d’une dépendance excessive à une seule direction technologique. Qu’il s’agisse de politique, de culture ou de technologie, nous devons conserver la diversité dans l’espace des conceptions, au lieu de laisser une seule créature géante monopoliser toutes les ressources. Sinon, nous risquons de tomber dans le “paris sur l’espace d’hyperparamètres” : si on investit trop de ressources dans une direction technologique et que cette direction échoue, cela peut entraîner de graves revers pour le développement technologique, voire faire s’effondrer tout l’écosystème.
Shaw Walters : Je peux dire que nous avons déjà résolu ce problème ? Vos deux points de vue sont très alignés sur l’open source et la décentralisation, et ça me rend très optimiste — c’est justement ce dont je m’inquiète. Aujourd’hui, beaucoup de gens sont incertains pour l’avenir ; ils cessent de demander : « Pourquoi avons-nous besoin de ces technologies ? » Et ce qui rend vos positions séduisantes, c’est que vous dites tous les deux : « Tout ira bien, parce que ce progrès est déjà intégré dans les mécanismes. »
Guillaume Verdon : Je pense que, face à une forte incertitude concernant le développement technologique de l’avenir, l’anxiété est quelque chose de naturel. Cette anxiété n’est peut-être pas tout à fait un “brouillard de guerre”, mais elle nous empêche quand même de prédire clairement ce qui se passera dans les prochaines années. En réalité, cette sensation d’anxiété est un réflexe qui s’est formé au cours de l’évolution humaine : il nous aide à gérer les risques inconnus. Par exemple, quand je vois mon téléphone au bord d’une table, je le déplace instinctivement vers un endroit plus sûr pour éviter qu’il tombe. Cette réaction, c’est de l’anxiété qui se manifeste.
Cependant, nous devons comprendre que si nous essayons d’éliminer entièrement cette incertitude et ces risques, nous risquons de passer à côté du grand potentiel et des gains offerts par le développement technologique. Aujourd’hui, notre système de capital technique s’est déjà mis en équilibre dynamique avec les capacités existantes. Mais si une capacité technologique disruptive apparaît soudainement, cet équilibre sera brisé, et tout le système devra se réajuster et s’adapter.
Aujourd’hui, la technologie de l’IA nous permet de traiter davantage de complexité avec moins d’énergie. Cela signifie que nous pouvons accomplir des tâches plus difficiles, et dont les retours potentiels sont aussi plus grands. Même si pour l’instant nous ne pouvons pas encore réaliser rapidement un projet complexe via le “vibe coding”, nous avançons vers cet objectif. À l’avenir, nous pourrons exploiter des technologies plus efficientes pour répondre aux besoins d’une population plus large, tout en améliorant la qualité de vie humaine.
Bien sûr, ce processus peut passer par une période d’adaptation difficile. Mais dans un environnement en évolution rapide, le pire serait de perdre en flexibilité et de devenir rigide. Pour éviter cela, il faut mettre en place des stratégies de couverture : essayer plusieurs chemins possibles, explorer différentes politiques, parcours technologiques et algorithmes, et essayer des modèles open source et fermés, parce que nous ne pouvons pas prédire avec précision où l’avenir ira.
Donc, nous devons disperser les risques et essayer plusieurs possibilités. Finalement, certaines directions technologiques ou politiques réussiront et deviendront le mainstream, et nous suivrons ces choix.
Eddy Lazzarin : Si, entre E/acc et D/acc, il existe bel et bien des divergences, je comprends que cela pourrait être lié à la manière dont on dirige le progrès technologique. Vitalik, qu’en penses-tu ? Comment le progrès technologique doit-il être guidé ? Et quel degré de contrôle avons-nous réellement sur ce processus de guidage ?
Vitalik Buterin : À mon avis, l’objectif du D/acc n’est pas de s’opposer à la tendance du capitalisme technologique, mais plutôt d’essayer de guider activement cette tendance, pour l’orienter vers la diversité et la décentralisation. Par exemple, nous pouvons réfléchir à la manière de rendre le monde plus inclusif envers le pluralisme. Est-ce que nous pouvons améliorer de manière significative la sécurité biologique en quelques années ? Ou développer des systèmes d’exploitation quasi sans vulnérabilités pour augmenter fortement la cybersécurité ?
Par exemple aussi, l’idée de “code sans vulnérabilités” : pendant les vingt dernières années, ce concept était considéré comme une illusion naïve. Mais je pense qu’il deviendra réalité à une vitesse supérieure à ce que la plupart des gens attendent. Dans les projets Ethereum, nous avons déjà la capacité de prouver par des machines certaines théories mathématiques complètes.
Globalement, l’objectif du D/acc est d’assurer que le développement technologique rapide se produise en minimisant la destruction et la concentration du pouvoir. Pour atteindre cet objectif, il faut agir activement, plutôt que d’attendre passivement que de “bons résultats” arrivent automatiquement. Ce que je peux faire, c’est investir des ressources — comme des financements et l’ETH — et inciter davantage de personnes à participer à la construction en partageant mes points de vue.
En plus, je pense que des réformes politiques et juridiques peuvent aussi rendre le monde plus “friendly” pour le D/acc. Par exemple, nous pouvons accélérer la transition complète vers une cybersécurité de haute qualité en concevant des mécanismes d’incitation légale.
Guillaume Verdon : De mon point de vue, l’IA peut être vue comme un “démon de Maxwell” : elle réduit l’entropie du monde en consommant de l’énergie. Qu’il s’agisse de corriger des erreurs dans le code, ou de réduire d’autres formes de désordre (par exemple, prévenir la propagation de virus), l’IA peut jouer un rôle à ces niveaux. Donc peut-on s’accorder sur ce point : plus d’IA est bénéfique, et rend le monde plus sûr. En réalité, les capacités de l’IA peuvent augmenter considérablement notre sécurité.
Guillaume Verdon : Je pense que nous sommes maintenant entrés dans la partie la plus centrale de la discussion de ce soir. Tout le monde a été très patient. Il est temps d’aller droit au but. J’aimerais poser une question incisive : pourquoi soutiens-tu l’interdiction du développement des data centers ?
Vitalik Buterin : Très bien, je vais répondre. Tout d’abord, il faut admettre que le développement actuel de l’IA avance très vite, et je ne peux pas déterminer complètement sa vitesse exacte. Il y a quelques années, j’ai dit que mon intervalle de prédiction pour l’implémentation de l’AGI se situait entre 2028 et 2200. Aujourd’hui, je pense que cette fourchette a peut-être un peu diminué, mais elle reste très incertaine.
Un fait est que nous sommes confrontés à la possibilité que le développement rapide de l’IA amène des changements extrêmement rapides, et beaucoup de ces changements pourraient être destructeurs, voire irréversibles. Par exemple, le marché de l’emploi pourrait être bouleversé, entraînant beaucoup de gens au