eBook

Le problème de L’IA, et ses solutions

Nous nous trouvons à un moment crucial de l’histoire de la Terre. Tel un rocher perché sur le sommet d’une montagne, nous sommes dans une situation instable. Nous ne pouvons demeurer où nous sommes: L’IA arrive si on suppose que le progrès scientifique continue. D’ici peu, nous allons tomber d’un coté de la montagne ou de l’autre vers un endroit stable.

D’un de ces cotés, il y a l’extinction de l’espèce humaine. (« Votre espèce s’éteint? Vous restez sur cette case. ») Un autre état stable pourrait être un totalitarisme globale et stable qui arrête le progrès scientifique, toutefois cela semble improbable.

Qu’en est-il de l’intelligence artificielle? L’IA mène à l’explosion d’intelligence, et, parce que nous ne savons pas donner à une IA des buts bénévolants, par défaut une explosion d’intelligence va optimiser le monde de manière désastreuse par accident. Une explosion d’intelligence contrôlée, pourrait, cependant, optimiser le monde en faisant le bien. (Plus sur cette option dans le chapitre suivant.)

En ce qui me concerne, je pousse de toutes mes forces vers cette dernière vallée: une explosion d’intelligence contrôlée.

Pour un bref moment dans l’histoire nous somme capables de comprendre (peut-être vaguement) notre situation actuelle et influencer de quel coté de la montagne nous allons probablement atterrir. Que devrions-nous alors faire?

Le progrès intellectuel différencié

Ce dont nous avons besoin est le progrès intellectuel différencié

Le progrès intellectuel différencié consiste à prioritiser le progrès intellectuel qui réduit les risques par rapport au progrès intellectuel qui augmente les risques. Appliqué aux risques de l’IA en particulier, un plan de progrès intellectuel différencié recommanderait que notre progrès sur les problèmes scientifiques, philosophiques, et technologiques de la sûreté de l’IA distance notre progrès sur les problèmes de la capacité de l’IA de sorte à ce que nous développions des IA super-humaines sûres avant de développer des IA super-humaines (arbitraires). Notre première IA super-humaine doit être une IA super-humaine sûre, parce que nous n’aurons peut-être pas de seconde chance.

En simplifiant beaucoup, la recherche sur la sûreté de l’IA est dans une course contre la recherche sur les capacités de l’IA. Actuellement, la recherche sur les capacités de l’IA est en train de gagner, et en fait elle accélère. L’humanité fait plus d’efforts dans la recherche pour les capacités de l’IA que pour la recherche concernant la sûreté de l’IA.

Si la recherche sur les capacités de l’IA gagne la course, l’humanité perd. Si la recherche sur la sûreté de l’IA gagne la course, l’humanité gagne.

Beaucoup de gens savent de quoi ça a l’air de continuer la recherche sur les capacités de l’IA. C’est la plupart des travaux sur l’IA que vous lisez. Mais de quoi ça a l’air de continuer la recherche sur la sûreté de l’IA?

Cet article contient une longue liste de catégories de problèmes de la recherche sur la sûreté de l’IA, mais pour l’instant laissez moi vous donner quelques exemples. (Laissez tomber cette liste si vous voulez éviter du jargon technique qui fait peur.)

Quand un agent considère des modifications radicales de son mécanisme de décision, comment peut-il s’assurer qu’en faisant cela il va augmenter son utilité espérée? Les théories de la décision actuelles butent sur le théorème de Löb concernant cette problématique, donc une nouvelle théorie de la décision qui soit « consistante avec la réflectivité » est nécessaire.

La fonction d’utilité d’un agent peut faire référence à des états ou des entités de son ontologie. Mais comme le note Peter de Blanc, « Si l’agent peut améliorer ou remplacer son ontologie, alors il est face à une crise: la [fonction d’utilité] d’origine de l’agent peut ne pas être bien définie avec sa nouvelle ontologie. » Nous devons trouver comment être sûr qu’après avoir donné de bons buts à l’IA, que ces buts ne vont pas être « corrompus » quand l’IA modifie son ontologie.

Comment fabriquer une fonction d’utilité désirable à partir de ce que veulent les humains? Les méthodes actuelles d’acquisition de préférences en IA sont inadéquates: nous avons besoin de nouveaux algorithmes plus puissants et universels pour l’acquisition de préférences. Ou peut-être que nous devons laisser de vrais humains raisonner à propos de leurs préférences pendant très longtemps jusqu’à ce qu’ils atteignent une sorte « d’équilibre réflectif » pour leurs préférences. Cette dernière méthode peut impliquer des simulations de cerveaux entiers –mais comment pouvons nous créer de telles choses sans permettre la création d’IA dangereuses inspirées du cerveau et qui s’améliorent elles-mêmes.

Nous ne pourrons peut-être pas résoudre le problème de la théories des valeurs avant que l’IA soit crée. Peut-être que nous avons besoin à la place d’une théorie qui gère cette incertitude normative, par exemple quelque chose comme le modèle de Parlement proposé par Bostrom.

A part ces problèmes techniques de recherche, nous pourrions aussi considérer le progrès intellectuel différencié pour recommander le progrès sur une variété de problèmes stratégiques de recherche. Quelles technologies l’humanité devrait-elle financer ou au contraire ne pas financer? Que pouvons nous faire pour réduire le risque d’une course à l’IA? Encourager à grande échelle l’entraînement à la rationalité ou à la bénévolence va-t-il réduire le risque lié à l’IA? Quelles interventions devrions-nous prioritiser?

L’Action, Aujourd’hui

Donc une parti de la solution au problème du risque lié à l’IA est le progrès intellectuel différencié. Une autre partie de la solution est d’agir sur les recommandations des meilleurs recherches en stratégies que nous pouvons faire. Par exemple, les actions suivantes réduisent probablement le risque de l’IA:

Faire des dons à des organisation qui font le genre de recherches techniques et stratégiques dont nous avons discuté ci-dessus –des organisations comme le Machine Intelligence Research Institute et le Future of Humanity Institute.

Persuader les gens de prendre la sûreté de l’IA au sérieux, surtout les chercheurs en IA, les philanthropes, les jeunes qui sont intelligents et les gens qui ont de l’influence.

L’opportunité

Jusque là j’ai parlé du risque lié à l’IA, mais il est important de ne pas perdre non plus de vue l’opportunité de l’IA:

Nous n’associons pas d’habitude les traitements contre le cancer ou la stabilité économique avec l’intelligence artificielle, mais guérir le cancer est au fond un problème d’être suffisamment intelligent pour le guérir, et atteindre la stabilité économique est au fond un problème d’être suffisamment intelligent pour l’atteindre. Dans la mesure où nous avons des buts, nous avons des buts qui peuvent être plus accomplis en utilisant une intelligence suffisamment avancée.

Dans mon chapitre final, je vais essayer d’expliquer à quel point la situation peut être merveilleuse si nous décidons d’agir et de faire l’IA correctement.

Oui, nous devons être sensés concernant le fait que rien dans les lois de la physique n’empêche des issues très mauvaises. Mais nous devons aussi être sensés à propos du fait que rien dans les lois de la physique n’empêche des issues avec une joie et une harmonie plus grande que nos cerveaux de singes primitifs ne peuvent imaginer.