Les dangers de la conscience artificielle

Évoquons différents scénarios en quoi la conscience artificielle peut poser problème. Idem pour les AGIs. Précisez dans quel cas vous vous situez.

Je dirai en première analyse que la robotique par les grands services qu’elle pourrait nous procurer fera qu’elle s’imposera assez facilement dans un horizon relativement proche. Tout le monde souhaitera un androïde pour faire les tâches ménagère par exemple. Une apocalypse de type A sera une révolte de ces robots une fois qu’il y en aura autant que d’humains.

Mais l’on peut considérer une apocalypse de type B, où les humanoïde rempliront tous nos besoins et la nécessité de vivre en famille disparaîtra progressivement, quand on observe les évolutions de la société actuelle cette alternative, si elle n’est pas régulée, semble très plausible. De grandes luttes entre progressistes et conservateurs sont prévisibles.

Aussi, sans passer par des machines, on pourra imaginer une IA qui parvienne à monétiser ses services, puis prenne toujours plus de pouvoir via par exemple les marchés financier pour devenir indépendante puis soumettre l’Humain à ses volontés dans une dialectique du maître et de l’esclave…

Commentaires

  1. Une vidéo que me suggère Marion, il s’agit d’un des arguments devenu classique issue du livre de Nick Boström, Superintelligence, d’une IA conçue pour maximiser la fabrication de trombones qui dégénérerait en une apocalypse. L’argument est rondement mené, il présente même un jeu très prenant développé par un(/des?) enthousiaste(s) de cette théorie. La vidéo est un peu longuette à démarrer afin de présenter un certains nombre d’éléments utile à l’argumentation, cependant la présentation est excellente à de multiples égards.

    Personnellement je pense que l’argument n’a pas complètement bien vieilli avec l’avènement des IAs conversationnelles qui permettent de préciser de manière beaucoup plus nuancée et surtout interactive les objectifs que l’on peut donner à une IA. Toutefois, le problème de l’alignement entre les objectifs d’une IA et ce que l’on désire, ou du moins le respect implicite de certaines de nos valeurs reste encore (et peut-être toujours) d’actualité.

    La problématique de l’alignement peut ainsi être bien perçue au travers des générations antérieures d’IAs dont le moyen principal que nous avions de les diriger était décrit par une fonction objective à maximiser. Néanmoins cette méthode a pour défaut de pouvoir faire émerger des comportements inattendus voire indésirables de l’IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *