Les risques de l’intelligence artificielle

Des algorithmes de recommandation aux voitures à conduite autonome, l’IA change nos vies

L’impact de cette technologie s’amplifie, tout comme ses risques.

L’intelligence artificielle, qui englobe tout, des algorithmes de recommandation aux voitures à conduite autonome, avance à toute allure. Aujourd’hui, nous disposons de systèmes d' »IA étroite » qui effectuent des tâches isolées.

Ces systèmes présentent déjà des risques majeurs

  • L’érosion des processus démocratiques
  • des crashs financiers éclair
  • une course aux armements à partir d’armes autonomes

À l’avenir, de nombreux chercheurs s’intéressent à l' »intelligence artificielle » , une IA générale capable d’accomplir aussi bien, voire mieux, que les humains un large éventail de tâches cognitives.

Lorsque les systèmes d’IA seront capables de concevoir eux-mêmes des systèmes plus intelligents, nous pourrions assister à une « explosion de l’intelligence » , laissant très rapidement l’humanité derrière elle. Cela pourrait éradiquer la pauvreté ou la guerre ; cela pourrait aussi nous éradiquer.

Ce risque ne vient pas de la malveillance ou de la conscience potentielle de l’IA, mais de sa compétence.

En d’autres termes, pas de ce qu’elle ressent, mais de ce qu’elle fait.

Les humains pourraient, par exemple, perdre le contrôle d’un système très performant programmé pour faire quelque chose de destructeur, avec un impact dévastateur. Et même si une IA est programmée pour faire quelque chose de bénéfique, elle pourrait toujours développer une méthode destructrice pour atteindre cet objectif.

L’IA n’a pas besoin de conscience pour poursuivre ses objectifs, pas plus que les missiles à tête chercheuse de chaleur. De même, le danger ne vient pas des robots, en soi, mais de l’intelligence elle-même, qui n’a besoin de rien d’autre qu’une connexion internet pour nous faire un mal incalculable.

L’IA et ses applications connexes sont confrontées à trois problèmes

  • Le développement à la vitesse de la loi de Moore,
  • le développement entre les mains d’une élite technologique et économique,
  • et le développement sans le bénéfice d’un public informé ou engagé.

Le public est réduit à un collectif de consommateurs qui attendent la prochaine technologie. Quelle sera la notion de « progrès » qui prévaudra ?

Nous avons de nombreuses preuves de l’utilisation de l’IA pour générer des profits, sans tenir compte des implications pour les valeurs de longue date, pour renforcer le contrôle gouvernemental et même pour évaluer le « crédit social » des citoyens sans l’apport des citoyens eux-mêmes.

Comme les technologies qui l’ont précédée, l’IA est agnostique. Son déploiement repose entre les mains de la société. Mais en l’absence d’un public instruit en matière d’IA, la décision sur la meilleure façon de déployer l’IA reviendra à des intérêts particuliers.

  • Cela signifiera-t-il un déploiement équitable,
  • l’amélioration de l’injustice sociale
  • et l’IA dans le service public ?

Parce que la réponse à cette question est sociale plutôt que technologique, nous sommes pessimistes. La solution ? Nous devons développer un public familiarisé avec l’IA, ce qui implique une attention particulière dans le secteur de l’éducation et dans les médias grand public.

Nous devons assurer la diversité dans le développement des technologies de l’IA. Et jusqu’à ce que le public, ses représentants élus et leurs régimes juridiques et réglementaires puissent se mettre au diapason de ces évolutions rapides, nous devons faire preuve de prudence et surveiller le développement de l’IA.

texte genere par une ia

Les idées fausses à ce sujet sont encore très présentes dans le discours public

Toutefois, grâce aux experts qui s’expriment sur ces questions et au fait que l’apprentissage automatique a atteint certaines étapes bien plus tôt que prévu, un intérêt éclairé pour la sécurité de l’IA en tant que préoccupation majeure a fleuri ces dernières années.

La super-intelligence n’est pas nécessairement inévitable, mais elle n’est pas non plus impossible. Elle pourrait être au coin de la rue ; elle pourrait ne jamais arriver. Mais quoi qu’il en soit, la civilisation ne prospère que si nous parvenons à gagner la course entre la puissance croissante de la technologie et la sagesse avec laquelle nous la concevons et la gérons.

Avec l’IA, la meilleure façon de gagner cette course n’est pas d’entraver la première, mais d’accélérer la seconde en soutenant la recherche sur la sécurité de l’IA et la gouvernance des risques.

Comme il faudra peut-être des décennies pour mener à bien ces recherches, il est prudent de commencer dès maintenant. La recherche sur la sécurité de l’IA nous prépare mieux pour l’avenir en rendant l’IA préventivement bénéfique à la société et en réduisant ses risques.

Avec les progrès de l’IA, l’autonomie et l’agence humaine sont menacées

Ils notent que la prise de décision sur des aspects clés de la vie est cédée à des outils pilotés par des codes.

Les individus qui fonctionnent dans ce monde numérique sacrifient, à des degrés divers, leur indépendance, leur droit à la vie privée et leur pouvoir de choix. De nombreux experts qui s’inquiètent de cette situation affirment que les humains y accèdent afin de rester compétitifs, de participer socialement et professionnellement au monde, de se divertir et d’accomplir des tâches.

Ils disent que les gens cèdent une partie du contrôle de leur vie en raison des avantages perçus qu’ils obtiennent grâce aux outils numériques : efficacité, commodité et capacités supérieures de reconnaissance des formes, de stockage des données et de recherche.

La contrepartie de la commodité quasi-instantanée de la vie numérique est la perte de contexte et de contrôle sur ses processus. La dépendance aveugle des gens vis-à-vis des outils numériques s’accentue à mesure que les systèmes automatisés deviennent plus complexes et que la propriété de ces systèmes revient à l’élite.

D’ici 2030, nous pourrons peut-être entasser plus d’activités et d’interactions dans nos journées, mais nous ne pensons pas que cela rendra nos vies « meilleures »

Les problèmes auxquels nous appliquons l’apprentissage automatique et l’IA ne sont généralement pas ceux qui conduiront à une vie ‘meilleure’ pour la plupart des gens. C’est pourquoi la plupart des gens ne seront pas meilleurs grâce à l’IA.

Nous ne serons pas plus autonomes ; nous serons plus automatisés car nous suivons la ligne GPS métaphorique à travers les interactions quotidiennes.

  • Nous ne choisissons pas notre petit-déjeuner
  • nos séances d’entraînement matinales
  • ou notre itinéraire pour aller au travail

Un algorithme fera ces choix pour nous d’une manière qui maximise l’efficacité (étroitement définie) et probablement aussi la rentabilité du fournisseur de services.

Une meilleure vie, selon notre définition, est une vie dans laquelle nous nous sentons plus valorisés et plus heureux.

Étant donné que les plus gros investissements dans l’IA sont réalisés au nom d’efforts marketing conçus pour épuiser notre attention et nos soldes bancaires, nous ne pouvons qu’imaginer que cela conduise à des journées plus remplies mais à des vies moins épanouies.

Pour créer un avenir différent, il faudrait libérer ces technologies vers des objectifs allant au-delà de la maximisation des profits.

  • Imaginez une application de cartographie qui vous indique le plus bel itinéraire pour vous rendre au travail, et pas seulement le plus rapide.
  • Imaginez une application de communication qui facilite des connexions plus profondes avec les personnes que vous jugez les plus importantes.
  • Ces technologies doivent être davantage centrées sur les personnes. Elles devraient nous demander : « Qu’est-ce qui est important pour vous ? Comment aimeriez-vous passer votre temps ? » . Mais ce n’est pas le système que nous sommes en train de construire.

Toutes ces décisions ont été accaparées par la recherche peu imaginative du profit.