Les sociétés démocratiques sont-elles prêtes pour un avenir dans lequel l’IA attribue, de manière algorithmique, des réserves limitées de respirateurs ou de lits d’hôpitaux pendant les pandémies ? Ou une dans laquelle l’IA alimente une course aux armements entre la création et la détection de la désinformation ? Ou influencer les décisions des tribunaux avec des mémoires d’amicus rédigés pour imiter les styles rhétorique et argumentatif des juges de la Cour suprême ?
De nombreuses années de recherche montrent que les nombreux sociétés démocratiques ont du mal à tenir des débats nuancés sur les nouvelles technologies. Ces discussions doivent être éclairées non seulement par les meilleures informations scientifiques disponibles, mais aussi par les nombreuses considérations éthiques, réglementaires et sociales liées à leur utilisation. Les dilemmes difficiles posés par l’intelligence artificielle émergent déjà à un rythme qui dépasse la capacité des démocraties modernes à résoudre collectivement ces problèmes.
Un large engagement du public, ou son absence, constitue un défi de longue date dans l’assimilation des technologies émergentes et est essentiel pour relever les défis qu’elles entraînent.
Prêt ou pas, conséquences inattendues
Trouver un équilibre entre les possibilités impressionnantes des technologies émergentes comme l’IA et l’obligation pour les sociétés de réfléchir à la fois aux résultats attendus et imprévus n’est pas un défi nouveau. Il y a près de 50 ans, des scientifiques et des décideurs politiques se sont réunis à Pacific Grove, en Californie, pour ce que l’on appelle souvent la Conférence d’Asilomar afin de décider de l’avenir de la recherche sur l’ADN recombinant, ou de la transplantation de gènes d’un organisme dans un autre. La participation et la participation du public à leurs délibérations étaient minimes.
Les sociétés sont gravement limitées dans leur capacité à anticiper et à atténuer les conséquences involontaires de technologies émergentes rapidement comme l’IA sans l’engagement de bonne foi d’un grand choix de parties prenantes du public et d’experts. Et une participation limitée présente de réels inconvénients. Si Asilomar avait sollicité une contribution aussi large il y a 50 ans, il est probable que les questions de coût et d’accès auraient partagé l’agenda avec la science et l’éthique du déploiement de la technologie. Si cela s’était produit, le manque d’abordabilité des récents traitements contre la drépanocytose établis sur CRISPR, par exemple, aurait pu être évité.
L’IA court un risque très réel de créer des angles morts similaires en ce qui concerne les conséquences intentionnelles et involontaires qui ne seront souvent pas évidentes pour les élites telles que les dirigeants technologiques et les décideurs politiques. Si les sociétés ne parviennent pas à poser « les bonnes questions, celles qui intéressent les gens », a annoncé Sheila Jasanoff, spécialiste des études scientifiques et technologiques, dans une interview en 2021, « alors peu importe ce que dit la science, vous ne produirez pas les bonnes réponses ou options. pour la société. »
Les débats éthiques devraient être au cœur des efforts visant à réglementer l’IA.
Même les experts en IA s’inquiètent du manque de préparation des sociétés à faire progresser la technologie de manière responsable. Nous étudions les aspects publics et politiques de la science émergente. En 2022, notre groupe de recherche de l’Université du Wisconsin-Madison a interrogé près de 2 200 chercheurs ayant publié sur le thème de l’IA. Neuf personnes sur 10 (90,3 %) prédisent que les applications de l’IA auront des conséquences imprévues, et trois sur quatre (75,9 %) ne pensent pas que la société soit préparée aux effets potentiels des applications de l’IA.
Qui a son mot à dire sur l’IA ?
Les dirigeants de l’industrie, les décideurs politiques et les universitaires ont mis du temps à s’adapter à l’apparition rapide de puissantes technologies d’IA. En 2017, des chercheurs et des universitaires se sont réunis à Pacific Grove pour une autre petite réunion réservée à des experts, cette fois pour définir les principes de la future recherche sur l’IA. Le sénateur Chuck Schumer prévoit d’organiser le premier d’une série de forums AI Insight le 13 septembre 2023, pour aider les décideurs politiques de Beltway à réfléchir aux risques liés à l’IA avec des leaders technologiques comme Mark Zuckerberg de Meta et Elon Musk de X.
en attendant, le public a soif de contribuer à façonner notre avenir collectif. Seul environ un quart des adultes américains interrogés dans notre enquête sur l’IA de 2020 étaient d’accord sur le fait que les scientifiques devraient pouvoir « mener leurs recherches sans consulter le public » (27,8 %). Les deux tiers (64,6 %) estiment que « le public devrait avoir son mot à dire sur la manière dont nous appliquons la recherche scientifique et la technologie dans la société ».
Le désir de participation du public va de pair avec un manque généralisé de confiance dans le gouvernement et l’industrie lorsqu’il s’agit de façonner le développement de l’IA. Dans une enquête nationale réalisée en 2020 par notre équipe, moins d’un Américain sur 10 a indiqué qu’il faisait « principalement » ou « beaucoup » confiance au Congrès (8,5 %) ou à Facebook (9,5 %) pour garder à l’esprit le meilleur intérêt de la société dans le développement de l’IA. .
Le biais algorithmique n’est qu’une des préoccupations liées à l’intelligence artificielle.
Une bonne dose de scepticisme ?
La profonde méfiance du public à l’égard des principaux acteurs de la réglementation et de l’industrie n’est pas totalement injustifiée. Les dirigeants de l’industrie ont eu du mal à dissocier leurs intérêts commerciaux des efforts visant à développer un système de réglementation efficace pour l’IA. Cela a conduit à un environnement politique fondamentalement désordonné.
Les sociétés technologiques qui aident les régulateurs à réfléchir au potentiel et à la complexité de technologies telles que l’IA ne posent pas toujours de problèmes, surtout si elles font preuve de transparence quant aux conflits d’intérêts potentiels. Toutefois, la contribution des leaders technologiques aux questions techniques sur l’utilisation possible de l’IA ne constitue qu’une petite pièce du puzzle réglementaire.
De manière bien plus urgente, les sociétés doivent déterminer pour quels types d’applications l’IA devrait être utilisée et comment. Les réponses à ces questions ne peuvent émerger que de débats publics impliquant un grand choix de parties prenantes sur les valeurs, l’éthique et l’équité. en attendant, le public s’inquiète de plus en plus de l’utilisation de l’IA.
L’IA ne va peut-être pas anéantir l’humanité de sitôt, mais elle risque de perturber de plus en plus la vie telle que nous la connaissons actuellement. Les sociétés disposent d’une fenêtre d’opportunité limitée pour trouver des moyens de s’engager dans des débats de bonne foi et de travailler en collaboration à une réglementation significative de l’IA afin de s’assurer que ces défis ne les submergent pas.
Les auteurs ne travaillent pas, ne consultent pas, ne détiennent pas d’actions ni ne reçoivent de financement d’une entreprise ou d’une organisation qui bénéficierait de ce post, et n’ont divulgué aucune affiliation pertinente au-delà de leur nomination universitaire.