ChatGPT fête son premier anniversaire : le réussite du chatbot IA en dit autant sur les humains que sur la technologie

Follow
( 0 Followers )
X

Follow

E-mail : *
Le drame entourant le PDG d’OpenAI, Sam Altman, à gauche – rejoint ici sur scène par le PDG de Microsoft, Satya Nadella – a éclipsé le premier anniversaire de ChatGPT de l’entreprise. AP Photo/Barbara Ortutay

ChatGPT a démarré le 30 novembre 2022, inaugurant ce que grand nombre ont appelé l’année révolutionnaire de l’intelligence artificielle. Quelques jours après sa propre sortie, ChatGPT est devenu viral. Les captures d’écran de conversations ont effectué boule de neige sur les réseaux sociaux et l’utilisation de ChatGPT a grimpé en flèche à un point qui semble avoir surpris même son fabricant, OpenAI. En janvier, ChatGPT voyait 13 millions de visiteurs exclusifs chaque jour, établissant un record pour la base d’utilisateurs à la croissance la plus rapide d’une application grand public.

Pendant cette année extraordinaire, ChatGPT a révélé le pouvoir d’une bonne interface et les dangers du battage médiatique, et a semé les graines d’un nouvel assortiment de comportements humains. En qualité de scientifique qui étudie la technologie et le attitude humain en matière d’information, je trouve que l’influence de ChatGPT dans la société vient autant de la façon dont les gens le perçoivent et l’utilisent que de la technologie elle-même.

Les systèmes d’IA générative comme ChatGPT deviennent omniprésents. Depuis la sortie de ChatGPT, une certaine mention de l’IA semble obligatoire dans les présentations, conversations et articles. A ce jour, OpenAI déclare que 100 millions de personnes utilisent ChatGPT chaque semaine.

Outre les personnes qui interagissent avec ChatGPT à la maison, les employés de tous les niveaux jusqu’à la direction des sociétés utilisent le chatbot IA. Dans le secteur de la technologie, l’IA générative est présentée comme la plus grande plateforme depuis l’iPhone, lancé en 2007. Tous les principaux acteurs parient sur l’IA, et le financement à risque dans les startups d’IA est en plein essor.

En cours de route, ChatGPT a soulevé de nombreuses préoccupations, telles que ses implications enterme de désinformation, de fraude, de problèmes de propriété intellectuelle et de stigmatisation. Dans mon monde de l’enseignement supérieur, une partie importante des dialogues ont porté sur la tricherie, qui est devenue l’objet de mes propres recherches cette année.

Leçons de la première année de ChatGPT

Le réussite de ChatGPT témoigne principalement de la puissance d’une bonne interface. L’IA fait déjà partie d’innombrables produits du quotidien depuis plus d’une décennie, de Spotify et Netflix à Facebook et Google Maps. La première version de GPT, le modèle d’IA qui alimente ChatGPT, remonte à 2018. Et même les autres produits d’OpenAI, tels que DALL-E, n’ont pas fait autant de vagues que ChatGPT tout de suite après sa propre sortie. C’est l’interface basée sur le chat qui a déclenché l’année marquante de l’IA.

Il y a quelque chose de particulièrement séduisant dans le chat. Les humains sont dotés du langage et la conversation est le premier moyen par lequel les gens interagissent les uns avec les autres et déduisent l’intelligence. Une interface basée sur le chat est un mode d’interaction naturel et un moyen pour les gens de découvrir « l’intelligence » d’un système d’IA. Le réussite phénoménal de ChatGPT dévoile une fois de plus que les interfaces utilisateur favorisent l’adoption globale de la technologie, du Macintosh aux navigateurs Web en passant par l’iPhone. Le design fait la différence.

Le chat dans ChatGPT est tout également important que l’IA sous le capot. Nicolas Maeterlinck/Belga Mag/AFP via Getty Images

Dans le même temps, l’un des nombreux atouts de la technologie – générer un langage convaincant – la rend parfaitement adaptée à la production d’données fausses ou trompeuses. ChatGPT et d’autres systèmes d’IA générative permettent aux criminels et aux propagandistes de s’attaquer plus facilement aux vulnérabilités humaines. Le potentiel de la technologie à stimuler la fraude et la désinformation est l’une des principales raisons de réglementer l’IA.

Au milieu des véritables promesses et périls de l’IA générative, la technologie a aussi fourni une autre étude de cas sur le pouvoir du battage médiatique. Cette année, les articles n’ont pas manqué sur la façon dont l’IA va tous les aspects de la société et sur la façon dont la prolifération de la technologie est inévitable.

ChatGPT n’est pas la première technologie à être présentée comme « la prochaine grande nouveauté », mais elle est peut-être unique en ce sens qu’elle est simultanément présentée comme un risque existentiel. De nombreux titans de la technologie et même certains chercheurs en IA ont mis en garde contre le risque que des systèmes d’IA superintelligents émergent et anéantissent l’humanité, même si je pense que ces craintes sont tirées par les cheveux.

L’environnement médiatique favorise le battage médiatique, et le climat actuel du financement du capital-risque alimente en particulier le battage médiatique sur l’IA. Jouer sur les espoirs et les peurs des gens est une recette pour l’anxiété sans aucun des ingrédients indispensables à une prise de décision judicieuse.

Ce que l’avenir peut nous réserver

Les vannes de l’IA se sont ouvertes en 2023, mais l’année prochaine pourrait entraîner un ralentissement. La programmation de l’IA rencontrera certainement des limites techniques et des obstacles infrastructurels tels que la fabrication de puces et la compétence des serveurs. Simultanément, une réglementation de l’IA est susceptible d’être en route.

Ce ralentissement devrait permettre la formation de normes de attitude humain, à la fois en termes d’étiquette, comme lorsque et où l’utilisation de ChatGPT est socialement acceptable, et d’performance, comme lorsque et où ChatGPT est le plus utile.

ChatGPT et d’autres systèmes d’IA générative s’intégreront dans les flux de travail des utilisateurs, permettant aux salariés d’accomplir certaines tâches plus le plus rapidement possible et avec moins d’erreurs. De la même manière que les gens ont appris à rechercher des données sur Google, les humains devront apprendre de nouvelles pratiques pour travailler avec des outils d’IA générative.

Par contre les perspectives pour 2024 ne sont pas tout à fait roses. Cela s’annonce en tant qu’une année historique pour les élections à travers le monde entier, et le contenu généré par l’IA deviendra quasiment probablement utilisé pour influencer l’opinion publique et attiser les divisions. Meta a peut-être interdit l’utilisation de l’IA générative dans la publicité politique, mais cela n’empêchera certainement pas ChatGPT et des outils similaires d’être utilisés pour créer et diffuser du contenu faux ou trompeur.

La désinformation politique s’est répandue sur les réseaux sociaux en 2016 ainsi qu’en 2020, et il est pratiquement certain que l’IA générative deviendra utilisée pour poursuivre ces efforts en 2024. Même en dehors des réseaux sociaux, les conversations avec ChatGPT et des produits similaires peuvent être des sources de désinformation sur leur propre.

En conséquence, une autre leçon que tout le monde – utilisateurs de ChatGPT ou non – devra apprendre au cours de la deuxième année de cette technologie à réussite est d’être vigilant lorsqu’il s’agit de médias numériques de toutes sortes.

Tim Gorichanaz ne travaille, ne consulte, ne détient d’actions ni ne reçoit de financement d’une entreprise ou d’une organisation qui bénéficierait de ce post, et n’a divulgué aucune affiliation pertinente au-delà de sa propre nomination universitaire.

Voir aussi

Pourquoi n’y a-t-il aucun son dans l’espace ? Un astronome explique pourquoi dans l’espace personne ne peut vous entendre crier

Follow ( 0 Followers ) X Follow E-mail : * Follow Unfollow La matière dans …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *