« Valide » ou « absurde », la quête d’une superintelligence artificielle divise les experts

En France, Polytechnique accueille jusqu’à vendredi plus de 4 000 participants de 18 nationalités autour du thème « IA, sciences et société ».
Photo: Joel Saget Agence France-Presse En France, Polytechnique accueille jusqu’à vendredi plus de 4 000 participants de 18 nationalités autour du thème « IA, sciences et société ».

L’intelligence artificielle (IA) sera-t-elle capable d’égaler l’homme, voire de le dépasser ? D’abord cantonnée à la science-fiction, la question divisait les experts réunis jeudi lors d’une conférence scientifique en région parisienne, en amont du sommet de Paris sur l’IA.

Plusieurs pointures comme Sam Altman, patron d’OpenAI qui a popularisé l’IA générative avec ChatGPT, ou Dario Amodei, dirigeant de la start-up américaine Anthropic, pensent pouvoir parvenir à une intelligence artificielle générale (AGI) égalant l’humain dans les prochaines années.

« Ça ne fait aucun doute que ça arrivera à un moment ou à un autre », abonde Yann LeCun, directeur scientifique pour l’IA chez Meta, interrogé par l’Agence France-Presse en marge de la conférence.

Considéré comme l’un des pères de l’intelligence artificielle, M. LeCun reconnaît toutefois que « les techniques actuelles, utilisées dans les robots conversationnels et autres, ne sont pas suffisantes ». « Les gens qui disent qu’on va avoir des systèmes qui vont être aussi intelligents qu’un doctorant d’ici l’année prochaine se font des illusions », estime le chercheur.

Pour lui, « la quête de systèmes qui seraient capables d’apprendre de manière aussi efficace que les humains et les animaux » est néanmoins « tout à fait valide ».

Au contraire, selon Michael Jordan, professeur à l’université de Californie à Berkeley, cette recherche d’une superintelligence capable de « répondre à toutes les questions » est « absurde ».

Les grands modèles de langage, qui sous-tendent les robots d’IA conversationnelle comme ChatGPT, sont similaires à un « tas de petits experts » qui peuvent répondre à des demandes spécifiques, mais ce ne sont pas des « entités intelligentes », souligne ce spécialiste de l’apprentissage automatique et des statistiques, devant un amphithéâtre plein à craquer sur le campus de la prestigieuse école d’ingénieur Polytechnique.

« Nouveau domaine d’ingénierie »

Les modèles développés par les géants de la tech peuvent « prédire extrêmement bien » parce qu’ils ont accès à l’entièreté de nos recherches sur Internet, par exemple, mais l’IA ne peut pas « tout savoir » ou « donner de bons conseils » « parce qu’elle ne sait pas ce que je pense en ce moment dans le contexte de ce que je vais faire ensuite », poursuit-il.

Avec l’IA, on assiste avant tout à « l’émergence d’un nouveau domaine d’ingénierie » dont l’un des buts est de « résoudre des problèmes scientifiques », comme l’amélioration d’un réseau de transports, pour M. Jordan.

« Le développement de ce domaine incroyable est vraiment entravé par toutes les aspirations sur l’IA qui visent à construire un super robot pour prendre le contrôle ou vous aider dans toutes vos tâches quotidiennes », fustige-t-il, déplorant les « milliards et milliards » dépensés dans ce but.

Chez Meta, Yann LeCun travaille à la création de modèles capables de « raisonner de manière beaucoup plus puissante que ce que font les systèmes actuels et de planifier » mais aussi de « comprendre le monde physique », contrairement aux outils d’aujourd’hui qui compulsent des données pour répondre à des problèmes spécifiques.

Or, pour lui, « la compréhension du monde physique est beaucoup plus complexe que la compréhension et la production de langage » à laquelle nous avons pour le moment accès.

Quant aux risques d’une perte de contrôle des humains sur leur création qui mènerait à l’extinction de l’humanité, il s’agit de « science-fiction », répond Yann LeCun.

« C’est un énorme contresens », considère-t-il. « On est habitué à une seule forme d’intelligence, l’intelligence humaine, et donc on associe toutes les caractéristiques de la nature humaine avec l’intelligence. »

« Les intelligences de niveau humain ou supérieur dans certains domaines n’auront aucune volonté de faire autre chose que de remplir les tâches qu’on leur donne et qui seront sous notre contrôle », assure le spécialiste.

Avant le sommet diplomatique lundi et mardi, Polytechnique accueille jusqu’à vendredi plus de 4 000 participants de 18 nationalités autour du thème « IA, sciences et société ».

Le lieu n’a pas été choisi au hasard. À 25 km de la capitale, le bucolique plateau de Saclay, qui réunit l’université Paris-Saclay et l’Institut Polytechnique, est l’un des épicentres de la recherche en intelligence artificielle en France.

Le chercheur Yoshua Bengio alerte sur les risques de l’IA

Le chercheur Yoshua Bengio a mis en garde jeudi contre les retombées « néfastes » de cette technologie, alors que s’ouvre le volet scientifique du sommet sur l’IA à Paris.

S’il estime que certains risques sont déjà bien établis, comme la création de faux contenus en ligne, le lauréat 2018 du prix Turing affirme que « les preuves de l’existence de risques supplémentaires comme les attaques biologiques ou les cyberattaques apparaissent progressivement ».

À plus long terme, il s’inquiète d’une potentielle « perte de contrôle » des humains sur des IA animées de « leur propre volonté de vivre », d’autant que l’arrivée du robot conversationnel chinois DeepSeek a encore un peu plus « accéléré la course, ce qui n’est pas bon pour la sécurité. »

Pour réduire les risques, le professeur en informatique canadien appelle à une plus grande réglementation internationale et au développement de la recherche sur la sécurité de l’IA, auquel « une infime partie » des immenses investissements dans le secteur sont consacrés.

Mais « sans intervention gouvernementale, je ne vois pas comment on va s’en sortir », a-t-il reconnu, alors que, dès son arrivée à la Maison-Blanche, le président américain Donald Trump a annulé le décret sur la sécurité en matière d’IA pris par son prédécesseur.

« Avec l’arrivée de ChatGPT, j’ai senti l’urgence de réfléchir à la question de la sécurité », a expliqué cette figure respectée du secteur qui présentait les conclusions du premier rapport international sur la sécurité de l’IA au cours d’une conférence de presse à Paris, à l’École normale supérieure, qui forme chercheurs et enseignants.

« Ce qui me fait le plus peur, c’est la possibilité que l’humanité puisse disparaître d’ici dix ans. C’est terrifiant. Je ne comprends pas que plus de gens ne réalisent pas », s’est alarmé celui qui voit dans cette étude l’équivalent pour l’IA des rapports du GIEC sur le changement climatique.

Publié fin janvier, ce rapport pour la sécurité de l’IA est le fruit d’une collaboration internationale d’une centaine d’experts nommés par 30 pays, les Nations Unies, l’Union européenne et l’OCDE. Leurs travaux ont démarré à l’issue du sommet sur la sécurité de l’IA au Royaume-Uni en novembre 2023.

À voir en vidéo