
Deux ans et demi après que ChatGPT a lancé une révolution technologique, le scientifique et écrivain Gary Marcus, toujours aussi sceptique vis-à-vis de l’intelligence artificielle (IA) générative, s’est donné pour mission de déconstruire les croyances de la Silicon Valley.
L’intellectuel est devenu une figure emblématique du secteur en 2023, lorsqu’il a participé aux côtés de Sam Altman, cofondateur et patron d’OpenAI (créateur de ChatGPT), à une audition au Sénat à Washington.
Les deux hommes ont exhorté les responsables politiques à prendre la technologie au sérieux et à envisager des régulations.
Beaucoup de choses ont changé depuis. Sam Altman a abandonné ses appels à la prudence et s’est associé à la société japonaise SoftBank et à des fonds du Moyen-Orient pour propulser son entreprise vers des valorisations astronomiques.
« Sam ne reçoit plus d’argent des pontes de la Silicon Valley », et sa recherche de fonds à l’étranger est un signe de « désespoir », a déclaré Gary Marcus à l’AFP en marge du Web Summit, conférence sur les technologies organisée cette semaine à Vancouver.
Ses critiques sont fondées sur une conviction fondamentale : les grands modèles de langage (LLM), moteurs de ChatGPT, Gemini (Google) ou Claude (Anthropic), ont beau fournir des contenus donnant l’impression d’avoir été produits par des humains, ils sont intrinsèquement défectueux et ne tiendront jamais les grandes promesses des géants de la tech.
– « Gaspillage de ressources » –
« Je suis sceptique à l’égard de l’IA telle qu’elle est pratiquée actuellement », explique-t-il. La technologie « pourrait avoir une valeur énorme, mais les LLM ne sont pas la voie à suivre. Et je pense que les entreprises impliquées n’ont pas les meilleures personnes au monde. »
Son scepticisme contraste avec l’état d’esprit qui régnait au Web Summit, où la plupart des conversations entre les 15.000 participants portaient sur le potentiel apparemment infini de l’IA générative.
Beaucoup pensent que la technologie est sur le point de parvenir à une superintelligence, à une IA « générale » (AGI) qui pourrait égaler, voire dépasser, les capacités cognitives humaines.
Cet optimisme a fait grimper la valorisation d’OpenAI à 300 milliards de dollars, niveau sans précédent pour une start-up.
Pourtant, malgré tout le battage médiatique, les avantages pratiques restent limités.
La technologie excelle principalement dans l’assistance au codage informatique pour les programmeurs et la génération de textes pour le travail de bureau.
Les images créées par l’IA, bien que souvent divertissantes, servent principalement d’images parodiques ou de « deepfakes », offrant peu d’avantages évidents à la société.
« L’une des conséquences de l’engouement pour les LLM est que toute autre approche susceptible d’être meilleure est écartée », souligne Gary Marcus, qui a longtemps enseigné à l’université de New York. Cette vision étroite « retarde la mise en place d’une IA capable de nous aider au-delà du simple codage » et « constitue un gaspillage de ressources ».
Lui préconise plutôt l’IA « neurosymbolique », qui consiste à reconstruire artificiellement la logique humaine, plutôt que d’entraîner des modèles prédictifs sur des ensembles de données toujours plus vastes.
– « Surveillance » –
Il rejette les craintes que l’IA générative remplace les employés de bureau, car « ils remplissent trop de tâches pour lesquelles il est important d’obtenir la bonne réponse ».
Car l’IA générative continue d’ »halluciner » régulièrement en produisant des réponses erronées ou abracadabrantes. Même ses plus fervents défenseurs reconnaissent que ce problème pourrait être impossible à éliminer.
Gary Marcus se souvient d’une conversation en 2023 avec le fondateur de LinkedIn, Reid Hoffman, poids lourd de la Silicon Valley: « Il m’a parié n’importe quelle somme d’argent que les hallucinations disparaîtraient en trois mois. Je lui ai proposé 100.000 dollars… et il n’a pas voulu prendre le pari ».
A l’avenir, il met en garde contre une conséquence possible plus sombre de l’expansion de l’IA générative. Selon lui, les entreprises comme OpenAI vont inévitablement chercher à tirer des revenus de leur actif le plus précieux: les données des utilisateurs.
Les investisseurs « voudront obtenir des rendements », et les groupes seront alors tentés de vendre « ces données privées » à des fins de « surveillance ».
Gary Marcus reconnaît que l’IA générative trouvera des applications utiles dans des domaines où les erreurs occasionnelles n’ont pas beaucoup d’importance. « Elles sont très utiles pour les suggestions automatiques sous stéroïdes: lignes de code, tester des idées, etc. »
« Mais personne ne gagnera beaucoup d’argent avec cet usage, parce que leur fonctionnement est coûteux et que tout le monde a le même produit. »
Source : Agence France-Presse

Crédito: Link de origem