Pour l'instant, Google a déclaré qu'il affine son service de recherche d'IA à chaque nouveau rapport d'hallucination (qui, selon mon fil Twitter, se transforme en inondation). Un porte-parole de Google a déclaré à The Verge que des erreurs se produisaient pour « des requêtes généralement très rares et ne sont pas représentatives des expériences de la plupart des gens ».
C'est une piètre excuse pour une entreprise qui se targue d'organiser l'information mondiale. Et les requêtes de recherche peu fréquentes devraient donner des résultats fiables, puisque la grande majorité des recherches Google sont constituées d’une longue traîne de requêtes peu courantes.
Il s'agit d'un revirement étonnant pour une entreprise qui était autrefois si prudente qu'elle a refusé de publier la technologie d'IA générative qu'elle avait construite et qui avait au moins deux ans d'avance sur ChatGPT d'OpenAI Inc. Il a depuis succombé à la course lancée par Microsoft Corp. et OpenAI, qui attisent les polémiques les unes après les autres.
La semaine dernière, OpenAI a publié une nouvelle version de ChatGPT délibérément programmée pour anticiper le lancement de l'IA de Google le lendemain. Mais dans toute cette précipitation, Sam Altman a bâclé le déploiement et s'est mis en conflit avec Scarlett Johansson.
Le slogan de Steve Jobs en 2011 « Ça marche, tout simplement » incarne une époque où la barre pour les produits technologiques était la fiabilité. Mais plus les entreprises technologiques démontrent à quel point l’IA générative ne fonctionne pas, plus il leur sera difficile de prouver son utilité aux entreprises clientes et aux consommateurs.
Même Elon Musk, sur le point de lever 6 milliards de dollars pour sa startup xAI, n'utilise pas d'outils d'IA générative dans ses propres entreprises SpaceX et Starlink parce qu'elles continuent de faire des erreurs. « Je lui poserai des questions sur le paradoxe de Fermi, sur la conception des moteurs-fusées, sur l'électrochimie », a-t-il déclaré lors de la conférence du Milken Institute au début du mois. « Et jusqu'à présent, l'IA a été terrible sur toutes ces questions. »
Si Google s’en tient à AI Overview et maintient la fonctionnalité en place, l’un des résultats sera évidemment davantage de désinformation. Une autre raison est que, de la même manière que nous nous sommes habitués à faire défiler les spams SEO et les publicités sponsorisées, nous nous acclimaterons également aux erreurs loufoques commises par son IA. On s'habituera à un service encore plus médiocre car il y a très peu d'autres options. (La part de marché mondiale de Google pour la recherche est tombée à 82 pour cent, contre 87 pour cent il y a environ dix ans.) Dans cette nouvelle ère, nous nous résignons à des logiciels médiocres autrefois présentés comme transformateurs pour le monde, qui nécessitent une vérification constante des faits.
Les hallucinations ne sont pas un problème nouveau, mais il semble que nous nous y habituions, à notre détriment. Lorsque des erreurs sont apparues dans la toute première démo de Bard par Google en février 2023, les actions d'Alphabet ont chuté de 7 %, effaçant 100 milliards de dollars de la valeur de l'entreprise. Vendredi, alors que de plus en plus de publications sociales sur ses dernières gaffes sont devenues virales, elles ont augmenté de près de 1 pour cent. Wall Street ne semble pas s'en soucier. Est-ce que Google ?
Nous découvrirons si et quand Pichai suspend sa nouvelle fonctionnalité d'IA pour continuer à bricoler, comme il l'a fait avec le générateur d'images Gemini en février. Ce serait encore une retraite humiliante, mais pour remettre la technologie sur la voie du « simple travail », il devrait simplement le faire.
- Google continue d’halluciner malgré les rapports.
- Les erreurs sont fréquentes pour des requêtes peu courantes.
- Cela remet en question l’utilité de l’IA générative pour les entreprises et les consommateurs.
- Malgré cela, Google semble s’en accommoder et ne pas prendre de mesures pour améliorer la fiabilité de son IA.