74
Commentaires

Apocalypse Google

Dites adieu au moteur de recherche que vous utilisez quotidiennement : en 2024, les IA de Google vont vous résumer le Web, que vous le vouliez ou non. Une automutilation technique qui reflète le pouvoir absolu du monopole Google.

Commentaires préférés des abonnés

Approuvé 10 fois

Rassurez-vous votre « intelligence » n’est pas en cause…

En revanche, il est exact que les vocabulaires utilisés par les thuriféraires de l’IA n’arrangent rien.
Ils brouillent la compréhension jusqu’à la confusion totale, tant ils veulent croire à leur(...)

Les empires finissent souvent par s'effondrer sous leur propre orgueil.

Il y a d'autres moteurs de recherche que google.


J'utilise kagi qui est payant, certe, mais qui permet de retrouver ce qu'était le google qui a révolutionné la recherche web il y a 20 ans.

Assez simplement, ça prends les résultats des autres moteurs et(...)

Derniers commentaires

Ca ressemble à un suicide. Google décide de ne plus proposer l'outil qui a fait son succès.

Tiens pour une fois il n'y a personne pour nous dire: oui mais moi je fonctionne sous Linux, c'est formidable, je suis libre comme l'air, les oiseaux viennent se poser sur mes épaules, même si c'est pas facile tous les jours, je vis en marginal, tout ça...

Un article bien pessimiste mais qui n'est pas loin d'un futur a court terme plausible sur Google et l'IA. Microsoft a intégré Copilot a Bing, la version 4 de ChatGPT. Le résultat est souvent meilleur que son moteur, tout dépend de ce qu'on attend mais pas de quoi se relever la nuit pour l'utiliser 

Dans tous les cas, l'IA générative est aujourd'hui le cheval enfourché par la Com' du numérique après le Big  data, le cloud, l'IoT, l'improbable blockchain et le bitcoin, le metavers délirant de Meta.

Jusqu'au prochain "relais de croissance" dont l'industrie du numérique a un besoin impératif, comme une roue qui tient debout par effet gyroscopique.

C'est sûr que les IA, à l'heure actuelle, ne marchent pas aussi bien que certains veulent le faire croire. Au moins, je sais maintenant pourquoi Google me propose des réponses souvent débiles et en contradiction avec les sources citées.


Mais la colère de Thibault Prévost l'aveugle (comme d'habitude). Le problème, à force de croire que "l'IA ne marche pas", c'est qu'on n'anticipe pas pas le jour où elles finiront par marcher. Et que le plan de Google, en remplaçant son moteur de recherche par des IA, c'est probablement d'accumuler suffisamment de données, de retour utilisateurs, pour finir par faire marcher leur IA. Et si ça se produit (ce qui n'est aucunement garanti, mais ne peut non pas être exclu a priori), on sera mal. Très très mal.

Je refuse chaque fois le "nouveau" google et reste sur le modèle web. Sinon, une liste des alternatives aurait été la bienvenue.

Juste en passant, j'utilise Lilo dont personne n'a parlé...

A part ça pour ce qui est d'où en est la recherche en IA, je trouverais intéressant que Thibault nous donne son interprétation de ce qui est en train de se passer à openAI (entre autres) dont les principales têtes de la branche alignement ont démissionné.


Perso j'ai beau prendre avec beaucoup de réserves la communication alarmiste du secteur, quand on est au stade où ceux chargés d'inculquer un peu d'éthique aux outils IAs démissionnent en masse et pour certains abandonnent leurs bonus pour échapper au NDA, pour mieux mettre en garde sur les risques d'atteinte de l'AGI/ASI, j'ai un peu de mal à croire aux résumés de cette technologie l'assimilant à une simple histoire d'automates turcs.


Même sans exclure que ces "lanceurs d'alerte" soient largement contaminés par des croyances répandues dans un secteur surestimant sa propre importance et le niveau de ses technologies* à force de l'exagérer pour des raisons de com' (et ayant du mal à faire la part des choses à force d'être dans une communication trop quotidienne avec des LLMs - effet Eliza garanti),  ce à quoi jouent les géants du secteur m'apparait de plus en plus potentiellement bien plus dangereux que de simplement tromper le public sur "une technologie qui ne marche pas vraiment" en invisibilisant les petites mains de l'IA. 


* tout porte à douter de leurs prédictions d'atteinte très rapide d'un stade où l'IA pourrait échapper à tout contrôle humain, par contre sur un horizon de quelques décennies, je ne pense pas qu'on puisse trouver beaucoup d'arguments à opposer aux doomers

Même si Clicc Gauche est la principale (voire l'unique) raison pour laquelle je me suis réabonné à ASI, je trouve que depuis quelque temps cette rubrique atteint ses limites, dans le sens où elle a tendance à tomber dans le même piège que bien d'autres chroniques d'ASI, à savoir : collecter des éléments à charge pour ensuite jouer au procureur.


Concernant plus particulièrement ce que tout le monde nomme l'IA comme des perroquets, j'ai fait de nombreux tests sur des sujets très variés et ma conclusion est qu'à 90% ce que l'IA répond est de la bouillasse. Entre son incapacité à réaliser des associations et des déductions, sa tendance à produire des scripts qui ne fonctionnent pas et surtout à énoncer de manière péremptoire des faits qui sont faux, mon cœur balance.

Certains thuriféraires de l'IA, comme par exemple Laurent Alexandre (qui truste les plateaux et sur qui ASI serait bien avisé d'enquêter), rétorqueront probablement que j'ai mal posé mes questions et que tout réside dans l'art du prompt.

Mais entre nous, s'il faut rédiger un prompt de 3000 signes pour espérer une réponse exacte ou un script qui fonctionne, autant faire directement le boulot soi-même.


Mais le plus important est ailleurs : au lieu de jouer systématiquement les procureurs, certains contempteurs de l'IA seraient bien plus avisés de s'interroger sur le pourquoi de l'omniprésence et de l'apparente toute-puissance des apprentis-sorcier de la Silicon Valley.

Et plutôt que de tirer à vue sur tout ce qui vient de là-bas (qui n'est que le pendant de l'admiration béate et inconditionnelle), peut-être serait-il bon, dans un premier temps, d'expliquer concrètement et simplement sur quels principes reposent ces technologies, bref, comment ça marche. En commençant par abandonner le terme d'IA au profit de LLM. Ce qui rendrait certainement plus pertinente la critique et rendrait un fier service aux néophytes, en leur donnant des billes pour avoir le recul nécessaire face au discours des technophiles et des media.. Et leur éviter la crainte de rater le dernier train de la hype, aussi dénommée FOMO.


Quant au panurgisme des commentateurs, c'est surtout la paresse intellectuelle qui doit être pointée du doigt, à mon humble avis.

J'avoue que je n'ai pas tout compris à cet article dense qui me dépasse un (beaucoup). C'est sans doute à cause de ce handicap d'intelligence que je pratique activement, et depuis très longtemps, le "scepticisme par défaut" préconisé ici. 

Merci à Erwan de nous apporter un brin d'espoir. Tout n'est peut-être pas perdu. D'autres révolutions sont sans doute à venir, qui viendront détrôner les empires constitués par les précédentes, et qui elles-mêmes, probablement aussi, dériveront en "reconstitution d'empires dissous", et ainsi de suite. On n'en a pas fini avec les migraines.

Bah…

Il suffit juste de bien conserver en mémoire que les systèmes experts conversationnels se contentent de nous retourner l’opinion générale la plus probable.
Avec bien entendu les effets d’anamorphoses générés par ceux qui produisent l’opinion, autant les décideurs d’expositions médiatiques maximales, que les masses pesant par le volume, ainsi que les inévitables manipulateurs de ces mêmes opinions.

C’est-à-dire finalement quelque chose de très similaire à ce que nous avons connu depuis toujours, dans toutes les sociétés, de tous temps, au gré de toutes les idéologies voulues.

En fait, nous sommes en présence de l’élaboration d’une simulation d’opinion mondiale, dont les machines nous retournent une photo très fidèle.

On peut bien sûr s’en indigner, comme autrefois on s’indignait déjà.
Il n’empêche que cette photo hyperréaliste est riche d’enseignement sur l’état du monde.

Ici et comme toujours, les techniques n’y changent rien.

Chercher à les trafiquer pour les rendre plus vertueuses n'aurait aucun sens.

Merci pour l'astuce pour un affichage classique! Ça faisait deux semaine que je cherchait en vain la solution dans les paramètres! Merci merci!

dirait du macron ce systeme de gogole

L'excellent article sur le jardin emmuré disait déjà tout. Il s'agit là du prolongement de la même logique, les murs se resserrent.

Le lien vers bloodinthemachine est bloqué comme site à risque chez moi (probablement un faux positif mais on sait jamais).


Leur article est sinon trouvable via la wayback machine : https://web.archive.org/web/20240518043648/https://www.bloodinthemachine.com/p/for-tech-ceos-the-dystopia-is-the

Je ne sais pas si cela a un lien, mais depuis quelques jours, lorsque l'on choisi l'option actualité, l'option outil  est toujours écrite mais désactivée

Je n'ai jamais vu quelqu'un défendre autant le système Google Analytics qui fait tourner le web selon les régies pub comme actuellement. :-) 

Nos requêtes actuelles sont polluées par la pub. Et le taux de bullshit est certainement bien plus haut que 25% aujourd'hui. Les requètes Google diminuent considérablement, les gens préférant aller chercher des infos directement dans les barres de recherches de Tiktok, Youtube, Threads et Twitter. Un peu d'IA casserait cette tendance en donnant justement des indications sur ce qui est fiable ou non. 


Interrogez un LLM comme chatgpt et demandez-lui (mettez ChatGPT en mode vocal, c'est déjà disponible):

- Qu'est-ce qu'est une information ou un journal fiable?

- Qu'est ce qu'une fake News?

- Fais-moi l'historique de la presse au XXIème siècle.

- Explique moi le modèle de rémunération des sites webs aujourd'hui.

Fais-moi le script d'un podcast débattant de ces sujets.


Vous obtiendrez des information fiables, parfois tout aussi fiables qu'un article d'Arrêt Sur Images.

Tant que l'IA fait tourner les faits, je ne vois pas en quoi c'est dangereux. Si on demande à une IA si la terre est plate, il va contredire avec des faits.


Mainentenant, poser les mêmes questions dans une barre de recherche Google. Si vous vous écartez de Wikipedia, il est peu probable que vous ayez une informations complète, seulement des bribes par ci par là. Même ASI n'a pas une page dédiée répondant à la question 

"Qu'est-ce qu'est une information ou un journal fiable?" ou "Qu'est ce qu'une fake News?" s'il n'en a pas fait une émission ou un article didactique.


Un IA raisonnée et bien faite peut devenir un vrai Wikipedia (c'est probablement là-dessus que s'est entraîné les premiers LLM) 


J'expérimente la fonction résumé avec le navigateur Arc pour le moment, et bien sincèrement, lire un résumé bien construit me dissuade rarement d'aller lire l'article en entier si le lien est présent. Au contraire, je me retrouve à lire des articles de fond, de grands médias, que je n'aurais jamais lu ou pris le temps de lire après avoir lu un aperçu. Soyons honnêtes, nous passons plus de 50% de notre temps sur internet à lire des articles en diagonales sur la page de garde du Guardian, ou des brèves pas plus longues qu'un tweet. Et on passe à autre chose. Etre accroché par un résumé permet la rétention et lire l'article en entier "pour en savoir plus".


L'aspect un peu complotiste de la Silicon Valley est un peu exagérée. Certainement, il y a quelques dirigeants qui se prennent pour des dieux, qui on des visions du monde détraquées, sont en état de dissociation avec leur corps parce qu'ils sont sous kétamine 20h par jour. Sont'ils si puissant qu'on nous le dit? 


Il y a pour beaucoup d'entre nous cette volonté de vivre dans un monde de Science Fiction, et on s'aveugle un peu des conséquences négatives. On est souvent demandeurs (pas toujours d'ailleurs, regardons la niche qu'est la VR), et ce n'est pas limité à la Silicon Valley.


On a tous un smartphone en poche que l'on trouve à la fois formidable autant qu'on le déteste. Rien ne nous oblige à ne pas le laisser chez soi en journée. Les Gafams ne font répondre qu'à une demande de communication fluide et de support texte dématérialisé, une envie qui préexistait depuis le début du siècle.


Mais en réalité cet engouement pour l'ia est la preuve qu'ils n'avaient plus rien d'excitant à proposer ces dernières années. Google avait des IA dans ses cartons mais ne les sortaient pas car ils n'arrivaient pas l'intégrer dans leur business model régi par la pub. 


Une IA, ça coûte cher à l'utilisation et cela ne permet pas d'y mettre de la pub. Open AI a un business model sur abonnement sans pub. Donc des offres gratuites de base avec des limitations de recherche par jour, financées par des abonnements 'premiums'. 


Cette Google IO est assez étonnant car je n'ai jamais vu autant Google parler de B2B et d'offres d'abonnements; ce qui est contraire à la culture de Google jusqu'ici: gratuit pour le grand public et financé par la pub. Le B2B venait après.


Sergei Brin et Larry Page sont vieillissant et essaient de se faire oublier suite à leurs déconvenues sentimentales et de santé, ils ne dirigent plus Google au jour le jour, ont plus l'envie de faire le tour du monde en dirigeables que de contrôler les masses. Le grand complot mondial de la Silicon Valley est donc au mains de personnes qui s'en fichent aujourd'hui un peu de ça.


Je ne suis pas fan de Sam Altman et Murati, mais ils ont l'air d'avoir une certaine éthique, contrairement à d'autres. Peut-être qu'ils deviendront des futur Jimmy Wales plutôt que des Elon Musk. Sait-on jamais.

Le problème c'est qu'exactement comme pour la presse mieux vaut largement un outil dont on se méfie qu'un outil qu'on pense fiable. Le Monde quand il désinforme est 50 fois plus dangereux que France-Soir, pour la simple et bonne raison que personne de censé ne ferait confiance à ces tarés.


La présence même de pubs et de saloperies de parasites SEO fait que toute personne censée n'attache plus trop de confiance aux premiers résultats de Google.


L'IA générative par contre dispose de cultistes qui répètent partout qu'elle pourrait être objective (alors qu'elle a évidemment d'énormes biais hérités de ceux qui l'ont nourri voire volontairement établis par ceux qui la contrôlent, en plus des erreurs qu'elle peut faire) ce qui en fait un outil de désinformation d'autant plus dangereux que sa fréquence d'hallucination pourrait être diminuée (sachant qu'elle ne le sera probablement jamais complètement par ailleurs).


C'est peut être ce que je reprocherais à l'article de Thibaut, il semble dire que le problème serait la fréquence de mensonge des IAs, quand le vrai c'est qu'ils se glissent dans une masse de réponses généralement exactes et faites pour sonner objectives, diminuant la vigilance des utilisateurs.


(Bonus lien que je voulais mettre à saloperies de parasites SEO mais oublié.)


Merci aux services de désinformation des GAFAM pour ce commentaire en leur faveur.

On a tous un smartphone en poche


Non, pas moi. Et s'il n'en reste qu'un, je serai celui-là.



Je ne suis pas fan de Sam Altman et Murati, mais ils ont l'air d'avoir une certaine éthique


C'est dommage de terminer un post aussi intéressant par une si grosse faute de jugement...

J'aurais dû dire : comparativement aux autres. Et je ne savais pas encore que le boss de l'équipe "safety" avait démissionné

Pour Murati, je ne me prononcerai pas, elle me semble surtout une technicienne (très douée).

Mais Altman, il est à mettre dans le même sac que les autres, Mark Z, Elon, etc.

Sans même parler d'Anthropic qui n'est pas disponible en Europe parce que, semble-t-il, ils refusent de respecter le RGPD et le DMA. Ou Mistral qui viennent de conclure un deal avec Micro$oft.

Sur mon serveur, dans les raw access, je peux voir les bots OpenAI et Anthropic qui "scrapent" des pages sans demander la moindre autorisation...

A propos des scrappers de LLMs, normalement la plupart peuvent être bloqués par un bête robot.txt comme ceux des moteurs (et dans un avenir prochain ai.txt que cherche à leur imposer l'UE).


User-agent: GPTBot Disallow: / (bloque celui qui sert aux tests de chatGPT)  
User-agent: ChatGPT-User Disallow: /  (bloque celui qui sert à répondre aux requêtes d'utilisateur de chatGPT4)

User-agent:cohere-ai Disallow:/

User-agent:anthropic-ai Disallow: /  

User-agent:Claude-web Disallow:/ (même chose pour ceux d'Anthropic)

etc. 


Par contre ça se complique pour ceux de Google et Meta.


Personne ne semble savoir si bloquer FacebookBot (le seul de Meta officiellement consacré à renseigner l'IA) empèche un site d'être scrappé par Meta, pour les IAs non relatives à Fb comme les Llama (ils en ont plusieurs autres aux fonctionnalités indéterminées comme MetaInspector et facebookhit). Et par ailleurs refuser FacebookBot peut altérer le partage d'un site sur FB en l'empéchant de récupérer la miniature (ce qui semble indiquer que Meta est joyeusement en train de piller toutes les miniatures de partage de tous les sites pour renseigner la reconnaissance d'image de Facebook).


Pour Google celui de bard/gemini était Google-Extended mais il semblerait qu'il ne s'applique pas à la version de gemini directement incluse dans l de recherche (celle qui sert à générer les réponses aux questions souvent posées etc), ce qui ferait de complètement bloquer GoogleBot et GoogleBotNews la seule manière d'y échapper.

ps !? je ne sais pas pourquoi le forum a affiché mon message comme ça, il n'était même pas copié collé d'ailleurs !?

pps : toutes choses à vérifier, j'étais tombé sur une discussion là dessus je ne sais plus où il y a qques jours mais impossible de la retrouver (malgré l'IA de Google :).

A propos des scrappers de LLMs, normalement la plupart peuvent être bloqués par un bête robot.txt


oui oui, je sais cela. Mais justement, j'avais choisi de ne pas les bloquer pour les observer, en particulier à cause des pdf de mes tests sur ChatGPT, Mistral et LLama2 dont j'avais posté les liens ici et sur d'autres forums.

A l'évidence, ils les ont repérés et sont venus y jeter un œil. Apparemment l'IA est curieuse, et ce n'est pas son moindre défaut :)


D'un autre côté, j'ai toujours eu un gros doute sur le fait que la plupart des scrappers respectent le contenu du fichier robot.txt...

Oui c'est pour ça que j'avais souligné le normalement. Les compagnies s'exprimant sur le sujet disent généralement que les leurs le sont, mais...

"On a tous un smartphone en poche que l'on trouve à la fois formidable autant qu'on le déteste."


Je n'ai pas de smartphone en poche ni ailleurs.


Donc, je ne suis pas tous. Quel soulagement !

Effectivement, on ne se portera pas plus mal que les sites SEO disparaissent. Les premiers résultats de moteurs de recherche sont largement pollués et sans intérêt. 


Se pose la question quand même du futur, comment ses moteurs boostés aux LLM vont continuer à apprendre ? Quelles seront les sources de nouvelles données ? Qui voudra encore produire du contenu qui ne sert qu'à nourrir des machines oligopolistiques ? Et puis comment ces modèles vont se corriger alors qu'ils vont nécessairement apprendre en boucle d'eux-mêmes et de leurs congénères ? Puisque l'IA générative est en passe d'être intégrée absolument partout. 


Dans ce futur également, est-ce que l'on sera prêt à payer (des abonnements) pour des chatbots ? Je pense que Apple et Google ont un coup d'avance en intégrant ça dans le prix de vente des devices. 

D'un autre coté plus elle fait d'erreurs plus ça donne l'occasion à une IA de s'humaniser (petite auto-promo au passage), ce qui n'en fait pas forcement un bug plutôt qu'une feature.  

Même si votre colère a un côté rafraîchissant, je crains qu'elle ne finisse par nuire à votre propos.

Par ailleurs, avez-vous des suggestions alternatives à Google ?

Personnellement, j'utilise Startpage, qui permet d'anonymiser la recherche, mais s'appuie cependant sur les résultats fournis par Google, alors je ne suis évidemment pas à l'abri de ce que vous décrivez.

On est chanceux à asi, de vous lire. Mais on aimerait mieux ne pas avoir ce style de privilège. Et on sait que ce n'est pas juste en votant pour que cet article soit en accès libre, que cela élargira sa portée suffisamment.


Ce qu'on sait c'est que celui qui inventera l'appli détectant "les hallucinations" de l'IA ne concourra pas au concours Lépine..., pas besoin de pub publique.

Ce monde est complètement google !




J'apprécie chaque jour de plus en plus Matrix Ressurections.





Les empires finissent souvent par s'effondrer sous leur propre orgueil.

La qualité de recherche de Google (et de son plus gros concurrent Bing/Microsoft que j'utilise via Duckduckgo) se dégrade nettement avec les années, parce que même si ces géants ne visaient que l'intérêt général et la pertinence des résultas, de nombreux artifices (SEO) sont utilisés par des publicateurs de contenus (surtout poubelle) pour truster les premières places des résultats.  Tout ça pour nuancer la situation actuelle.


Merci pour l'article qui nous ramène à prendre en compte que les résultats des moteurs de recherche forgent notre vision du monde sans qu'on y pense.


Dans la même veine que le passage forcé au nouveau moteur Google avec IA, dans mon boulot nous sommes fortement incité à utiliser les outils IA de Microsoft, statistiques d'utilisation par division à l'appui. Implicitement, ne pas s'y conformer augmente le risque de faire partie d'une charette de licenciement. Même si on pense que c'est une cata environnementale.

Il y a d'autres moteurs de recherche que google.


J'utilise kagi qui est payant, certe, mais qui permet de retrouver ce qu'était le google qui a révolutionné la recherche web il y a 20 ans.

Assez simplement, ça prends les résultats des autres moteurs et ça supprime toute la merde ajoutée. + plein de personnalisation possible.

kagi, pour le moment c'est très bien, mais le modèle payant oblige à être authentifié, et donc la possibilité de surveiller très finement les utilisateurs est aisée. Et leur promesse "pas de log de recherche, on n'a pas besoin de ça", ça reste une promesse comme le "don't be evil" Des débuts de google. Un jour Kagi sera obligé de surveiller, ne serait-ce par obligation légale, ou simplement par merdification si leur modèle survit. Et ce jour là il faudra aller ailleurs.

Ce n'est pas la solution ultime, juste la meilleure que j'ai trouvé aujourd'hui si on accepte de payer.


Et pareil pour les réseaux sociaux, ça ne se résume pas à exTwitter.

C'est l'impression que me donne Daniel qui y est et ne semble pas vouloir quitter ce que c'est devenu depuis elon.

Après, ça lui permet de faire des billets : j'ai twitté, je me suis pris un shitstorm, j'ai réfléchi, j'écris une obsession. Rince and repeat.

Si Daniel y prend plaisir, tant mieux pour lui.

Si un jour il veux s'extirper de là, Loris pourra lui expliquer mastodon/fediverse.

DÉCOUVRIR NOS FORMULES D'ABONNEMENT SANS ENGAGEMENT

(Conditions générales d'utilisation et de vente)
Pourquoi s'abonner ?
  • Accès illimité à tous nos articles, chroniques et émissions
  • Téléchargement des émissions en MP3 ou MP4
  • Partage d'un contenu à ses proches gratuitement chaque semaine
  • Vote pour choisir les contenus en accès gratuit chaque jeudi
  • Sans engagement
Devenir
Asinaute

5 € / mois
ou 50 € / an

Je m'abonne
Asinaute
Généreux

10 € / mois
ou 100 € / an

Je m'abonne
Asinaute
en galère

2 € / mois
ou 22 € / an

Je m'abonne
Abonnement
« cadeau »


50 € / an

J'offre ASI

Professionnels et collectivités, retrouvez vos offres dédiées ici

Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.