Google : circulez, IA rien à voir
La multinationale vient de limoger l'une de ses têtes de gondole, la chercheuse en éthique de l'intelligence artificielle Timnit Gebru, critique virulente du manque de diversité de son entreprise, suite à un différend sur ses recherches. L'illustration de l'influence immense des Gafam sur l'indépendance des chercheurs.
Abonnez-vous pour pouvoir commenter !
si vous êtes déjà abonné Connectez-vous Connectez-vous
Commentaires préférés des abonnés
Dans cette jungle ou ne survivent que des grands fauves faut il s étonner que l'un des leur se fasse "bouffer" car il a mal interprété la règle du jeu ? Je cherche chez moi compréhension et compassion mais ... n'en trouve point. Au suivan(...)
Amusant de voir que le don't be evil n'est plus actuel.
La machinerie de deep learning permet enormement de choses deprimantes tant par l'inefficience technique, l'absolue impossibilité d'interpreter precisement la methode employée, le deploieme(...)
N'est-ce pas un peu comme Einstein ou Sakharov. On participe à la bombe et on dénonce la monstruosité après ?
Derniers commentaires
"femme racisée"
Ah bon ? Vous voulez dire qu'elle est noire ou vous accusez Google de racisme ?
N'allez pas chercher chez Google cher.e.s journalistes, pour trouver une destruction de la liberté académique (indépendance de travail et d'avis sur les thématiques de recherche menées par les chercheurs - équivalence de liberté de la presse). Une seule chercheuse médiatique en parle Julia Cagé.
Et c'est bien plus grave car c'est de la recherche publique, allez enquêter au CNRS, INSERM, INRAE, IRD, CIRAD, etc.
L'indépendance des chercheurs est attaquée depuis notamment depuis Sarko (suivi par Holland et dont les pressions s'intensifient massivement sous Macron) pour contrôler ce que, nous, chercheurs disons, ce sur quoi nous travaillons, etc.
La méthode se fait par
1/ la publication de thèmes à privilégier (sous la forme d'hashtag...oui comme pour des ados...bienveillance, recommandation, ...) --> la masse suit car elle a intégrée qu'il lui faudrait à vie jouer les bons élèves pour survivre. Imaginer chez les journalistes que les directeurs vous disent "non, mais l'équipe qui bosse sur la politique, vous allez tous désormais plutôt t’intéresser aux faits divers"
... et pour les récalcitrants
2/ acharnement administratif (on accumule des taches administratives sur les personnes récalcitrantes à changer leurs thèmes de recherche -pour des thèmes qui pour résumer consistent à soutenir les développements commerciaux des start-ups et des grosses boites- --> c'est la méthode la plus efficace,
3/ les instances dirigeantes coupent les crédits pour travailler à ceux qui persistent
4/ les comités scientifiques nommés par la direction (des clubs de copains) dénigrent ces chercheurs non-dociles, leurs disent dès que possible qu'ils/elles sont null.e.s, comptent pour rien, sont obsolètes, etc.
avec une augmentation massive depuis deux ans des burn-out, suicides, démission, etc.
Et quand on voit les commentaires comme Momodemayotte, on se dit que le soutien médiatique et de la société ne viendra pas ... et le poème de martin Niemöller nous donne la suite.
Breaking News : les entreprises privées n'ont pas un fonctionnement démocratique. On est bien avancés...
Discuter du modèle de propriété des entreprises, hors de question, ce n'est pas le sujet.
C'est dommage, on pourrait par la même occasion parler du modèle de propriété de l'appareil étatique.
Oups, j'ai failli mélanger économie et politique, j'ai oublié que ça n'avait rien à voir.
Ce message a été supprimé suite à la suppression du compte de son auteur
Sur la fin de l'article et l'indépendance des chercheurs de Google :
On ne peut pas s'offusquer d'avoir un.e chercheurs.se dans le privé avoir une liberté moindre qu'un.e chercheur.s académique.
Travaillant également au sein du département recherche d'une entreprise de tech, je ne suis pas entièrement libre de ma recherche ou de la manière dont elle est menée. C'est un peu le deal du secteur privé et s'en étonner est pour le moins surprenant :).
Pas que je me réjouisse béat de cela, j'aurai également apprécié la " liberté" de la recherche du secteur public ( relative car si on ne choisit pas les bonnes orientation de sa recherche, on ne trouve pas de financement). Mais les postes sont rares, difficiles et l'on est titularisé souvent tard ( autour de 33-34 ans) après un parcours souvent épuisant.
Les entreprises de la tech et leurs positions publiquement très ouverte à la critique ne doit pas faire oublier que ce sont au final des entreprises de droits privé où l'on vends sa force de travail et où l'on suspends certaines de ses liberté en échange d'un salaire. Ce lien de subordination est toujours présent.
Amusant de voir que le don't be evil n'est plus actuel.
La machinerie de deep learning permet enormement de choses deprimantes tant par l'inefficience technique, l'absolue impossibilité d'interpreter precisement la methode employée, le deploiement de modèles plutôt instables.
L'avenir, c'est un produit pas fini qui soit disant s'ameliore en permanence. Heureusement que les centrales nucleaires ne sont pas faites comme l'AI. Ca ferait bien longtemps que tout aurait pete
....
N'est-ce pas un peu comme Einstein ou Sakharov. On participe à la bombe et on dénonce la monstruosité après ?
pour info, A. Einstein n'a jamais participé au Projet Manhattan.
Oui. Il faudrait plutôt parler de l'exemple d'Oppenheimer (et sa réaction à l'explosion de la première bombe atomique: I have become Death, the Destroyer of the Wolrd).
En plus, c'est un rappeur de génie.
La lettre Einstein-Szilárd est une lettre renommée pour être à l'origine du Projet Manhattan qui permit aux États-Unis d'acquérir l'arme nucléaire.
Ce message a été supprimé suite à la suppression du compte de son auteur
Ce n'est pas possible de ne pas avoir un monstre. C'est en fait une propriété de ce genre de systèmes.
Ce qu'on appelle algorithme dans ce contexte d'AI est en fait mal formulé. En algorithmique classique, le programmeur formule explicitement comment les données vont être évaluées et transformées. dans le cas de l'AI, on définit une facon de combiner les données avec des evaluations qui sont des résultats d'une optimisation en aveugle. Bref, comme les données sont interpretees consiste à travailler devant un oracle : tu ne sais pas ce qui se passe vraiment à l'interieur.
Pour resumer : le programmeur abandonne l'analyse, la responsabilité, la complexité à celui qui va entrainer le systeme. Il ne faut donc pas s'etonner qu'en fait, nous inventons des pseudo-jobs de controlleurs de ce genre de systemes, des avocats specialsés, mais aussi des hackers. Dans les premiers essais automobiles autonomes, un passant avec un t-shirt sens interdit a fait faire à la voiture un freinage d'urgence.
Ethique? Ai? Cherchez l'erreur...
Dans cette jungle ou ne survivent que des grands fauves faut il s étonner que l'un des leur se fasse "bouffer" car il a mal interprété la règle du jeu ? Je cherche chez moi compréhension et compassion mais ... n'en trouve point. Au suivant...