Google a empoisonné la communauté scientifique, qui amplifie maintenant sa désinformation

Ғылым және технология

Cette vidéo débunke 4 articles scientifiques dangereusement trompeurs, tous avec un co-auteur de Google, qui dénigrent à tort les besoins urgents d'audits et investissements massifs dans la sécurité et l'éthique. De façon terrifiante, la communauté scientifique a validé scientifiquement et propagé massivement ce qui semble être une désinformation intentionnelle.
#LeFabuleuxChantier #Tournesol #Bayes #Science4All
Script + sources : docs.google.com/document/d/13...
English version: • DEPRECATED: new https:...
0:00 Introduction
Partie 1 La non-protection des informations sensibles
5:46 Le machine learning apprend les données personnelles
9:05 L'apprentissage fédéré
11:05 La désinformation sur la privacy de l’apprentissage fédéré
15:41 La communauté scientifique amplifie la désinformation
18:18 Mon travail de débunking scientifique
25:00 La désinformation sur la privacy des grands modèles d'apprentissage
Partie 2 La non-sécurité contre la désinformation
29:23 Se protéger avec des “nouveaux algorithmes” ?
34:35 La dangereuse hypothèse que tout le monde fait en machine learning
37:47 La robustesse “pratique” et de "production" (selon Google)
41:35 Notre débunking fait toujours moins de citations…
43:14 Généraliser les données, une hypothèse politiquement (et financièrement) motivée ?
Conclusion
47:38 L’éthique et la sécurité ont urgemment besoin de financements massifs
51:35 La recherche éthique : Tournesol
54:04 Aidez-nous à rendre la recherche plus sécurisée et éthique
Un énorme merci aux relecteurs de cette vidéo, dont la plupart sont des bénévoles de l'Association Tournesol ❤️🌻
Contribuez à Tournesol : tournesol.app/
Twitter : / le_science4all
Facebook : / science4allorg
La formule du savoir (mon 1er livre) :
laboutique.edpsciences.fr/pro...
Le fabuleux chantier (mon 2e livre, avec El Mahdi El Mhamdi) :
laboutique.edpsciences.fr/pro...
Turing à la plage (mon 3e livre, avec Rachid Guerraoui) :
www.dunod.com/sciences-techni...
SmartPoop (mon 4e livre, avec Tristan Le Magoarou, aka Risque Alpha) :
bit.ly/smartpoop-fr
Probablement? en audio : playlists.podmytube.com/UC0NCb...
Moi en podcast avec Mr Phi :
Version KZread : / @axiome7403
Version Audio : feeds.feedburner.com/Axiome
Sous-titres sur les autres vidéos : kzread.info_cs_p...

Пікірлер: 460

  • @le_science4all
    @le_science4all Жыл бұрын

    Il existe une version anglaise : kzread.info/dash/bejne/loKlmJmzYsW2d7Q.html

  • @labonnelambda58

    @labonnelambda58

    Жыл бұрын

    J'ai cliqué sur le lien juste par curiosité (même si je parle français). Puisque cette version est obsolete (tel indiqué dans le titre) et qu'il y a une nouvelle version, il faudrait mettre à jour le commentaire pour mettre le lien de la bonne version à la place.

  • @clementl3925

    @clementl3925

    Жыл бұрын

    Indeed you should link to the non deprecated version : kzread.info/dash/bejne/lIKavJKymLnJk9o.html

  • @vincentburi919
    @vincentburi919 Жыл бұрын

    Ta lucidité et ton intelligence avec ta franchise doit faire peur à beaucoup de monde. Merci à toi. Fait très attention à toi, l'humanité n'est pas juste et bienveillant! Bonne chance pour ce combat étique et juste.

  • @divmerte8036
    @divmerte8036 Жыл бұрын

    A mon avis tu est le seul en France qui communique sur google et ou l'ia et ses danger et les autres sujets ne gâchent rien , l'angle de traitement purement scientifique est un véritable bol d'air . Alors merci ton travail est en tout point d’intérêt publique !

  • @egonsangsoo6903

    @egonsangsoo6903

    Жыл бұрын

    Ya Paf le geek également

  • @jean-baptistelasselle4562

    @jean-baptistelasselle4562

    Жыл бұрын

    @@egonsangsoo6903 Looool, et il ya pas "Pif le Chien", aussi mdrrrrr

  • @jige1225

    @jige1225

    Жыл бұрын

    Redescendez sur terre : dans ce domaine, jamais le point de vue "purement scientifique" ne prévaudra vu les enjeux industriels, économiques et surtout militaires.

  • @divmerte8036

    @divmerte8036

    Жыл бұрын

    @@jige1225 lol à quel moment j'ai dit que j'avais ce genre d'espoir ? tu choppe des mots clé au hasard pour construire un commentaire ou quoi ? tu serait pas un bot par hasard ? parceque c'est pile le genre de comportement qu'on s'attend à voir chez eux XD

  • @tomessaicomplisse4022
    @tomessaicomplisse4022 Жыл бұрын

    Incroyable travail ! Je suis vraiment époustouflé par ta motivation et à quel point tu arrives à mettre celle-ci au service de l'humanité ! Dommage que tes vidéos, de par la complexité du sujet abordé (et aussi hum hum... en raison d'un certain algorithme...) ne touchent pas un large public ! Je vais tout de même contribuer à la propagation de celle-ci en la partageant.

  • @Daniel-js2pk
    @Daniel-js2pk Жыл бұрын

    Autre question: penses-tu que ce serait une bonne idée pour promouvoir les recherches sur la sécurités des algorithmes, de créer un journal universitaire open source sur ce sujet. Avec les affiliations d'universités où écoles prestigieuses de toi et tes collègues, ce type de journal même un peu marginal au début pourrait devenir utile.

  • @lagartija8507

    @lagartija8507

    Жыл бұрын

    Le problème est que les grands journaux sont plus à la recherche de sujets racolleurs que de science bien construite... et ça marche.

  • @vincentd8850

    @vincentd8850

    Жыл бұрын

    @@lagartija8507 il parlait d'un journal universitaire, pas France Soir hein ;-)

  • @GreyPunkWolf

    @GreyPunkWolf

    Жыл бұрын

    @@lagartija8507 CRÉER un journal, ça veut dire répondre à cette problématique, justement... Avant de critiquer, il faut lire correctement hein 😅

  • @ThomasKundera
    @ThomasKundera Жыл бұрын

    "La recherche en IA est un sport de combat" ;-) Ce qui m’épate est ta capacité à associer grande rigueur intellectuelle et professionnelle, avec une boussole éthique claire et sans compromis. Merci.

  • @DamienKoda

    @DamienKoda

    Жыл бұрын

    ce fut parfait si cette merveilleuse boussole ait été utilisé lorsqu'il traitait de la vaccination contre le covid.

  • @ThomasKundera

    @ThomasKundera

    Жыл бұрын

    @@DamienKoda : Il en a très largement parlé sur sa chaine. Il serait sympa de faire un debrief, pour voir ce qui a collé et ce qui n'a pas dans les projections, mais globalement, c'est un des premiers à avoir bien insisté sur ce que le caractère exponentiel d'une épidémie pouvait produire.

  • @colinpitrat8639
    @colinpitrat8639 Жыл бұрын

    "Oh, ben c'est pas si grave" David Goodenough, chercheur en Machine Learning, ancien développeur de jeux vidéos.

  • @jean-baptistelasselle4562

    @jean-baptistelasselle4562

    Жыл бұрын

    Chercheur, et développeur de jeux vidéos ? 🤣 Il ferait pas prof de yoga, développement personnel et retour de l'être aimé aussi?...😂🤣😂😂🤣🤣🤣

  • @castorhargneux
    @castorhargneux Жыл бұрын

    C'était une vidéo très intéressante. Cependant je dois mettre un bémol. Cette série de vidéos comprend beaucoup d'opinion (ça a souvent été le cas mais ici c'est plus le cas que jamais) et je n'ai rien contre ça mais il serait intéressant d'avoir un droit de réponse, un débat avec quelqu'un dont tu t'opposes à la thèse. En effet, ici on doit souvent "te croire sur parole" et il convient toujours d'être prudent avec ça. En plus, certains concepts dont tu parles sont malgré tout assez complexes, même pour moi qui travailles dans le machine learning (mais pas du tout dans les mêmes domaines et les mêmes échelles). Ça accentue un peu le fait qu'il faille te croire sur parole. C'est assez différent par exemple de quand tu critiquais la p-value il y a quelques années, où tu avais énormément de sources académiques à l'appuis. En tout cas, bonne continuation et vivement la prochaine vidéo !

  • @paulbarbera9433

    @paulbarbera9433

    Жыл бұрын

    Il met des sources chaque fois, renseigne-toi gros

  • @0dim100

    @0dim100

    Жыл бұрын

    ​@@paulbarbera9433 Son travail est tres serieux, peu de doute la dessus. Cependant Castor a raison sur ce coup... Il cite les sources c'est vrai, il faut faire attention notamment au fait que l'information ne demeure pas unilaterale, elle se regarde des deux cotes du decor pour en comprendre toute la consistance. Google est un systeme extremement complexe surement le plus complexe des systemes de referecement sur internet de nos jours, les progres scientifiques que Google a mis a la disposition du grand public sont tout autant riches qu'ils ne desinforment la masse du fait de la mauvaise pertinence des utilisateurs qui lisent et traitent une information, je pense cela dit qu'avec de l'attention personelle sur la recherche d'information, Google se revele un outil extremement puissant, qui met a disposition 'du plus grand nombre' de l'information GRATUITEMENT. Ainsi comme le dit bien l'addage si c'est gratuit, c'est toi le produit. La question est tres complexe et sujette a opinion malheuresement, encore une fois demande toi si les benefices apportes par Google a l'echelle humaine ne sont-ils pas 'souhaitable' ? Les points negatifs ne sont-ils finalement pas negligeable ? Et enfin penses tu que si Google arretait demain, cette industrie s'arreterai ? Bien pour conclure je dirai que Google n'est pas responsable du fait que l'IA devient proheminente et fera probablement son chemin avec l'humain jusqu'a l'exctinction de ce dernier, Google n'a de projet que des idees humaines, l'informatique nous apporte bien plus de choses que nous ne devrions theoriquement pas pouvoir faire. Les GAFAM et autres grosses puissances du net, ne font que realiser les projets qui entrent dans le cours des evenements d'une autre maniere (grace a des decisions humaines), ainsi l'IA reste une invention humaine, qui comme pour les voitures lorsqu'elles ont ete theorisees sont devenus rapidement un element du quotidient. Les inventions humaines se nourissent des evenements qui nous entourent, elles ont un gain et un cout differenet dans chqaue contexte, a toi d'en tirer le meilleur :) Desole je n'ai mis aucun accent le qwerty est rebuttant pour ca ! ( Je precise que je suis dans le domaine de l'informatique, ainsi mon opinion n'engage evidemment que moi et elle ne saurai etre exacte surtout dans le context de ce commentaire bourre de fautes d'orthographe et de frappes) ! Bien a vous deux & @Science4Allfrançais qui fait, cela dit un travail tres pertinent dans beaucoup de ces videos, je tiens a le souligner, un avis dissonant est le premier pas pour etre un bon scientifique ! (d'ailleurs je suis abonne hihi) PS : Merci pour la lecture je n;ai pas fait tres clair haha mais l'info merite d'etre desobscurcit selon moi ! ^^ PS2 : 'Les marchands de doute' -> excellent livre !

  • @paulbarbera9433

    @paulbarbera9433

    Жыл бұрын

    @@0dim100 Je te rejoins sur pas mal de points. Cependant, Castor dit que cette vidéo nous pousse à le croire sur parole. Non, il propose différentes sources qui le rejoignent sur ces points. Je dis simplement qu'il faut se renseigner plus loin que ses dires. Lire plus de données et non pas le croire sur parole.

  • @miyamotomasao3636

    @miyamotomasao3636

    Жыл бұрын

    Google c'est la CIA. Le but réel après la phase de séduction empreinte de liberté est maintenant on ne peut plus clair : la surveillance généralisée de tous à tout moment, la désinformation, et in fine la manipulation.

  • @samgaillard1695

    @samgaillard1695

    Жыл бұрын

    le droit de réponse existe toujours sur KZread en utilisant les commentaires et en créant une vidéo qui fournit des contre-arguments

  • @lolaa2200
    @lolaa2200 Жыл бұрын

    Je pense que tu a soulevé un problème important : les reviewers sont cherry picked c'est un fait. A mon sens tant que ce sera le cas on ne peut pas parler de peer review. Le symptôme de ça c'est la formation de fait de communautés de recherche étanches. En pratique on publie dans les conf/revue d'une communauté donnée, et cette communauté vas valider la conformité de ce qu'on cherche a publier par rapport a la vision commune de cette communauté. Le cas dont tu parle en est un très bon exemple, si la communauté considère que la dimension éthique n'est pas un problème alors on refusera de publier des travaux qui traite de cette problématique. Les reviewer sont tiré dans un panel de personne coopté par la communauté pour leur grande conformité avec la vision globale de la communauté. On a des des conférence entière remplis de papier qui enfoncent des portes ouvertes en ajoutant trois détailles pour justifier une pseudo "originalité". A coté un chercheur qui explore d'autres pistes (qui fait un travaille de chercheur en gros) vas avoir beaucoup de mal a publier.

  • @fofolofofo

    @fofolofofo

    Жыл бұрын

    Ce phénomène est-il inévitable ? J'ai tenté de faire publier des papiers novateurs transdisciplinaires, il y a plus d'une dizaine d'années. Un reviewer n'a pas compris le sujet, l'autre a clairement dit que ce n’était pas de sa compétence. Les gens jugent avec ce qu'ils connaissent. Il a fallu présenter notre théorie par domaine, altérant grandement l’intérêt transdisciplinaires (et là, la communauté a accepté de valider)...

  • @GreyPunkWolf

    @GreyPunkWolf

    Жыл бұрын

    @@fofolofofo C'est le gros problème de la recherche... Vous êtes censés être des scientifiques, pas des commerciaux qui doivent pitcher un projet à des investisseurs américains... Et pourtant, au vu des témoignages dans votre genre et ceux de mes proches qui sont/étaient dans le domaine, la comparaison est douloureusement réaliste. Force et courage, et respect.

  • @PomPiDoum
    @PomPiDoum Жыл бұрын

    Quel travail ! Bravo et merci. C'est vraiment important !

  • @segolener.3148
    @segolener.3148 Жыл бұрын

    Audacieux de faire ça sur KZread ! Travail hyper complet, bravo et bon courage, continue à promouvoir l'éthique👏👏

  • @loicra
    @loicra Жыл бұрын

    J'étais pas sûr de regarder une vidéo aussi longue mais finalement si, le sujet est super intéressant

  • @leovedrine9102
    @leovedrine9102 Жыл бұрын

    Merci beaucoup, très intéressant et compréhensible, même pour le néophyte que je suis!

  • @norbertdunord5871
    @norbertdunord5871 Жыл бұрын

    Un grand merci pour cet éclairage et cette sensibilisation aux dangers des algorithmes de recommandations. Et c'est noté pour le projet Tournesol !

  • @rwallabi5747
    @rwallabi5747 Жыл бұрын

    Félicitations pour ce travail. En tant qu'ingénieur en informatique et ex-enseignant en mathématiques, les sujets que tu invoques me touchent particulièrement. Je suis cependant encore un grand novice dans mon domaine et voir des personnes impliquées et travaillant activement sur ces sujets cruciaux dans l'avenir de l'humanité me rassure. Même si le message que tu évoques est globalement négatif, le simple fait que tu le mettes en lumière est à mes yeux très positif et rassurant, car identifier un problème est le premier pas vers sa résolution. Merci. PS : Je me suis abonné

  • @lowgn9251
    @lowgn9251 Жыл бұрын

    Excellente vidéo !! Un peu effrayante au final 😬 Les moyens investis dans la désinformation sont tels qu'il est difficile d'y faire face, surtout dans un milieu un peu hermétique au profane (il est plus facile d'expliquer pourquoi la cigarette tue que d'expliquer les dangers décrits dans cette vidéo) Et surtout continue !!!!

  • @L.Nahro0
    @L.Nahro0 Жыл бұрын

    Merci, vous êtes un véritable lanceur d'alerte

  • @jean-baptistewerner4554
    @jean-baptistewerner4554 Жыл бұрын

    Il paraît qu'il faut commenter pour le référencement, mais ça n'empêche pas de remercier au passage. J'ai découvert la chaîne par la série de vidéos sur la démocratie et la théorie des jeux, qui a profondément éclairé ma façon de recevoir l'information et le discours politique. Et depuis, je m'intéresse grâce à vous à ce sujet des IA, leur éthique, dont j'ignorais l'importance. Alors merci encore de m'aider à devenir un citoyen meilleur... et plus inquiet.

  • @etiennelemieux472
    @etiennelemieux472 Жыл бұрын

    C'est passionnant, pour une fois j'ai regretté que ça soit pas en live pour en discuter pendant ou après, tellement il y aurait de choses à en dire ou à demander.

  • @aymerichm8835

    @aymerichm8835

    Жыл бұрын

    Le script de la vidéo est disponible en description :) Évidemment c'est moins pratique qu'un livre, mais au moins ça permet de facilement retrouver tel ou tel détail via la fonction "Rechercher dans le document"

  • @kevinyaya
    @kevinyaya Жыл бұрын

    Cette vidéo devrait avoir des millions de vues.... Merci de nous informer de la sorte.

  • @onlineactivityvideo
    @onlineactivityvideo Жыл бұрын

    Bravo et bon courage. Se battre contre des drogués de la data est pas loin de la mission impossible mais vous êtes incroyablement droit et incorruptible. Cette vidéo explique bien des choses . Merci !

  • @mrjay42
    @mrjay42 Жыл бұрын

    Question: Pourquoi ne pas réorienter vos papiers pour les publier dans des conférences/journaux traitant de la sécurité? Du coup, vous auriez à faire à des relecteur.ice.s dont la qualification ET le focus seraient porté.e.s sur la sécurité et non sur le machine learning.

  • @karelknightmare6712

    @karelknightmare6712

    Жыл бұрын

    Le système de chasseur de primes / bounty hunter pourrait s'appliquer dans votre idée. Tout comme une entreprise propose des primes pour trouver des failles de sécurité dans leurs réseaux informatiques ; on pourrait imaginer les grands médias proposant des primes de véracité / fact checking. Les hackers seraient une grande aide pour débunker des réseaux de faux comptes, pour trouver des méthodes inédites de filtrer des éléments désinformants dans des vidéos.

  • @leoleon7537

    @leoleon7537

    Жыл бұрын

    J'imagine que le but n'est pas seulement de réussir à ce que la publi soit acceptée dans un journal X mais qu'elle ait un impact et de la visibilité, étant donné les enjeux et l'engagement de Lê et de ses pairs. D'où l'idée de viser les conférences a plus d'impact dans le domaine. Mais votre proposition est tout de même défendable car des fois il vaut mieux attaquer les obstacles par le flanc.

  • @Benoit-Pierre

    @Benoit-Pierre

    Жыл бұрын

    @@karelknightmare6712 je sais plus sur quelle chaîne KZread j avais vu une interview d une américaine qui fait de la recherche d erreur de méthode dans les publications de sa spécialité. elle n analyse pas le contenu. que la méthode. et elle se limite à sa spécialité, un truc de pointe en biologie. et elle remonte les anomalies aux organismes qui font la publication. moins de la moitié de ses remontées sont écoutées. Et les retraits d articles sont fait plus d'un an après la remontée, quand l article a déjà été diffusé en masse, et que son auteur a pu utiliser les bénéfices liés aux points de publication.

  • @TheKhyel
    @TheKhyel Жыл бұрын

    J’ai peur de l’avenir,mais j’ai aussi de l’espoir grace a toi :) Merci pour l’information et pour l’action !

  • @damstazbxl
    @damstazbxl Жыл бұрын

    « si on valorise vraiment la sécurité des milliards d’humains sur la planète il faut urgemment sacrifier la performance » doctrine qu’il serait bon d’appliquer dans tellement d’autres domaines: la gestion de notre écosystème et de nos resources en premier lieu… Merci à toi pour ton travail 🙏🏼

  • @jarran29
    @jarran29 Жыл бұрын

    Même si le propos semble sensé et raisonnable, c'est compliqué de remettre en cause le système scientifique ainsi... Car au final, cette vidéo déclenche des émotions, et on ne juge pas sur cette base. Et comme le sujet est ultra-technique, on ne peut pas juger du fond et on doit faire faire confiance... Je suis donc tiraillé entre ma misanthropie, ma colère et ma prudence... :/

  • @qzqaze9642

    @qzqaze9642

    Жыл бұрын

    Le monde s'en fout complètement de la vie privée, cela n'a aucune importance la vie privée. Au vu de la médiocrité du monde et des informations qu'ils laissent, Sans confiance, on ne fait rien dans la vie, dixit Bernard Chazelle (voir cours collège de France) Comprendre est plus important que le Savoir. À l'image de l'épitaphe de la tombe de Boltzmann, "nous devrons savoir et nous saurons" sur laquelle Bernard Chazelle rajoute "Et, nous ne saurons pas pourquoi." Combien d'ingénieurs chez Google ont des résultats espérés sans comprendre le pourquoi. Je me trompe peut-être Lê, mais tu me donnes l'impression de débarquer sur un nouveau continent, Benjamin Bayard en a déjà parlé... Il y a une éternité... Google vend des yeux... Un regard sur vous... PRIVACY, BEING APPART FROM COMPAGNY OR OBSERVATION... YES WHAT KIND OF PRIVACY.............."TOURNESOL" NO................................ AND NEVER.........................NO Privacy Trop d'informations ont déjà été cartographiées sur l'utilisateur. Je me trompe peut-être, mais Protégé les sociétés humaines contre les fléaux de la désinformation, du harcèlement et de la haine. Une belle utopie. À moins que les sentiments et les émotions qui font de nous des êtres humains soient remplacés par une puce... Prédiction sur ton prochain livre : une bière suisse que la couverture contiendra le mot Privacy... Ton premier livre aurait du être "La Formule du comprendre" non du savoir... Lê, t'a besoin de prendre de la bouteille... Ou une bière... L'arbre de La Science est jonché de racines mortes, qui que tu le veuilles ou non, font partie de l'histoire de l'humanité. Comme... Mea-culpa de leur quête existentiel...

  • @yannickwindels2573
    @yannickwindels2573 Жыл бұрын

    Merci beaucoup pour ce travail (énorme) et pour sa diffusion. Il faudrait vous adjoindre un vulgarisateur (c'est un peu costaud pour moi par exemple mais je me suis accroché vu l'importance du sujet) pour multiplier le nombre de personnes informées de cette dangereuse dérive.

  • @aymerichm8835

    @aymerichm8835

    Жыл бұрын

    Oui ce serait vraiment bien d'en sortir des versions courtes synthétiques par exemple, ce serait plus facile à partager auprès de gens qui ne connaissent pas la chaîne et/ou n'ont pas le temps et/ou la motivation nécessaires...

  • @pierrestempin100
    @pierrestempin100 Жыл бұрын

    Ne faudrait-il pas aussi réduire l'importance des algos de recommandation par la législation en obligeant les plateformes qui en utilisent à pouvoir laisser à l'utilisateur la possibilité de désactiver ou réactiver les recommandations à tout moment, et même rendre les recommandations désactivées par défaut ? (Un peu comme les cookies qu'on peut activer ou non depuis le RPGD)

  • @ordissime
    @ordissime Жыл бұрын

    Excellente vidéo comme toujours, ce serai vraiment cool que Lê fasse la promotion de Tournesol sur des médias grands publiques mais pour ça c'est à nous de faire du lobbying.

  • @elimera23
    @elimera23 Жыл бұрын

    Je mets un commentaire pour le référencement. Je tenais aussi à souhaiter à tes travaux une reconnaissance digne de leur importance. Ça ne doit pas être facile tous les jours

  • @pierrotA
    @pierrotA Жыл бұрын

    Merci pour cette video tres interessante et pour votre travail en general. J'ai pris la mauvaise habitude (comme beaucoups je pense) de commenter majoritairement pour debattre ou evoquer un desaccord. Cette fois-ci, je dirais juste: *merci et bravo.*

  • @perpetualmotionsb
    @perpetualmotionsb Жыл бұрын

    C'est passionnant, merci pour ton travail d'une très grande qualité

  • @FouadB-hs1ho
    @FouadB-hs1ho10 ай бұрын

    Au sujet de l'article "Learning product rankings from fake users", moins d'un an après la sortie de cette vidéo, le nom de citations a presque doublé (passant de 14 à 26, ça fait +12 en 10 mois). Cela dit, il y a de l'espoir puisque l'excellent article "Collaborative learning in the jungle" en est à 22 citations (soit + 14 !). Continuez votre formidable travail !

  • @Dheinamar
    @Dheinamar Жыл бұрын

    Mais comment est-il possible que ces employés de Google peuvent participer à ces travaux? Ne devraient-ils pas déclarer le conflit d’intérêts?

  • @greenLimeila

    @greenLimeila

    3 ай бұрын

    Déclarer un conflit d'intérêt n'empêche pas de publier

  • @flaviocortes1821
    @flaviocortes1821 Жыл бұрын

    Merci pour cet épisode. Je me permets d'ajouter, concernant les articles, qu'il me semble difficile pour les citoyens n'ayant pas à faire à ceux-ci de ne pas se focaluser sur le titre et la conclusion, mais bien à l'analyse. Comme cela paraît difficile, je propose le message qu'une "grande découverte demande de grandes preuves". Quant à ces fameuses preuves, les articles, je pense qu'il faudrait que tout un chacun tape initialement sur un navigateur "pyramide preuve scientifique" afin de donner une idée aux citoyens n'ayant pas à faire avec l'épidémiologie, de la notion que "l'on doit avoir plus confiance en certaines publications (source d'information) qu'en d'autres." Peut-être pourriez-vous faire une vidéo sur le sujet?

  • @Anto57Orton

    @Anto57Orton

    Жыл бұрын

    Justement non. Enfin je veux dire il faut douter de toutes les informations et les analyser. Surtout si la source est médiatisé ou si elle est encensé par l'état

  • @Mangayoh
    @Mangayoh Жыл бұрын

    Merci pour tout ce que tu fais !

  • @FlorianDufour
    @FlorianDufour Жыл бұрын

    Bravo pour ton travail ! Je suis ingénieur en machine learning (j'espère bientôt docteur dans le domaine de la computer vision). Je ne connaissais pas ces problématiques et je trouve ça passionnant. J'ai commencé à constituer ma bibliographie sur le sujet grâce à ta vidéo. Je te remercie sincèrement. Une fois que je me serais un plus imprégné de la question. Je prévois de communiquer sur ces questions dans mon entreprise.

  • @aymerichm8835

    @aymerichm8835

    Жыл бұрын

    Oui ! Communiquez autant que vous le pouvez ! Vous avez là une grande (et belle) responsabilité. Merci d'avance :)

  • @karelknightmare6712
    @karelknightmare6712 Жыл бұрын

    Question bête sur les publications. Ne devraient-elles pas intégrer un schéma algorithmique standard pour « résumer » le sujet la méthode et la conclusion? Personne n’a matériellement le temps de lire toutes les publications. En fait la structure même des publications semble obsolète non? La rédaction à l’ancienne est sans doute un moyen de communication très peu efficace. Un arbre logique standardisé pourrait permettre de mieux traiter l’immense quantité de données des publications et sans doute permettre de questionner de manière structurée des arguments, voire de débusquer rapidement des erreurs d’interprétation ou des défauts méthodologiques.

  • @elrhim7767

    @elrhim7767

    Жыл бұрын

    Je vais être cruel mais, si vous souhaitez faire de la science et non pas de la religion, vous ne couperez pas à lire les études. 🙂

  • @karelknightmare6712

    @karelknightmare6712

    Жыл бұрын

    @@elrhim7767 Merci, je ne vous crois pas cruel du tout. Je ne parle pas de ne pas lire des publis. Mais d'intégrer un schéma algorithmique standard qui résume le cheminement et le résultat de l'étude pour faciliter l'exploration, la comparaison, les méta-analyses etc. Ce schéma serait une forme plus efficiente et poussée du classique IMRED. Personne ne peut humainement lire chaque jour et intégrer , dans le détail ne serait-ce qu'une dizaine de publications de dizaines de pages parfois rédigées de manière plus ou moins claire. Et ce sans compter sur le travail à coté, recherche, enseignement, quête de financement etc. Sans ironie de ma part, je pense que votre réponse illustre parfaitement le problème.

  • @pierrestempin100

    @pierrestempin100

    Жыл бұрын

    @@karelknightmare6712 Je plussoie, un bon schéma vaut mieux que 1000 discours.

  • @hlb4590

    @hlb4590

    Жыл бұрын

    Lê explique qu'un détail crucial de vache au détour d'une virgule au fin fond d'un article et vous pensez qu'un résumé suis une nouvelle forme va remedier au problème ?! De plus, les articles scientifiques sont très variés et leur intérêt ne se ramène pas toujours à une méthode schématique. Et au delà de lire et sélectionner les études, il faut aussi les reproduire et tester leurs limites

  • @karelknightmare6712

    @karelknightmare6712

    Жыл бұрын

    @@pierrestempin100 merci. Surtout que là on aurait les deux. ;)

  • @aymerichm8835
    @aymerichm8835 Жыл бұрын

    Je suis impressionné par ta capacité monumentale de travail (recherche, synthèse, vulgarisation, production des vidéos) ! Je m'en vais binge-watcher ta chaîne et la recommander à autant de personnes que possible !

  • @jemladata723
    @jemladata723 Жыл бұрын

    Merci de nous parler de ce sujet. Je doute de plus en plus de l'efficacité de la revue par les pairs. La majorité des doctorants et des jeunes chercheurs se voient refuser des articles par des reviewers méprisants avec des critiques aussi pertinente que "on sait déjà", "inutile", "ce chapitre est trivial", ou simplement par idéologie opposée. Je connais même personnellement des chercheurs reconnus qui hésitent à publier des travaux remettant en cause les théories obsolètes des rockstars du domaine car ça peut être néfaste pour leurs carrières.

  • @viceconsulimhotepienenobed1573

    @viceconsulimhotepienenobed1573

    Жыл бұрын

    C'est devenu un problème en effet

  • @pierrelegrand4735
    @pierrelegrand4735 Жыл бұрын

    Merci infiniment pour ce boulot de malade...!

  • @Lolo-nh7rj
    @Lolo-nh7rj Жыл бұрын

    Bonjour, très intéressant merci pour le travail ! Comme pour le réchauffement climatique ou les pesticides (cause clairement identifiée de l'effondrement de la biodiversité, mais où l'agrotech arrive à faire planer le doute), encore un domaine où l'appât du gain nous emmène droit dans le mur... Ce n'est pas du tout mon domaine, et pas totalement en rapport avec la vidéo, mais je me demandais si des systèmes de coffre forts de données personnelles ne seraient pas plus éthiques (et securisables ?) que le système actuel? Chacun ayant le droit de laisser ou pas l'accès ou de le supprimer à tout moment à des tiers (algorithmes etc), et qui permettraient à chacun de savoir qui utilise ses données, qui les vend à qui, éventuellement d'être rémunéré pour laisser accès à telle ou telle donnée? Et dans ce cas les clients n'auraient pas le droit de mémoriser ces données (je sais, c'est probablement un peu naïf comme question...) J'ai l'impression que le système actuel est un far west, on ne sait pas qui possède nos données personnelles, comment il les récupère, qui les vend à qui....

  • @felixbertoni
    @felixbertoni Жыл бұрын

    Mais du coup, si le peer review est défaillante en IA, est-ce qu'on pourrait pas juste utiliser des IA pour le peer review ? J'ai vu dans un papier peer-reviewed qu'elles étaient sécurisées... Euh, attendez une minute !

  • @danielplatteau5137
    @danielplatteau5137 Жыл бұрын

    Si Google manipule à ce point les publications scientifiques, c'est effectivement très grave

  • @rootbuild2028

    @rootbuild2028

    Жыл бұрын

    Pas vraiment, c'est attendue avec la montée du libéralisme...la plupart des acteurs de la communauté scientifique cherchant l'argent et la maximisation du nombre de publications au lieu de faire de la science. Je cite ici De Gaulle

  • @fabienschaetzel7027

    @fabienschaetzel7027

    Жыл бұрын

    @@rootbuild2028 je ne comprends pas le "pas vraiment", de ce que vous dites (avec quoi je ne suis pas en désaccord), on peut conclure que c'est pas vraiment surprenant, mais pas que c'est pas vraiment grave.

  • @thibaultjoan8268

    @thibaultjoan8268

    Жыл бұрын

    @@rootbuild2028 Je pense que votre analyse est fortement biaisée par une méconnaissance du domaine, si les chercheurs voulaient de l'argent ils iraient dans le privé. À la limite le problème des chercheurs c'est de vouloir un poste (quelle idée de vouloir payé son loyé en même temps) et potentiellement un besoin de reconnaissance, à la fois personnel et de leurs travaux. Le problème c'est que les institutions politiques (française et européenne) sont orientent de plus en plus les financement vers des sujet "appliqués", hors les chercheurs ont besoin de financements (pour acheter du matériel, et payer du personnel : ingénieurs, doctorant, etc.) et finissent donc pas céder aux pressions. À défaut de céder personnellement, ceux qui cèdent vont avoir plus de moyens, donc faire plus de recherche, être mieux évalué, et, in fine, les seconds auront un poste au détriments des premiers. Pour finir, je pense que vous utilisez à tort la citation de Charles De Gaulle, qui avait pris la parole ce jour là pour justifier le fait qu'il fallait investir davantage dans la recherche pour ne pas accroître notre dépendance technologique notamment aux USA.

  • @matthismanthe7645
    @matthismanthe7645 Жыл бұрын

    Super vidéo et super papiers de débunk sur un sujet plus qu'important. TL,DR : Je pense que le fédéré en médical est bien plus justifié que ce que tu décris dans la vidéo, mais suis d'accord avec l'idée général que l'engouement pour le fédéré à ses débuts était bien trop prématuré. Doctorant sur le développement de l'apprentissage fédéré en neuroimagerie (laboratoire publique), je dois dire que je suis à moitié d'accord avec ton analyse pour ce domaine. On est bien d'accord que l'apprentissage fédéré en tant que tel n'est rien d'un graal en terme de privacy et a de lourdes failles. Parcontre, l'usage qui en est fait en médical n'a (à mon sens) rien à voir avec l'usage fait par des boites de tech sur des tâches telles que l'autocompletion. Des exemples d'utilisations pour apprendre des modèles sur des données pour lesquels ils n'ont pas vraiment de droits, et dans ce setup les attaques venant à la fois du serveur et des utilisateurs malveillants peuvent être dramatiques ET inconnues/impunies. Dans le cadre du domaine médical, ces entraînements sont fait en laboratoire, pour l'instant sur des données déjà publiques ou avec des accords spécifiques avec des CHU (donc très loin des larges applications de Google, ici au maximum quelques dizaines d'institutions participantes) et en vase clôt : les modèles finaux ne sont accessibles à personne. Le serveur utilisé n'est clairement pas un serveur de Google, et si une attaque venant d'un hôpital participant à l'apprentissage est vérifiée, les conséquences pour lui sont graves : assez peu d'intérêt d'être malveillant. Le simple fait de ne pas avoir à bouger les données des hôpitaux vers un centre de donnée externe est déjà un avantage massif, demandant des efforts pour attaquer ces entraînements que l'immense majorité des participants à ce genre d'entrainement (CHU et laboratoires) ne peuvent se permettre. On est d'accord toutefois que ça n'est pas une fin en soi et que les failles persistent, d'où l'entraînement sur des données publiques pour d'une part justifier la performance de ce type d'entraînement sur des données très complexes et hétérogènes, et d'autre part permettre l'avancée des méthodes de sécurité type DP, SMPC ou HE avant des mises en place concrètes. Je pense personnellement que le développement de ce genre de méthodes avec les précautions que je viens d'évoquer sont plutôt encourageantes, allant vers une vrai idée d'apprentissage sécurisé (et pas de modèle sécurisé on est d'accord, mais c'est déjà un pas en avant). Il faut d'ailleurs savoir que la plus grosse barrière à l'évolution du machine learning en médical est la faible quantité de données accessibles pour les laboratoires, (on parle d'entrainement de modèles sur des dizaines/centaines de volumes au maximum dans la littérature), d'où l'intérêt pour ce genre de "solution". Au final, je suis d'accord avec le fait que Google à l'air de pousser des papiers promouvant des technologies incluant un serveur qui a accès à tout (bizarre), par rapport à des algorithmes de gossip complétement décentralisés, pour les mettre en application très rapidement à large échelle. De même, beaucoup d'abstracts et de conclusions des papiers sur le domaine (mais en IA globalement) tendent vers le sensationnel avec de moins en moins de nuances. De plus je ne peux me considérer comme un spécialiste des notions de privacy, clairement moins que toi, il est possible que je me trompe (c'est le problème avec la recherche ...). Je pense toutefois que la rigueur de sécurité absolue demandée en théorie est à mettre en relief avec les besoins de chaque application (la réalité des attaques possibles, la puissance des attaquants, donc quel niveau de sécurité est suffisant en pratique). Dans ce sens, l'apprentissage décentralisé (et pas que fédéré) me semble vraiment être un pas en avant, qui ne demande qu'à être compris et développé avant des applications concrètes. Mais finalement je ne pense pas que faire des amalgames aussi forts sur le domaine de l'IA et ses applications soit la bonne direction.

  • @Antiliae
    @Antiliae Жыл бұрын

    Je suis dans le domaine (NLP/SP) et c'est vrai que j'avais complétement sous-estimé cela. Je me souviens de la présentation à ICASSP19 de la VP recherche de Google qui présentait les travaux mais je n'avais pas pensé à l'aspect sécurité. De mémoire, ils faisaient la moyenne des gradients de tous les utilisateurs pour l'apprentissage et ne considéraient pas le gradient individuel de chaque utilisateur. C'est possible de capturer des informations personnelles en prenant la moyenne du gradient de tous les utilisateurs quand même ?

  • @Arkonis1

    @Arkonis1

    Жыл бұрын

    je ne crois pas non, de plus dans le federated learning il y a une couche de chiffrement

  • @warny1978

    @warny1978

    Жыл бұрын

    Je ne suis pas un spécialiste de la question, de loin, donc je vais répondre par une autre question : est-ce que la puissance de compression des algorithme d'IA ne permet pas de retrouver ces informations de base ? Un truc que je fais parfois pour m'amuser à partir de résultats scientifiques ou de résultats de sondages, lorsque le nombre d'informations à déterminer est équivalente au nombre d'informations en entrée (par exemple adresse, age, points d'intérêts) pour chaque point d'entrée (par exemple des personnes), il est possible de déterminer la répartition de chacun de ces derniers assez précisément dans les catégories d'informations en entrées. Ce qui m'amène à penser que, et si j'ai bien compris la problématique, comme ce qu'on demande à une IA est typiquement du calcul inverse très poussé, on pourrait aller beaucoup plus loin : avec les informations qui permettraient d'isoler une personne, on pourrait retrouver le reste de ses informations.

  • @tbouvier
    @tbouvier Жыл бұрын

    Merci Lê, je relais aux collègues !

  • @soljin1010
    @soljin1010 Жыл бұрын

    Pour avoir bossé en recherche académique et dans l'industrie, il est évident que les deux ont des biais. Pour caricaturer, la première cherche à promouvoir des articles à sensation tandis que la seconde va tenter de publier de la science qui les arrange (pour développer ou défendre des produits). Dans les deux cas, les articles doivent rapporter de l'argent sous une forme (subventions, primes, progrès de carrière) ou une autre (vente de produits) à ceux qui les publient. Perso, ce que je comprends de cette situation, c'est que débunker la désinformation de Google, ça ne rapporte pas d'argent et ce ne sera financé par personne, tandis que pour les chercheurs académiques, les promouvoir, c'est trouver des subventions à gogo. En plus de cela, il est aussi possible que les articles de Google soient reviewés entre copains. ça arrive assez souvent dans les domaines pointus.

  • @nimbleroach4782
    @nimbleroach4782 Жыл бұрын

    Beau boulot. Merci pour cette réflexion.

  • @GoelWCS
    @GoelWCS Жыл бұрын

    Perso, je pense que Google incite ses employés à utiliser des titres positifs pour favoriser leur ranking, en effect depuis 2-3 ans, pour lutter contre le harcellement sur les résaux sociaux, Google et FB semblent mettre plus en avant les contenus positifs. Il sont en général plus constructifs (en général les critiques négatives sont peu constructrices) et conduisent à plus de rétention du lecteur (un lecteur lisant un article négatif va soit fermer son navigateur soit se lancer dans d'autres recherches et quitter la page, faisant diminuer son ranking). cette vidéo montre que cela a aussi des effets pervers !

  • @JC-id5ce
    @JC-id5ce Жыл бұрын

    Question à propos de Tournesol : Que se passe-t-il si par exemple une large communauté de platistes se met à recommander des vidéos expliquant que la Terre est plate ?

  • @Bumbury
    @Bumbury Жыл бұрын

    Merci pour ce super boulot !!!!

  • @jean-baptistelasselle4562
    @jean-baptistelasselle4562 Жыл бұрын

    Pour compléter mes commentaires : je suis entièrement d'accord avec vous, pour dire que le problème gravissime, est avant tout la manière dont les chercheurs ont si massivement accepté ces informations sans preuve reproductible, et même pire en invoquant ces mêmes affirmations de Google, pour rejeter vos objectifs que je partage à 100% Ce qui laisse clairement apparaître un problème massif de corruption des chercheurs, rémunérés sur les impôts payés par le citoyen. Cela est d'une gravité extrême, gigantesque. J'ai démontré par l'absurde que ces techniques particulières dont vous parlez (federated machine learning) n'augmentent pas le risque pour le citoyen : parce que pour que vous puissiez l'affirmer, il faudrait que vous puissiez démontrer qu'aucune autre technique n'existe , permettant la captation de ces mêmes informations (génome, adresses etc). Aussi le risque extrêmement grave réside selon moi dans la corruption de masse des chercheurs. Ceci étant, là où je pense démontrer que vous avez tord sur des points très importants, je trouve extrêmement intéressant les idées que vous développez et les révélations que vous faites sur votre expérience personnelle de reviewer

  • @leGEEK84
    @leGEEK84 Жыл бұрын

    J'adore ton travail et jsuis évidemment d'accord avec toi. J'aimerais quand même étendre le problème, oui le système de publication est en cause, le financement par projet également. Mais en fait, la multiplication et la normalisation des partenariats publique/privé me semble aussi une cause possible du phénomène (du moins un facteur qui empêchera de prendre le problème à la racine). Sauf qu'on est dans cette situation parce que l'état a décidé qu'il ne voulait plus prendre en charge les coûts d'une recherche et d'un enseignement publique. Je ne vois pas comment ça pourrait aller mieux dans une situation où les universités en France tombent littéralement en ruine, devront fermer faute de pouvoir payer l'électricité et qui doivent encore rogner sur les budgets pour financer les augmentations de salaires promisent par l'état mais absolument pas compensées dans ce que l'état donne. De plus en plus les universités sont dépendantes des industries, autant pour les financements que pour le recrutement des étudiants, donc autant la recherche que l'enseignement devront se plier aux règles imposées par des entreprises comme Google et Facebook, les sujets de recherche seront décidés par eux, et les résultats attendus aussi. La qualité de la recherche va nécessiter le renforcement d'un service publique qui soit vraiment indépendant, et je ne vois pas comment ça pourra s'améliorer sans défendre l'université (Grève le 18 octobre)

  • @contactterre
    @contactterre Жыл бұрын

    Bonjour lé 👋toujours aussi efficace 👍❤🕊MERCI)))

  • @charlesenglebert8226
    @charlesenglebert8226 Жыл бұрын

    énorme travail, merci Lê

  • @nonartrachno4900
    @nonartrachno4900 Жыл бұрын

    Quel travail, merci pour ça, une super vidéo

  • @karelknightmare6712
    @karelknightmare6712 Жыл бұрын

    Y a-t-il des déclarations de conflit d’intérêt en informatique? Un référencement systématiquement séparé des sources conflictuelles serait utile je pense. Je ne sais pas si une réglementation publique est nécessaire sur le sujet.

  • @oryjen
    @oryjen Жыл бұрын

    Excellente analyse! C'est incroyable d'avoir déjà dénoué ces saletés à votre âge. En creusant cette affaire, on constate avec consternation mais sans surprise que la science dans sa totalité, de la cosmologie à la recherche médicale, fonctionne désormais sur ce principe. D'ailleurs l'UE est en ce moment même occupée à étudier des textes visant à inféoder la diffusion des connaissances scientifiques à des officines de presse globale, ce qui grosso modo rendra à terme sans objet le métier de journaliste scientifique (on s'en ira piocher la vérité scientifique agréée dans des agences contrôlées par des puissances politico-financières), et à criminaliser la diffusion de matières scientifiques de toute autre provenance comme "fake news". Tout est faux. Tout est biaisé. Tout est instrumentalisé par la marchandisation globale de la vie des gens. Nous sommes en 1984. J'en suis à l'heure des bilans compte tenu de mon âge, mais quant à vous et à vos jeunes collègues, je vous souhaite BEAUCOUP DE COURAGE.

  • @fabrice9552
    @fabrice9552 Жыл бұрын

    Croire que la recherche en IA soit un lieu où les enjeux humains et financiers soient absents est une hypothèse osée. La vidéo est peu longue et très motivée , pour simplement dire que les données d'apprentissages sont le fondement de la qualité du Machine Learning. Ensuite que les grosses entreprises qui ont la main sur les données sensibles profitent de leur position pour en tirer profit ouvertement ou secrètement est une évidence. Bref ignorer que l'IA ou la médecine ou la science fondamentale soient des champs où le meilleur peut côtoyer le pire est un voeux pieu, un peu d'histoire des science balaye ce point rapidement, sachons garder les yeux et les oreilles ouverts.Merci pour la vidéo.

  • @rom4you
    @rom4you Жыл бұрын

    Excellent travail ! Merci :)

  • @athom-gamer
    @athom-gamer Жыл бұрын

    😶‍🌫Bien vu ! J'apprécie ta prise de position ! ☝👍

  • @SaMusz73
    @SaMusz73 Жыл бұрын

    referencement ! Merci Le !

  • @charlieramone8666
    @charlieramone8666 Жыл бұрын

    Intéressant et toujours aussi inquiétant malheureusement...

  • @ApprendreSansNecessite
    @ApprendreSansNecessite Жыл бұрын

    Merci pour tout ce que tu fais.

  • @rogermachin1046
    @rogermachin1046 Жыл бұрын

    C'est complétement dingue ! Je pensais vivre dans un monde de fous mais j'étais en deça de la réalité .. cachant que plusd e 90 % de la population est iganre de ces sujets et ne veut même pas savoir, nous sommes mal barrés

  • @dgrandlapinblanc
    @dgrandlapinblanc Жыл бұрын

    Merci à toi !

  • @Arthurcoco33
    @Arthurcoco33 Жыл бұрын

    bonjour, référencement merci

  • @greysky1786
    @greysky1786 Жыл бұрын

    C'est vraiment une super vidéo ! Au début j'étais un peu dubitatif, parce que je me disais que quelqu'un-e qui faisait du droit aurait été le ou la bienvenu-e pour accompagner tes propos sur la privacy (tu est avant tout un matheux, je t'accorde moins de crédit lorsque tu t'aventures sur le droit ^^), mais vraiment cette vidéo était excellente, iel y a dû y avoir beaucoup de travail, je vais essayer de la partager au maximum !

  • @SMH54000
    @SMH54000 Жыл бұрын

    Salut Lê, merci infiniment pour cette vidéo. Penses-tu pouvoir en faire une version anglaise ? Je pense qu'elle gagnerait vraiment à faire le tour du monde dans la commu IA / ML. Typiquement, même à l'EPFL que tu connais (mais pas au département IC), il y a des chercheurs qui ne parlent pas français mais pourraient être intéressés (voire, "convertis") par ce que tu exposes ici. J'y ai récemment entendu parler d'apprentissage fédéré de façon beaucoup trop élogieuse, il faut qu'ils voient ta vidéo, mais préférablement dans une langue qu'ils comprennent... Plus généralement, j'ai l'impression que tu t'orientes de plus en plus vers le lancer d'alertes académiques, et je pense que cette activité mérite d'être menée aussi en anglais, l'anglais étant par excellence la langue de publication scientifique.

  • @le_science4all

    @le_science4all

    Жыл бұрын

    Il y a une version anglaise : kzread.info/dash/bejne/lIKavJKymLnJk9o.html

  • @SMH54000

    @SMH54000

    Жыл бұрын

    @@le_science4all Merci beaucoup ! En même temps si je ne m'abonne pas à la chaîne anglophone aussi... Me voilà abonné :-) Merci encore pour ton travail !

  • @hugol9183
    @hugol9183 Жыл бұрын

    Merci pour cette vidéo ! Tournesol existe aussi pour les applications KZread sur smartphone ? Je l’ai mise sur l’ordi mais je n y suis pas souvent

  • @clairelesaffre249
    @clairelesaffre249 Жыл бұрын

    Merci beaucoup pour cette vidéo!

  • @timotheethierry9527
    @timotheethierry9527 Жыл бұрын

    Salut, merci pour ce boulot d'information et de vulgarisation et cette grande qualité de vidéo ! En la regardant, je me demande comment on peut rendre les algorithmes plus vertueux ? Est-ce que tes recherches portent sur ces questions ? Est-ce que ton livre en parle ? Ou bien est-ce que certaines de tes vidéos traitent de ces questions ? Je vais continuer à me renseigner et à m'informer sur ces questions, mais en tout cas cette vidéo est très claire et très intéressante !

  • @ducgus
    @ducgus Жыл бұрын

    Merci pour ce travail.

  • @suppomanable
    @suppomanable Жыл бұрын

    Pense à dormir qd même. Merci pour ton travail,

  • @samp.8975
    @samp.8975 Жыл бұрын

    pourquoi ne pas écrire une lettre au président qui, de mémoire avait déjà identifié ces enjeux stratégiques, pour une échelle européenne ? des financement à la clé ?

  • @gregoirepelegrin1966
    @gregoirepelegrin1966 Жыл бұрын

    As-tu des ressources pour approfondir le sujet de la sécurité des IA en général ? Et pour quels pré-requis ?

  • @Bloodysugar
    @Bloodysugar Жыл бұрын

    Excellent boulot. Et un com pour flatter l’algorithme afin de populariser les dérives algorithmiques. ^^

  • @ludoviclagouardette7020
    @ludoviclagouardette7020 Жыл бұрын

    Super vidéo! Merci! 👍

  • @ludov8576
    @ludov8576 Жыл бұрын

    Je partage aussi. Voir un chercheur parler comme ça donne de l'espoir en l'avenir.

  • @michellerunigo5376
    @michellerunigo5376 Жыл бұрын

    bravo pour vos informations

  • @kamykro5427
    @kamykro5427 Жыл бұрын

    Très intéressante vidéo, merci.

  • @bbbenj
    @bbbenj Жыл бұрын

    C'était extrêmement intéressant, un grand merci 👍 Ce qui est dommage, c'est qu'on pourrait croire que tu parles par dépit, par jalousie. Je sais parfaitement que ce n'est pas la cas mais ça transparaît significativement.

  • @davidleroux3849
    @davidleroux3849 Жыл бұрын

    Bonjour et merci pour cette video @Science4All ! Mais je m'étonne de ton étonnement ^^ Ce qui prime dans tous nos choix, ce sont les émotions (et avec d'excellentes raisons) et en outre pourquoi les scientifiques seraient plus éthiques que d'autres catégories. Enfin si on revient a ton introduction : Tabac, pluie acides, amiante, couche d'ozone; une fois le calme revenu et la poussière retombée les faits émergent N'ai pas peur : nous allons tous mourir et ça va très bien se passer 😁

  • @Marc.Th.25
    @Marc.Th.25 Жыл бұрын

    Super intéressant ! (comme souvent ;-)

  • @imagreatguy1250
    @imagreatguy1250 Жыл бұрын

    Merci beaucoup mec, très chaud et très intéressant aussi 🥸👍🐱👍🐻👍

  • @Antigoomba
    @Antigoomba Жыл бұрын

    Je trouve ces arguments peu convaincants. Il me parait peu avisé de remettre en question la probité des auteurs des papiers critiqués : même dans le cas où l'erreur est flagrante (ce qui semble surtout jouer sur la définition qu'on attribue à "privacy"), il est assez peu étonnant de trouver des erreurs dans des papiers publiés. Je pense qu'il est impossible de déduire des exemples présentés une manipulation consciente à l'échelle d'une entreprise. Cela serait en effet très grave, mais je doute aussi qu'ils en aient seulement besoin. Félicitations à toi pour ton travail pour rectifier ces erreurs, mais attention au ton employé qui me semble au mieux sensationnaliste (ce que tu reproches aux auteurs eux-mêmes). Il ne faut pas confondre recherche et application. Beaucoup de remarques dans la vidéo laissent penser que le contenu des papiers est déployé tel quel par Google ou autre. Heureusement pour nous, il n'en est évidemment rien. Une erreur dans un papier est une erreur dans un papier. Il est bon de la pointer du doigt, mais douteux de la présenter comme une menace existentielle alors qu'elle a peu de chance d'être jamais déployée (contrairement à l'algorithme de KZread). Enfin, je suis déçu que tu sois complètement passé à côté d'un problème qui me paraît immensément plus important que tout ce qui a été évoqué ici : le système de revue par les pairs ne marche pas. Non seulement il ne marche pas et tu sembles en avoir un peu fait les frais, mais tu l'encenses en plus indirectement en faisant les louanges des tops conférences d'IA. Je comprends qu'il est difficile de s'extraire soi-même du système tout en tentant de l'influencer, mais le manque de recul dont tu fais preuve dans cette vidéo est dramatique. Ta position est au mieux maladroite, au pire intenable. Merci pour tout ce travail, c'est difficile d'émettre un commentaire négatif vu le temps passé sur cette vidéo, mais j'ai aussi peur qu'elle vieillisse très très mal.

  • @divalarose
    @divalarose Жыл бұрын

    Trop grave 🤔😡👍

  • @ismailsalah1129
    @ismailsalah1129 Жыл бұрын

    Bonjour, J'ai une question svp ; est ce qu'un Algorithme d'IA peut il transferer son "savoir" à un autre algorithme ? Merci .

  • @pierre-louisvallee7326
    @pierre-louisvallee7326 Жыл бұрын

    Fais gaffe, y en a qui sont mort d'un accident de moto pour moins que ça.

  • @lemondemerveilleuxdechrist6515
    @lemondemerveilleuxdechrist65158 ай бұрын

    Extrêmement inquiétant à l'heure de ChatGPT...

  • @rayerdyne
    @rayerdyne Жыл бұрын

    20:57 Oh my Je suis étudiant en IA etc., même moi (càd pas un expert), pense pouvoir vous expliquer pourquoi si, communiquer le gradient peut totalement transmettre les données, alors allons-y. Imaginons un système très simple: on cherche à connaître la proportion de la lettre 'L' dans les écrits d'un utilisateur. Du coup, il n'est pas acceptable de communiquer au système centralisé la proportion. Par contre, on peut communiquer le gradient. Mais c'est quoiii le gradient ? Pour faire simple, il donne la direction et la distance que les paramètres du modèle doivent prendre. Grosso-modo, ici il s'agirit de la différence entre: - la proportion de L observée chez notre utilisateur (disons p_observé), et - la valeur que le modèle essayant de l'estimer avait a priori (disons p_modèle) Donc... Bah oui Monsieur si on a l'information du gradient (soit p_observé - p_modèle) on peut stocker les données: il faut juste faire p_modèle + (p_observé - p_modèle) = p_observé = donnée potentiellement sensible. Évidemment cela ne reste pas si simple, on joue avec plein de paramètres ayant une signification plus abstraite ici. Mais au final, le gradient donnera toujours la direction que l'on prend. Si je vous donne systématiquement ma direction, vous finirez par savoir où je suis (en faisant une hypothèse sur la position de départ, plus en confirmant en regardant le paysage, car il y a des positions insensées). Je pense que ces pauvres gens ont peur de se mouiller en s'opposant à ce que tant de monde à déjà validé. RIP

  • @TheCatbutcher
    @TheCatbutcher Жыл бұрын

    La ressemblance (toute proportion gardée) entre Giordano Bruno et Timnit Gebru est frappante, surtout à une ère où le dogmatisme religieux est pointé du doigt alors que les entreprises qui portent un message de progrès et d'illumination de l'homme se comportent exactement de la même manière que l'Église a l'époque. La science est instrumentalisée de même que la religion. Il est aussi frappant de voir que nous avons également une part de responsabilité. Tu mentionnes Don't Look Up dans ta vidéo et c'est exactement cela : nous ne voulons pas regarder ce qui est évident. Nous ne nous préoccupons que de notre propre quotidien sans faire attention à ce qui dérive (les récits de fin du monde ne datent pas de la crise écologique ou de l'hiver nucléaire). J'apprécie beaucoup vos travaux à vous, femmes et hommes qui passez un temps monstre à vouloir démontrer que l'humanité courre à sa perte alors que cela paraît évident. Je suis fasciné par le courage et la force de caractère dont vous faites preuve. Je n'ai pour ma part pas cette force et considère qu'aucun discours raisonné ne nous fera changer (je sais que fumer tue, pourtant je n'ai toujours pas arrêté de fumer). Tout ça pour dire qu'il en va de la responsabilité des dirigeants mais qu'en même temps, si nous ne voulons pas changer, nous ne pouvons pas non plus considérer comme seules coupables les instances de pouvoir. Si votre article n'est pas cité et est considéré comme non-important, c'est peut être que c'est vrai. Qui en a réellement quelque chose à faire ? Si les algorithmes influencent nos comportements et attisent les violences, ils ne nous poussent à rien, c'est nous qui décidons d'être violents. Je pense que ceux qui sont violents savent pertinemment ce qu'ils font et cela qu'ils soient de culture bouddhiste, musulmane, catholique ou autre (cultures soit dit en passant qui prônent dans leurs messages philosophique l'amour de son prochain). J'observe ces comportements dans mon quotidien : des amis de longues dates qui ne se parlent plus pour un simple histoire d'argent, des hommes et femmes qui après s'être aimés pendant des années se vouent une haine profonde, des individus qui ont à peine de quoi manger à côté de chez moi tandis que je gaspille de la nourriture... Vos travaux et votre esprit dévoué à informer l'Homme qu'un avenir meilleur existe me fascine, et vous me donnez l'espoir de travailler sur moi-même afin de m'améliorer. Pourtant, plus j'en apprend sur l'histoire de l'Homme et plus je dois fournir d'efforts au quotidien pour ne pas ressasser inlassablement la première phrase du Mythe de Sisyphe d'Albert Camus : "Il n'y a qu'une seule question philosophique vraiment sérieuse, c'est le suicide". Merci beaucoup pour tes vidéos.

  • @viceconsulimhotepienenobed1573

    @viceconsulimhotepienenobed1573

    Жыл бұрын

    Faudrait arrêter de diffuser de la désinformation sur l'histoire de Giordano Bruno.

  • @Cartkun
    @Cartkun Жыл бұрын

    Excellente video très informative, publiée sur une plateforme de videos de Google.... Je partage avec mes amis!

  • @nicolasf2121
    @nicolasf2121 Жыл бұрын

    Merci de prendre le temps de debunker tout ça avec des articles publiés...

  • @johnnygomesdamoura6737
    @johnnygomesdamoura6737 Жыл бұрын

    1984 c est la feuille de route, alors bon courage pour trouvé des solutions. David contre Goliath, je suis de ton côté David. Salam

  • @workflowinmind
    @workflowinmind Жыл бұрын

    Incroyable travail. Merci beaucoup, j'ai des potes chez OpenAI et c'est clairement un enorme sujet

  • @GuillaumeFond
    @GuillaumeFond Жыл бұрын

    Msg d'un collègue travaillant sur l'IA: Merci pour le lien, je suis abonné à sa chaine mais ne regarde pas toutes ses vidéos. Il est brillant, il connait très bien son sujet et je n'ai aucun doute sur les mensonges des GAFAM et autres grandes firmes sur l'utilisation des données. Mais je le trouve trop alarmiste et j'ai du mal à comprendre le ciblage exclusif de google (alors qu'il utilise massivement youtube). Personnellement, je considère que tout ce qui transite sur le réseau est dans l'espace public, y compris les mails qui sont souvent transférés à l'insu de l'émetteur. J’accepte toujours tous les cookies et donne pleins d'autorisations à mon téléphone (android) pour découvrir ce qu'il peut faire et que j'ignore. C'est parfois très surprenant !!! Le sujet ne m'inquiète pas plus que ça (peut être à tort). L'IA est un super outil qui peut vraiment révolutionner plein de domaines: santé, transport, énergie, etc . J'ai trouvé le rapport Villani très bien fait. Mon inquiétude porte plutôt sur la prolifération des armes de destruction massive et la stupidité humaine qui les contrôle ;-)

  • @le_science4all

    @le_science4all

    Жыл бұрын

    Merci du partage ! C'est en effet une attitude très répandue chez les chercheurs du domaine, avec une vision assez individualiste des problèmes de privacy (même si, pour me répéter, la privacy n'est pas du tout ma préoccupation première...) et une attention restreinte aux aspects bénéfiques. (pour le coup, la "stupidité humaine" m'inquiète énormément aussi, et le problème est justement que les algorithmes de recommandation hijackés la renforce largement...)

  • @tchize
    @tchize Жыл бұрын

    Pour le clavier opensource sous Android, malheureusement, dès qu'on l'installe, les applis bancaires se bloquent. Ce n'est donc pas une solution.

  • @lugnasad51
    @lugnasad51 Жыл бұрын

    je viens de découvrir cette chaine, je n'ai pas encore tous les codes, ça veut dire quoi quand il ya une fleur avec un chiffre, comparisons et contributeurs ?

  • @tiburziandrea2054
    @tiburziandrea2054 Жыл бұрын

    Du très solide , bien vu

Келесі