Le coup de maîte d'Apple pour détrôner ChatGPT
Ғылым және технология
ça pourrait leur donner un avantage considérable
👀 À ne pas manquer, APPLE VISION PRO : Ce dont personne ne parle : • APPLE VISION PRO : Ce ...
👀 Cet OS va vous faire courir acheter un Mac : • Cet OS va vous faire c...
Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk.netlify.app/
📸 Les coulisses de l'émission: / underscoretalk
🐦 Les annonces de dernière minute: / underscoretalk
En plateau, il y a Matthieu de la Micorp et Tiffany Souterre !
Пікірлер: 408
Petite précision / correction : Aujourd'hui la finesse de gravure 3 nm ne correspond plus à aucune dimension réelle du transistor dans les processeurs. Historiquement, la finesse de gravure faisait référence à la taille du Gate d'un transistor dans les processeurs, c'était la mesure de référence pour évaluer la performance d'un processeur, plus on peut graver petit le transistor, plus son gate est petit, plus on peut mettre de transistor, faire des calcules, et augmenter la puissance. Or, depuis les 40 nm on ne peut plus diminuer la taille du gate à cause des limites / lois de la physique, (si le gate était encore diminuer on s'exposait à ce qu'on appelle "l'effet tunnel" qui perturberait le fonctionnement du transistor). Il a donc fallu modifier le design, la conception même du transistor, le "réarranger", pour continuer à améliorer les processeurs. En conséquence, on ne pouvait plus prendre la taille du gate comme référence de la puissance d'un processeur, car ca n'avait plus de sens, le gate restait de la meme taille mais la puissance des processeurs augmentait quand même. Aujourd'hui, les termes de finesse de gravure 3nm, 5nm, etc. sont des labels qui sont données au processeur si ils remplissent certains critères définis. Mais qui définie ces critères vous allez vous dire ? Et bien c'est l' I.E.E.E (Institute of Electrical and Electronics Engineers) qui au travers de l' I.R.D.S (International Roadmap for Devices and Systems) qui définie ces critères. Pour obtenir ces labels les transistors doivent être conçus et gravés d'une certaine manière. Les entreprises ne peuvent pas donner le label aux processeurs comme elles le souhaitent elles doivent suivre ces critères. On a décidé de garder les termes de "finesse de gravure" car le public c'était tout simplement habitué à ce que : plus fin = plus puissant, c'est un terme marketing. Il n'est pas falacieux, il permet juste de faire plus simple pour le grand public. lien : fr.wikipedia.org/wiki/International_Roadmap_for_Devices_and_Systems fr.wikipedia.org/wiki/Institute_of_Electrical_and_Electronics_Engineers irds.ieee.org/editions
@OtakugameFR
6 ай бұрын
Merci pour ton incroyable expertise !
6 ай бұрын
Cette réponse devrait être bien plus upvote que les conneries de trading et compagnie qu’on peut lire 🙂
@jacquesdelapince3669
6 ай бұрын
@@OtakugameFR merci beaucoup :D ca me flatte, je ne suis pas du tout un expert, je mets le plus de liens pour sourcer ce que je dis.
@Remzer241
6 ай бұрын
Whoah merci
@Kannagichan
6 ай бұрын
Alors exact mais la finesse de gravure n'a jamais mesuré "la performance d'un processeur". Effectivement le reste suit , Intel vs AMD le montre bien Intel à une moins bonen finesse de gravure et ils font des fois mieux que AMD. Et les performance de AMD ne s'explique pas du tout via la finesse de gravure. D'ailleurs cela fait un moment que cette finesse représente plus trop les performance, quand tu peux mettre 8 cores sur ton die , bon , c'est pas le soucis de place qui te pose soucis.
Petite erreur sur les tailles : Un atome d'oxygène à une taille de ~300 picomètres (si on prend comme référence le rayon de van der Waals). Donc pour 3 nanomètres on est davantage dans l'ordre de 10 atomes d'oxygène (ce qui reste très impressionnant).
@laurentmiltgen-delinchamp5508
6 ай бұрын
152 pm pour un atome d'oxygène, donc 0.152 nm
@4Moorish
6 ай бұрын
Monjp ?
@ke0zom204
6 ай бұрын
@@laurentmiltgen-delinchamp5508Effectivement, c'est bien 152 pm et non 240.
@NO14122.
6 ай бұрын
@@laurentmiltgen-delinchamp5508 152 si tu prends en compte le Rayon de Van der Waals, ce qui, d'une certaine façon dépasse le rayon d'un atome à proprement parler, soit son rayon covalent, soit 60pm l'atome d'oxygène.
@rotrot.graddiv.-.3766
6 ай бұрын
Ça veut rien dire les copains la taille d'un atome. En effet un atome est constitué en son extrêmité d'électrons qui sont localisés dans des orbitales atomiques. L'atome n'a pas de taille propre en revanche on peut lui assigner des tailles caractéristiques en général en raisonnant sur les moyennes statistiques de position des électrons de valence par rapport au noyau. De plus, les électrons ne sont pas nécessairement collés. Dans une maille il y peut y avoir un espacement plus ou moins grand entre les atomes. On peut déduire la distance entre deux atomes en trouvant la distance locale où l'énergie potentielle des atomes est la plus faible. Bref à voir mais ton raisonnement de diviser la taille de la gravure par le rayon atomique des atomes est un peu bancal.
Un détail mais les 3nm ne correspondent plus à la distance entre la gate et le drain du transistor depuis quasiment une dizaine d'années... maintenant il s'agit uniquement d'une valeur théorique qui correspondrait à cette taille si le transistor était "à plat" (ce qu'ils ne sont plus depuis un bon moment déjà c.f. FinFET et autres).
@ambroisetourneur3966
6 ай бұрын
y a pas de normes sur ce que doit signifier le 3nm, chaque entreprise fais comme ca l'arrange
@Bourinos02
6 ай бұрын
@@ambroisetourneur3966 Sur ce point on est d'accord, c'est largement un chiffre commercial maintenant vu qu'il est décorrélé d'une dimension réelle.
Si jamais vous arriviez à interviewer un/une ingénieure qui fait de la conception hardware (VHDL / Verilog), pour donner des détails sur ces actus, ce serait grave intéressant !
@meisterpanzerkunst6410
6 ай бұрын
Ahaha hello c'est moi :3
@Le-J-
6 ай бұрын
Passe dans l'émission alors stp @@meisterpanzerkunst6410
@violinsontheblock
6 ай бұрын
@@meisterpanzerkunst6410je suis aussi là bon pas ingénieur mais un Master
@tibo1671
6 ай бұрын
@@meisterpanzerkunst6410 Haha trop bien tu bosses sur quoi comme archi / système ?
@tibo1671
6 ай бұрын
@@violinsontheblock J'en ai fait en cours aussi mais je me sens pas trop légitime de bosser dedans perso ^^'
Salut, Je trouve que Matthieu s’améliore de jour en jour, je le sens moins stressé en tout cas et ça fait plaisir
@philippest-martin2605
3 ай бұрын
c'est moins le cas de Tiffany on se demande son rôle dans l'émission
En fait selon plusieurs analystes cette keynote serait plutôt avant tout une réponse à Qualcomm (qui a récupéré quasiment l'architecture complète des puces M1 avec le rachat à prix d'or de la startup que les architectes de ces CPU ont créé après s'être barrés d'Apple...) Pourquoi cet avis? Car en fait Apple est pas du tout dans l'exception à mettre des NPU/TPU dans ses processeurs en ce moment, à vrai dire c'est même plutôt la norme! Qualcomm avec ses Snapdragon X (décidément une grosse annonce...), mais aussi et surtout Intel avec Meteor Lake, AMD avec Ryzen AI, Google avec ses Tensor, pour ne citer que quelques gros noms. Bon, Apple reste quand même bien costaud en performances! Parlant de Snapdragon X et de Ryzen AI, c'est deux exclusivités Microsoft (aucun contrat n'a été rendu public, mais bizarrement les seuls drivers pour utiliser ces materiels sont sur Windows). Microsoft est donc bien en train de jouer sur les deux tableaux, cloud comme edge J'en profiterais aussi pour rajouter que le terme de "X nanomètres" est purement marketing de nos jours, en fait aucun détail de la puce n'est vraiment gravé plus fin que quelques dizaines de nanomètres ! Il faut savoir que les technos les plus récentes ont abandonné les transistors à plat, pour passer à des designs 3d (FinFET surtout aujourd'hui, GAAFET dans le futur). Il faudrait plutôt voir ça comme "des transistors qui prennent autant de place que si on avait réussi à faire des transistors à plat de 3 nm". Oui, c'est tordu, mais c'est marketing PS: Merci pour cette introduction à l'industrie du semiconducteur, le domaine est malheureusement trop peu connu chez les développeurs
@playtrollcommunity
6 ай бұрын
Ça c'est un commentaire qui a du mérite
J'adore parce que tu vois Mica lorsqu'il parle d'IA c'est un enfant ! Il est heureux et ça fait plaisir de voir quelqu'un de vraiment épanouie dans un sujet. C'est rare de voir cette effet aussi fort. :D et merci pour les vidéos ! Franchement elles sont génial ! Et surtout elles ne sont pas indigeste !
Concernant le fait qu'Apple ne parle pas d'IA, c'est une grande habitude de leur part de prendre quelque chose de commun et le "re-brander" pour se démarquer, Marques Brownlee (MKBHD) a fait une super video sur le sujet (Apple's Forbidden Words). Ils parlent en fait énormément d'IA, mais en d'autres termes
Génial! Merci pour ces informations!
c 'est sympa le neural engine de Apple, mais je rappelerai que les ingenieurs de NVIDIA ne sont pas des idiots et que leurs puces ecrasent celles de Apple en performance par $, meme si en terme de perf par watt Apple est bien placé en effet. Concernant l'inference embarquée, Apple a en effet une strategie mais l'avantage du cloud c'est que 1) le calcul alloué a un model peut etre phenomenal alors que celui sur la puce M2 ou M3 ou Mx sera beaucoup plus limité, l'autre avantage c'est que le cloud est dimensioné pour le pic de calcul de la demande globale alors que Apple doit prevoir le chip pour la capacité maximum de chaque utilisateur. L'avantage de l'inference en locale c 'est 1) la confidentialité/vie privée , 2) la latence mais seulement si le model est tres rapide a inférer donc pas tres puissant par rapport a ce que l'on aurait avecle cloud au meme moment.
@enrickliber
3 ай бұрын
Merci franchement merci beaucoup c’est gens qui raconte n’importe quoi juste pour gonfler leur egos par rapport a apple ,apple n’a aucun plan concernant l’IA . le vraie truc qui faisait apple c’est ”steve job”. Mettre ”sa” sur une puce oui …mais pas encore à notre époque. Nous avons pas encore créé la technologie qu’il faut. Bref en tout cas oui aujourd’hui il s’y intéresse a coup de 1 milliard€. Ce qui est dommage c’est que ces mecs ils vont après dire oui regarde ce qu’apple a créé. Regarde cette dinguerie et patati et patata. Sachant que du tchat gpt c’est vraiment incroyable.arrêtez de faire rêver les gens comme sa !
Génial cette vidéo vraiment j'ai appris des truc de fou 🤩
J'avais pensé à un petit "One more thing" d'Apple quand ils dévoileront enfin un vrai usage de l'IA sur leur matériel. Déjà bien sûr agrandir tes propres images avec l'IA pré-intégrer dans le Finder mais surtout une génération du fond d'écran de ton Mac en local après le premier setup sans ou avec logo Apple, et qui reprend l'aspect que tu veux selon la version de Mac OS que tu préférait.
quick fact que personne n'a demandé: les optiques pour les machines lithographiques (pour les processeurs) sont faites par Carl Zeiss, et le fondateur de l'entreprise éponyme est littéralement le mec qui a inventé la production d'optique de masse (dans le sens pas à la main)
@tibo1671
6 ай бұрын
merci pour ce détail ! Je connaissais la boite mais je savais absolument pas que leurs systèmes se retrouvaient là dedans
@airo.pi_
6 ай бұрын
Ok ok donc c’est de l’optique qui permet la fabrication de ces processeurs Je me demandais pourquoi Nikon et Canon fabriquaient des processeurs alors que pour moi c’était uniquement des marques d’appareil photo 😅
Excellente vidéo/sujet. Merci
Absolument passionnant ! Merci
Très bonne chronique ! Merci 🙏
ça me fait rappeler le Qualcomm 8gen3 qui pourra faire tourner des IA de génération image, texte et autre. Localement sur un smartphone sans connexion internet. C'est très impressionnant
@nawabifaissal9625
6 ай бұрын
seule innovation d'apple : les puces et l'ecran tactile (ça date maintenant), voili voilou... entreprise estimé a 3 trillions de $....
@Tisma.
6 ай бұрын
@@nawabifaissal9625 l'écran ça reste toujours principalement des technos Samsung ils ont juste renommé l'oled
@thomassankala6043
6 ай бұрын
@@nawabifaissal9625 l ecran tactile a été inventé en 1971 par sam hurst bien avant la création de l apple
Les performances de Stable Diffusion, optimisé pour les GPU, étaient catastrophiques sur les Mac, c'est pourquoi Apple s'est mis en tête de l'optimiser. A l'époque, entre mon MacBook M1 Pro et mon laptop gamer Asus doté d'une puce Nvidia 3080 (la version portable donc) de génération et prix équivalents, il y avait un facteur 5 de vitesse de rendu en faveur du PC !!
Très intéressant merci !
Je vais enfoncer une porte ouverte, mais c'est aussi de la géopolitique tout simplement par rapport à Taiwan. Apple cherche juste à sécuriser leur ligne d'approvisionnement, vu que TSMC est la quasi seule boite au monde qui a la technologie avancé pour faire les derniers processeurs. Et vu que l'invasion de Taiwan est qu'une question de temps, le marché des composants va devenir fou dans les prochaines années.
@TheBlackManMythLegend
6 ай бұрын
grave
@MadrafTintagel
6 ай бұрын
L'invasion de Taïwan est loin d'être réalisée. Il est probable qu'elle ne survienne jamais. En tout cas, si cela devait arriver, nous aurions d'autres soucis que l'approvisionnement en processeurs...
@adanoether2777
6 ай бұрын
C'est justement TSMC qui les fabrique ces processeurs contrairement à Intel qui fabrique aux US il me semble.
@Fox-BZH
6 ай бұрын
cela n'est plus vrai depuis le chip act. Les US, enfin conscient du danger, investissent + de 50 milliard pour pouvoir produire chez eux les chips. Les usines sont en cours de construction au US avec de gros gros avantages fiscaux et financement du gouvernement. Tu m'étonnes ...
@Saihttam35
6 ай бұрын
En effet pour le chip act, cependant il faudra longtemps avant que cette usine soit opérationnelle ou même que les USA aquiert un niveau de compétence aussi développé que les employés de TSMC. Oui c'est une très bonne chose cette usine, mais la formation des ingénieurs derrière c'est un autre sujet. Pas sûr que l'ensemble soit prêt avant que Taiwan tombe...@@Fox-BZH
Petit retour sur la taille des atomes. le silicium est de 0,2 nm; 3 nm nous donne de l'ordre de 15 atomes de coté. Au début des années 2000, nous perdions l'effet transistor aux alentours de 100 atomes. On ne trouve pas vraiment de données plus actuelle sur l'amélioration de cette limite.
Belle vidéo. J’ai toutefois l’impression que l’ia on device est déjà là depuis un moment chez la concurrence (Google pixel et leur puce Tensor par exemple)
En clair ils ont réussie à gravé le double voir le triple de microtransistor et non je pense pas que c'est du nano transistor car là on serait à l'ordi quantique. De plus dans cette vidéo très bien expliqué présenté etc il y a un gros impasse sur le refroidissement des composent car tu peux avoir bcp de Gram et et ram graphique si ton ordi chauffe trop rapiment il laguera indéniablement et si tu partage ta wifi idem. Bref back slash == bonne soirée, oui j'ai confondu avec angstrom
Les interventions de Tiffany Souterre = "Humm", "Oui" , "Hum" 🤣🤣🤣
Salut. Interressant la partie sur les capacités ia, et le lien avec la memoire unifiee, dommage qu'ils mettent moins de memoire sur leurs pc que sur la première carte graphique de base
Pas mal ! Intéressant le coup d'avoir l'IA en local ! ça offre aussi une meilleure garantie de confidentialité (essentiel pour certaines entreprises!) et ça décharge les serveurs ! Vous m'avez appris quelque chose, merci !
@dedelefoudu88
6 ай бұрын
tu peux aussi en avoir dans ton reseau priver. aussi, L'IA en local reste limiter pour des model avec un nombre de parametre reduit, qui sont deja tres bon. Meta (facebook), est probablement un des lideur dans ces petit model avec son LLaMA 2, qui peut deja etre installer sur ton ordi perso, ou meme personalize (fine tune).
@resh6701
6 ай бұрын
Il y a LM studio qui permet de faire ça simplement, ou oogabooga.
@hesaiem
6 ай бұрын
Décharger les serveurs pour surcharger les appareils individuels je ne sais pas si c'est si utile que cela. La centralisation est aussi, malgré ses désavantages, moins consommante.
Ouais bon la description du transistor laisse à désirer. C’est pas le « dopage qui fait des 0 et des 1 ». Aussi 3nm c’est beaucoup plus grand qu’un atom. C’est pas infos très dur à vérifier donc faut faire un peu gaffe quand même
@blacriderv
6 ай бұрын
Bah on sent que le gars il est pas du tout technique. Il a juste essayé de comprendre vaguement ce qui se dit sur le web mdr
Ca se passe comment pour les gros gpu?
Si c'est bien le cas cette stratégie est très intéressante et me semble beaucoup plus pertinente que les applications cloud based qui reviennent extrêmement chère. Après il faut savoir qu'il existe déjà des moyen de faire tourné des LLM sous Linux ou Windows en utilisant le GPU et le CPU en parallèle et ça fonctionne vraiment bien, mais il est claire qu'il doit y avoir une perte de performance notable par rapport à l'architecture d'Apple (sans même parler de la différence en consommation). Intel semble aussi vouloir unifier CPU et GPU dans le future.
Super vidéo ! Du coup si tous ces macs en réseaux communiquent leurs puissance de calcul à Apple, la puissance de calcul est phénomènale
Merci pour la vidéo. Je crois que c'est surtout qu'ils cherchent la bonne manière de le faire. Faire tourner des modèles d'IA en local c'est très bien mais comment en faire un outil simple et évident à utiliser? Il faut un bon pitch pour vendre ça. Et il faut que ça marche de manière transparente... En tout cas j'ai trop hâte de découvrir l'approche qu'ils vont choisir 😁😁😁
@ThomasSselate
6 ай бұрын
De quoi parles-tu, l’IA générative est déjà hyper simple à utiliser, chatGPT a été adopté par les personnes âgées d’une manière jamais vue pour une nouvelle technologie. Il suffit littéralement d’écrire une phrase pour faire un prompt
@airo.pi_
6 ай бұрын
@@ThomasSselateoui mais c’est pas du goût d’Apple de faire du prompt comme ça Ils vont chercher à intégrer subtilement l’IA un peu partout dans l’écosystème je pense Mais oui les outils actuels (génération d’image, de texte) sont incroyablement simple à utiliser 👌
Hello petite question, Y a-t-il des gens ici qui ont des problèmes d’écran avec des MacBook Pro M1 2021?
Elle a été virée la personne qui s'occupe des lumières du studio chez Underscore _ 🤣ou peut être qu'elle n'a pas encore été embauchée🤫 Merci Matthieu 🙏je vais me coucher moins bête ce soir même si je ne suis pas sûr d'avoir tout capté
Apple continue à communiquer sur la puissance brute du CPU (hors GPU, NSP) pour deux raisons: - ça leur permet de mettre la pâtée à Intel - ça continue à bien représenter les besoins utilisateur (compilation, effets audio/vidéo) Ils mentionnent le Neural Engine, mais on sent bien que leurs usages sur l’amélioration de photos ou la complétion de mail) sont assez petit joueur pour le moment. Mais ils insistent beaucoup sur l’aspect ´on device’. Je pense qu’ils attendent que ce soit mur, techniquement et socialement, pour frapper un grand coup
si j'ai bien compris la chaîne, les fonderies fabriquent comme TSMC, fabless conçoivent comme Qualcom, architectes inventent l'architecture comme ARM tandis qu'ASML fabrique des machines que les fonderies utiilisent pour fabriquer les puces. Intéressant. Et l'enjeu des prochaines années, ce sera où l'IA tourne, localement ou dans un cloud.
Clairement je rejoins ton hypothèse sur l'IA locale. Je table aussi sur le lien avec le développement de la ReRAM qui permettra de stocker "internet" en local, ainsi que l'écosystème fermé de apple pour au final proposer un système complet très sécurisé et maitrisé en terme de données personnelles et de capacité IA. Mon hypothèse est que la maîtrise de la sécurité des données sur toute la chaîne(physique on device donc) conférera à apple un avantage énorme en terme de confiance des utilisateurs. J'imagine un point de bascule ou une grande partie des gens se réfugierons chez apple, pendant qu'un autre géant pourrait sombrer. Et vous ? Quel 2 cents ?
Faut bien se rendre compte que le développement d'un processus de fabrication de puce prends entre 3 et 5 ans, que ça coûte des milliards. Les usines c'est pareil c'est des salles blanches de classe 1 de plusieurs milliers de m². Les usines sont maintenant à température constante toute l'année et même les vibrations sont aussi un problème à ces échelles. Résultats très peu d'entreprise de production (fondeur). Aujourd'hui seul Samsung et tsmc maîtrise le 3nm à des niveaux industriel.
Superbe vidéo
Y a aussi l'architecture risc-v qui est libre et open source mais pas encore au niveau de arm 👍
@lecornubruno2507
6 ай бұрын
ça commence ça commence avec les Si-five ou T-head mais on est plus au niveau du A72 pour le moment
@yamazakikaoru9579
6 ай бұрын
Pas sur qu'il arriveront à bien traiter le sujet :p
Je suis étonné de ne pas voir le lien avec l'annonce de Qualcomm quelques jours avant qui annonçait le dépassement du M2 de beaucoup en mono-thread et ne pas voir non plus la prise en compte de la révolution de Canon sur la gravure des semiconducteurs qui devient énergétiquement beaucoup moins cher avec leur nouveau procédé....
@MultiMustash
6 ай бұрын
Surtout que le NPU de Qualcomm série X est annoncé avec entre 50 et 100 Tops, bien plus balaise que le M3 qui plafonne à 20 Tops.
@bastienx8
6 ай бұрын
@@MultiMustash Les Qualcomm series X sont au stade de prototype, les tests de performance sont fait sur des machines avec une alimentation et un refroidissement conséquent. On ne connait pas les conditions de test de Qualcomm du coup difficile de comparer
Une video sur le RISC V serait intéressante.
juste pour info stable diffusion fonctionne déjà sur apple silicon il tourne sur ios ipad os et mac os en natif via l'app draw things notamment et cela fait presque 1 an que je l'utilise
Stable diffusion marche sur m2. En fait c’est surtout une question de pytorch qui marche sur apple silicon depuis au moins un an
Ca fait pas super longtemps quon a plus que 6go sur un gpu ? Meme mon gpu moyen de gamme achete il y a 5-7 ans en a 8, et le nouveau de l'année derniere en a 16 '-' En plus, avec le resisable bar chez amd et je sais plus comment a sappelle chez intel, on peut partager la ram du cpu avec le gpu non ? Et faire de l'ia sur gpu, cest un peu depasse dans certains cas aussi, il y a des carte d'ia notemment celle de google qu'on peut mettre dans un pc qui sont bien plus performantes dans certains cas
3 nm est inférieur à la longueur d'onde de la lumière utilisée pour la gravure. Et ça, c'est très compliqué.
Pas de gravure avec une pointe, c'est de la photogravure, de la gravure par photographie.
Magnifique!
je sais pas si c'est vraiment mieux d'avoir de l'ia en local? L'ia jusqu'ici c'est beaucoup de puissance de calcul et tres peu de données échangées (juste du texte et parfois des images), ce pour quoi les modeles centralisés qu'on utilise aujourd'hui sont parfaitement adaptés. Là ca risque de faire fondre la batterie de ton mac et on aura surement des resultats moins rapides puisque je pense pas qu'un mac aura des meilleurs perf qu'un giga serveur centralisé, apres à voir ce qu'ils vont nous faire.
Et si ce serait un coup triple! Intégration all in 1 + allégement monétaire chez Intel ET permission à Intel de valoriser l'entreprise... pour le 3mm... ce que je penses de ce que la présentation du m3 démontre : c'est que tout les acteurs sont gagnants
Les derniers AMD ont aussi une puce intégérée pour l'IA "Ryzen AI"
Est-ce que c'est vraiment la latence due au temps de trajet des données qu'ils veulent solutionner ? Ce ne serait pas plutôt les problèmes de confidentialité des données et de disponibilité variable des services centralisés ? En tout cas très intéressant !
@omega6283
6 ай бұрын
Les deux + avoir une IA sur mesure je pense.
@bricewernet6493
6 ай бұрын
Disons une pierre deux coup. Plus de l'avance sur le futur: avec la future envolée du cuivre, moins on aura de bis sur la cm, moins on aura de cuivre. Sans compter que l'architecture 'classique' actuelle est un gâchis de ressources: lire le ssd avec le CPU qui place le contenu en RAM, relire la RAM pour traiter l'info et la mettre en RAM, reprendre la RAM et la renvoyer au ssd, à chaque fois en utilisant le seul bus mémoire et un coeur CPU. Apple travaille à limiter ces copies et échanges. Quand à l'IA, à part NVidia, les annonces marketing ne veulent rien dire: le nombre maxi d'opérations n'est pas bien décrit (int8? Fp32)? Les instructions classiques prises en compte ne sont pas dites (j'ai un accélérateur qui ne supporte pas l'instruction quantité, donc plein de modèles sont inutilisables) ou les limites maxi (kernel 3*3? 8*8?) Sans ces infos, on ne sait pas quels modèles tensorflow existants on peut utiliser et dans qu'elles conditions
@HereIsANewGuest
6 ай бұрын
S’il vendent le matos qui fait le traitement, ça pourrait aussi leur permettre de proposer des services sans devoir financer les gros datacenters derrière ?
wow ! très bien vu
Le design Apple Silicon n’est-il pas pour partie d’origine Arm? Sinon pourquoi des fichiers style arm64e-apple-macos …
c est pour ca que le gain en perf clasic a pas bcp augnenté
J'adore votre émission mais je trouve dommage que le temps de parole des 3 personnes soient toujours 2 + 1. Une personne est toujours là pour figuration, que pour de réelles interventions. Sinon changé rien les sujets, contenu sont tops :)
@robinhoodhimself
6 ай бұрын
Oui, la femme est la figuration et franchement je me demande ce qu'elle fout là, mais les deux autres auraient leurs place chez Cyril Hanouna. Ici c'est de l'info pour la maternelle sur du glacé.
Il y a déjà une app sur IPad qui applique des modèles Stable Diffusion en local sur l’Ipad : DrawThings. Et c’est bluffant de voir ce petit machin générer des images par IA, en local.
Qui a dit que l'entrainement était impossible sur silicon ? Source ?
Est-ce que ces "Neural engines" et autres Gb dédiés à l'IA pourraient être utilisés pour de l'entrainement déporté on-device ? Car là, ils auraient un avantage de malade en termes de capacité d'entrainement sur tout le hardware vendu. Ce qui rendrait encore plus essentiel le fait de consommer peu, pour que ça reste plus scred. Merci pour votre travail de qualité sur cette chaîne
@DavidBoura
6 ай бұрын
Oui c'est le rôle de ces nouveaux NPU, qui sont des puces optimisées pour l'entraînement. Reste à voir ce que ça donnera, en comparaison des énormes clusters de calculateurs utilisés par les grosses boîtes d'IA.
J'aime bien la prononciation "kinotte" au début.
N'y aurait-il pas non plus une stratégie par rapport à la Reram ? En fabless ça eviterai d'avoir acheté un bras, une machine qui devient useless. Après je ne suis pas assez connaisseur
franchement , gg vos enquette ^^ , Il et malheureusement compliquer de comprendre le sens des phrase avec présision lorsque l'on et extérieure aux métier cependant ont peux comprendre le sens globale relativement facilement (mode try harde en fermant les yeux et concentration max mdr) en gros les puces de cher appl auron une ia intégrer directement dans leurs conception si j'ai bien compris..
Un sujet sur les processeurs analogiques Mythic?
Sujet super interresant, je trouve dommage que trop d'images sans grand intérêt aient étés rajoutées au montage ce qui nuit selon moi a la compréhension de la chronique. Peut être faudrait il trouver un plus juste milieu en affichant que des images utiles a la compréhension.
Avant de bosser avec intel et en architecture x86_64, apple bossait avec IBM pour ses macs en archi PPC (power pc). Ce qui arrive maintenant, c'est plus ou moins la même histoire que quand apple est passé du PPC à x86_64 : pour des raisons logistiques. Truc amusant, les chips en archi PPC, on en retrouve encore aujourd'hui sur le marché des serveurs, dans plein de controleurs RAID SAS, chez LSI, ou même intel, qui sont en fait des LSI vendues sous la marque intel, ou les dell PERC.
Le rendement des LLM sur un MAC M2 par rapport a la puissance consommé est incomparable avec un PC et une NVIDIA... J'aime pas Apple pour tout un tas de raison mais ces CPUs me donnent vraiment envie d'avoir a nouveau un Mac.
l'IA on device pose aussi moins de problèmes d'allées et venues de data personnelles sensibles entre un client local et un serveur. Certaines personnes livrent littéralement leur vie sur ChatGPT. Une solution locale pourrait en partie palier ce problème.
Est-ce vraiment intéressant en terme de consommation de porter les L.L.M vers du local ? Et pourquoi est-ce souhaitable ? On développe à intervalle régulier nos infrastructures réseau pour précisément faire davantage avec nos machines, et les data center ont cet avantage de constamment servir les utilisateurs, ce qui n'est pas le cas de nos appareils individuels.
stable diffusion tourne hyper bien sur mac en local.
La principale innovation des M3, c'est leur meilleure segmentation . A 7200$ le M3Ultra toutes options (16 coresCPU 40gpu 128go 8tb) on tord un peu plus le bras de l'acheteur (le 14 coresCPU est 500$ moins cher).
Une petite précision: Certes Intel fabrique aussi ses processeurs mais certains de leurs processeurs sont fabriqués par TSMC donc Intel fait du outsourcing aussi pour certains de se processeurs.
Grosse erreur…… le 3nm c’est pas la finesse de la gravure mais le nom commercial du procédé ! #techcafe
Votre idée qu’Apple pourra utiliser le M3, M4 pour le AI en local est intéressant. Apple utiliser AI déjà beaucoup dans Iphone, Mac M1, M2. Mais de la a ce qu’Apple puisse faire en local ce que CHatGPT fait avec un data center, je pense pas. Je ne sais pas combien de TB or PB of data fut nécessaire pour nourrir le model, mais a mon avis c’est assez gigantesque. Apple a sans doute d’autre idées en tête pour AI (traduction instantanée d’une langue a une autre par example, surtout a travers VisionPro) VisionPro va changer pas mal de chose. C’est Zoom en 3D, avec collaboration via bureau virtuel. A moins qu’Apple traine des models, qui soient downloadable via Apple AI Model Store et immédiatement utilisable sur iPHone ou autre.
J’ai l’impression que le traitement « on device » rentre aussi dans la vision d’Apple de protection des données.
y a pas aussi une dimension écologique dans cette stratégie pour ne pas à avoir à faire tourner des gros data center ?
En vrai ceux qui font du arm aujourd'hui vont dans le même sens il n'y a qu'à voir la sortie des nouveaux snapdragon !
ils ont tiré le gros lot , un peu par vision, un peu par chance? après il restera à voir si on peut avoir la même chose, avec une consommation légèrement supérieure (même 25% je prends)
insane
Je pense pas que dans les 5 prochaine année si l'intérêt est de faire tourner les ia en local. Les données valent de l'or
Bon, il faudrait penser à faire revenir la table, malgré le retour des habitués, vous n'avez pas l'air à l'aise avec vos tablettes dans vos mains.
2:21 Un atome ne fait pas non plus 3nm. En fait quand on parle d’atome, il est difficile de donner une taille exact, car le volume des l’atome dépend de la distance entre son noyau et son nuage d’électron. Ce dernier variant selon l’énergie contenu et la nature de l’atome. Un atome d’hydrogène a un électron donc une couche d’électron. Un atome de lithium a 3 électron et deux couche d’électron (deux électrons sur la première couche, 1 électron sur la deuxième. Le lithium est plus volumineux que l’hydrogène. Par contre, le béryllium (plus lourd que le lithium, est moins volumineux : les deux électrons de la première couche du lithium repousse plus l’électron de la 3ème couche. Le béryllium a plus de charges positives mais autant de d’électron sur la première couche. La première couche est plus attiré par le noyau, et la deuxième l’est de facto aussi car moins repoussé par la première couche. On peut tout de même estimer une moyenne de taille d’atome en comparant la distance entre deux nucleus de même atomes. Mais les distance sont entre 0.1 et 0.5 nm. En aucun cas 3 nm.
Canon a récemment développé une techno de nano impression qui semble prometteuse et qui reduit les coûts à une fraction du prix des bijoux d'asml
@alloquoi3281
6 ай бұрын
Oui mais le débit des machines Canon serait bcp plus faible selon une personne de la profession, 80 plaquettes/h au lieu des 300 plaquettes/h des machines EUV d''ASML ... Affaire à suivre en tout cas.
@yvangascogne
6 ай бұрын
@@alloquoi3281 si le tarif de 15M$ pièce est tenu cela peut valoir le coût s'ils fonctionnent en série. Et les restrictions seront peut-être moindres...
On fabrique des trucs d'une précision atomique et on lance des trucs dans l'espace, puis de l'autre côté on écrit encore sur du papier et on meurt de faim. On vit dans un monde bien étrange.
Merci 〰️🫶🔆
Moi je pensais que c’était une réponse à l’annonce de snapdragon avec le nouveau processeur ARM !!? C’est arrivé aussi précipitamment que la surprise de l’annonce de snap !!??
@dukefsc
6 ай бұрын
Bah oui ils ont sorti le M3 du chapeau juste pour répondre à Qualcomm qui…. Pour l’instant n’a rien sorti ;)
Vers une application des llm et deep learning en peer 2 peer a grande échelle ? 😉
Je me suis toujours dit qu'un Jarvis perso ce serait un truc de ouf mais je refuse de me servir des LLM et "IA" tant que les données partent je sais pas où et que tout n'est pas en local. Clairement, s'ils arrivent à le faire c'est le genre de truc qui pourrait me faire acheter du apple
Je me pose des questions sur les possibilité d'espionage des client Apple ou Microsoft avec l'arrivé des IA dans nos OS.
@Budabudable
6 ай бұрын
Quand c'est gratuit c'est toi le produit & quand c'est payant c'est toi le client
@Ssylvaniane
6 ай бұрын
Ils n'ont pas besoin de ça : la "télémétrie" des OSs leur permettrais de faire ça. Mais les services internet et les réseaux sociaux nous espionnent déjà.
C'est très intéressant, cependant, la taille de la technologie depuis environ 15/20 ans ne correspond pas du tout à la taille physique des transistors. IBM veut sortir une technologie de transistor de 2 nm, pourtant, la longueur minimale entre le drain et la source pour cette technologie est de 40 nm. C'est une erreur, bien qu'en tant qu'expert en conception de circuits intégrés, j'aie cru.
A savoir il n'y a que 2 machines capable de graver en 3 nanomètres , EUV 3nm N3 de Samsung & NE3 de TSMC , a ce jours .
Cette chaîne est remarquable. Vraiment.
Tiffany elle habille bien une pièce n'empêche
Today's guest isn't well aware of things The term "3 nanometer" has no relation to any actual physical feature 3nm is a marketing term, real world size is: 48nm for the gate pitch and 24nm for the metal pitch cf en.wikipedia.org/wiki/3_nm_process So when it come to explantation outside of my knowledge how can we trust him?
Ce qui est surprenant aussi c’est qu’ils fassent des comparaisons entre la M3 et la M1, et pas la M2 de mémoire
@tbfrstudio5416
6 ай бұрын
Ça fait juste un plus gros écart
Je croyais qu'on parlais d'imprimer les puces pas de les graver 😅 Après ch'uis pas un spécialiste et je me goure probablement mais j'ai toujours cru ça 😅
@dpixel8535
6 ай бұрын
Enfaite aucun des deux, le principe de production des puces repose sur la supperpositions de différentes couches (souvent de la photolitographie), qu'on appelle desfois gravure.
Mon etudiant qui travaillait chez intel en 2010 : on a atteint la limite des nanos. La suite c'est la biotech
DiffusionBee est sortie il y'a 1 ans et marche sur les puces M pour Stable Diffusion, et le port en CoreML par Apple est sortie il y a plusieurs mois. Bonne video malgre tout
C'est vraiment fascinant un processeur.
Le sourir de madame est totalement passionant
La vidéo est accélérée non ?
Intéressant