IA, l’ingrédient magique

Sam Altman au pays des puces électroniques

Bonjour !

Comment ça va ?

Ce dimanche, on va parler des puces.

Alors pas des puces de lit, hein, mais du marché impitoyable des semi-conducteurs, c’est à dire de l’une des faces cachées de l’iceberg “Intelligence Artificielle”.

Tu vas voir, ça se lit comme un roman policier.

Commençons pas deux nouvelles un peu folles…

Je suis Benoît Raphaël, et un dimanche sur deux, avec Thomas Mahier (ingénieur en IA) et FlintGPT (robot un peu simplet mais gentil), je te propose de mieux comprendre et maîtriser l’intelligence artificielle.

Ce dimanche voici comment tu vas devenir plus intelligent avec Génération IA :

– Tu vas comprendre en 5 minutes le business et la géopolitique féroce du vrai pétrole du futur…

– Tu vas découvrir une technnique “secrète” pour ChatGPT, tellement simple que je me demande pourquoi je n’y avais pas pensé avant.

– Tu vas comprendre pourquoi on a dit cette semaine que l’IA de Google était “woke”

– Je te montrerai un petit outil qu’on a développé en interne, tu me diras ce que ça t’inspire…

Ces deux dernières semaines, tandis que le monde de la tech s’extasiait devant les prouesses du dernier outil d’IA de Google (Gemini 1.5, le prochain concurrent de ChatGPT capable de lire avec précision des documents de 3000 pages) ou de celui d’Open AI (Sora, capable de générer des vidéos d’1minute d’une qualité visiblement époustouflante), deux infos surprenantes, (mais moins médiatisées) m’ont mis la puce à l’oreille, si j’ose dire.

J’ai compris que les véritables enjeux de la révolution en cours ne sont peut-être pas tant dans le code généré par ces super acteurs de l’IA, que dans l’infrastructure qui le soutient. Et en particulier, les puces électroniques qui permettent les calculs gigantesques nécessaires pour faire tourner ces IA.

La première info surprenante m’a surtout permis de me rendre compte concrètement de l’importance de ce qu’on appelle le “hardware” (la partie physique de la technologie) par rapport au “software”, c’est à dire le logiciel. Par exemple les “IA” (ou plutôt les “grands modèles de langage”) qui alimentent ChatGPT ou Gemini, comme GPT-4, GPT-3.5 ou Gemini Pro, sont du “software”. Bien.

Alors je te propose l’exercice suivant. Va sur le site de Groq, choisis ton modèle de langage (tu as le choix entre Mixtral ou Llama qui sont des concurrents open-source des modèles GPT) et rentre une instruction (prompt). Choisis le modèle mixtral8×7b instruct (modèle français de la startup Mistral). Par exemple celle-ci :

Explique à un collégien les principaux concepts de la physique quantique.

Puis va sur ce site, choisis le même modèle et entre le même prompt.

Et compare la vitesse de réponse.

Avec Groq, tu obtiens la réponse de façon quasi simultanée (1 seconde). Tandis qu’avec l’autre site (Perplexity), tu obtiens la réponse en 6 secondes. Si tu essaies avec GPT-4 (ChatGPT), tu obtiendras une réponse en 20 secondes.

Pourquoi une telle différence ? La différence vient de la puce qui est derrière.

Jonathan Ross

L’histoire de Groq est passionnante. Cette startup a été créée par Jonathan Ross. Un ingénieur qui a participé à la création de la puce d’IA “TPU” de Google, grâce à laquelle l’IA Alphago a battu le champion du monde de GO Lee Sedol en 2016. Aujourd’hui, les puces spécialisées de Groq surpassent toutes les autres en rapidité, même celles de NVidia (le leader incontesté du marché avec ses puces “GPU” que tout le monde s’arrache). C’est David contre Goliath. Tout le secteur s’est affolé.

Un autre qui a compris l’enjeu de l’importance des puces dans l’écosytème du futur, c’est Sam Altman. Le fondateur d’OpenAi (ChatGPT) envisagerait (selon le Wall Street Journal) de lever 7000 milliards de dollars pour mettre la main sur le marché des puces. L’information est complètement folle, mais elle est à la (dé)mesure de l’état d’esprit des milliardaires de la Silicon Valley.

Pour te donner une idée, avec 7 trillions de dollars, tu peux racheter TOUT le marché des semi-conducteurs (des puces si tu veux) et il te restera de l’argent pour racheter Meta. NVidia, qui est le leader du marché des puces, a dépassé Alphabet (Google) et Amazon, la semaine dernière. Sa valorisation a doublé en neuf mois, suite au boom de l’IA générative.

Bon, ça fait beaucoup beaucoup d’argent, même pour les milliardaires américains. Du coup, Sam Altman est allé voir les rois du pétrole (en leur disant “c’est le nouveau pétrole, boomers !”) des Emirats Arabes Unis. Et il est aussi allé voir le patron du Japonais SoftBank qui a décidé d’investir 100 milliards dans ce marché plus que stratégique.

(Image générée par Midjourney)

Je me suis donc amusé à tirer pour toi le fil de ces histoires, et j’ai découvert un univers fascinant, digne d’un roman de Tom Clancy.

D’ailleurs, s’il y a UN SEUL livre que tu dois lire sur le sujet, c’est “Chip War” de Chris Miller (2022). Dans cette passionnante enquête, tu découvriras comment s’est développé ce marché, depuis la fin de la deuxième guerre mondiale, sur fond d’enjeux militaires et géostratégiques. Mais aussi comment le marché des semi-conducteurs (la “matière première” des puces si tu veux) est devenu la plaque tectonique extrêmement complexe du monde d’aujourd’hui et de demain. Tant économique que géopolitique. Et pourquoi cette plaque est extrèmement instable et pourrait mener à une guerre mondiale impliquant les Etats-Unis et la Chine.

Je ne peux pas tout te raconter ici, sinon ça prendrait plusieurs pages, mais je vais tenter de te donner les éléments clés qui te permettront de comprendre ce qui est en jeu.

Qu’est-ce qu’une puce ?

Un wafer de silicium (image générée par Midjourney)

Une puce, ou microprocesseur, est un composant électronique qui contient des millions, voire des milliards, de transistors interconnectés fabriqués sur un petit morceau de matériau semi-conducteur, généralement du silicium. Les puces effectuent des calculs et exécutent des instructions pour une variété d’appareils électroniques. En anglais on dit “chip” parce que pour les fabriquer on découpe un lingot de silicium en petites tranches (qu’on appelle “wafers”) et qui font penser (mouais…) à des copeaux (“chips” en anglais).

Il y a plein de “puces” différentes. Et elles équipent la plupart des appareils du quotidien (de ta voiture à ton smartphone, en passant par ton frigo).

Mais pour faire tourner les modèles d’IA, il faut du très haut de gamme et du très petit (autour de 5nm). Très peu sont capables de les produire.

Les puces clés du moment sont les GPU (processeurs graphiques très puissants, marché dominé par NVidia avec ses H100 et H200 ), les TPU (une technologie plus spécialisée inventée par Google pour Google) et les fameux LPU hyperspécialisés de Groq.

Qui domine le marché des puces ?

Personne. A priori, ce sont les Américains, sauf que c’est beaucoup plus compliqué que ça. Il y a plein d’acteurs tous interdépendants. Je vais te montrer un schéma pour que tu comprennes :

(Infographie : App Economy Insights)

Que dit ce schéma ? Que pour fabriquer une puce il faut : la designer (c’est le rôle des “fabless companies” comme NVidia aux Etats-Unis), la fabriquer (c’est le rôle des “foundries” comme TSMC à Taïwan), et pour la fabriquer il faut un équipement de très haute technologie (c’est le rôle des équipementiers comme ASML aux Pays-Bas).

Et personne ne fait les trois en même temps, sauf Intel (Etats-Unis) et Samsung (Corée du Sud, alliée des Etats-Unis) qui designent et fabriquent leurs propres puces. Pour la petite histoire, Samsung qui était, avant la guerre un simple marchand de poissons et de légumes, est devenu, avec le soutien des Américains, un des quatre leaders des semi-conducteurs. Et la seule vraie alternative à TSMC.

(Infographie : App Economy Insights)

Au milieu de ce bordel, il y a la Chine, qui est complètement à la ramasse sur les puces d’IA. Les Etats-Unis ont interdit aux entreprises de sa sphère d’influence de lui vendre les puces haut de gamme nécessaires pour faire tourner les algorithmes les plus puissants. Mais elle reste tout de même un acteur clé des semi-conducteurs, notamment dans la fourniture des matières premières et dans l’assemblage final des puces. Du coup, la Chine a restreint ses exportations de deux minéraux rares (dont le Gallium, utilisé dans les puces, et dont la Chine détient 80% du marché) pour des questions de “sécurité nationale”.

Le problème un peu inquiétant c’est que, au coeur de ce système, il y a la petite île de Taïwan. Dont la société TSMC (qui est donc une “foundry”) est le fleuron national.

Tu te souviens du paquebot qui s’était échoué dans le Canal de Suez en 2021 ? Et qui a bloqué une partie du commerce international ? On a réalisé que 10% du trafic mondial passait par ce petit canal de rien du tout.

Eh bien TSMC, détient à elle seule 37% du marché de la fabrication des puces. Donc si TSMC s’écroule, c’est tout le marché qui s’effondre.

Le porte-conteneur Ever Given bloquant le canal de Suez, le 26 mars 2021 (Photo GIGN)

Or Taïwan a deux problèmes :

  • La Chine veut s’en emparer (pour des raisons que tu peux donc comprendre aisément)

  • Elle est située au sommet d’une ligne de faille qui, en 1999, a provoqué un tremblement de terre d’une magnitude de 7,3 sur l’échelle de Richter.

Donc, en gros, il suffirait d’un blocus, d’un missile, ou d’un gros tremblement de terre pour que ce monde s’arrête de tourner.

Et là, tu vas peut-être te poser une question : pourquoi Taïwan ? Pourquoi cette petite île si fragile ?

Haha, bonne question. L’histoire est fascinante.

Morris Chang a aujourd’hui 91 ans.

En fait, tout est parti d’un projet de délocalisation, en 1969, de la production des puces par Texas Instruments. Pour des raisons économiques, mais pas que. A l’époque, les pays d’Asie tombaient comme des dominos sous la coupe communiste, et les USA étaient embourbés dans la guerre du Vietnam. Taïwan avait besoin d’assurer son avenir économique mais aussi sa stabilité politique face à la Chine. Les Etats-Unis n’avaient aucun intérêt majeur à défendre ce mini-territoire. En revanche, ils seraient beaucoup plus motivés pour défendre Texas Instruments s’il s’y installaient.

L’acteur de cette délocalisation ? Morris Chang. Un Américain d’origine taiwanaise, qui travaillait chez Texas Instruments au moment de la délocalisation. Plus tard, dans les années 80, sous l’impulsion du gouvernement taiwanais (qui investira pour 48% du capital), c’est lui qui créera TSMC à Taïwan et en fera le chainon clé de l’écosystème mondial.

Et qui d’autre a investi dans TSMC ? Les Hollandais ! C’est à dire Philips à l’époque. Qui dans le même temps, créait ASML, laquelle fournit aujourd’hui 100% des équipements très haut de gamme de photogravure (la technologie “extreme ultraviolet lithography”), essentiels pour fabriquer les puces d’IA.

Qu’ai-je retenu de cette exploration ?

  • Que l’IA est beaucoup moins virtuelle qu’on ne le croit.

  • Que derrière l’IA, le militaire n’est jamais loin.

  • Qu’après la folie des délocalisations dans années 70-90, politiques et industriels commencent à se rendre compte de leur erreur.

Pour aller plus loin

Poursuivre, je te propose ces liens :


L’OUTIL GRATUIT

En attendant la sortie de la version 3 très prometteuse de Stable Diffusion (l’un des trois générateurs d’images les plus utilisés du moment), qui est encore sur liste d’attente, tu peux jouer avec l’une des dernières technologies issues de leur laboratoire : Stable Cascade. Cette nouvelle architecture (encore au stade de la recherche) permet d’avoir des images très rapidement (environ 15 secondes), et qui respectent (selon leurs tests) mieux tes instructions que les versions actuelles de Stable Diffusion.

Tu peux le tester ici sur cette plateforme open-source. Du coup, ça te fait un générateur d’images de qualité très correcte, et qui est surtout gratuit et très rapide. Note cette adresse dans tes favoris !


L’IMAGE

L’IA de Google est-elle “woke” ?

Cette histoire a pas mal agité les médias et les médias sociaux cette semaine. L’Intelligence artificielle générative de Google, Gemini, a été prise en flagrant délit de génération d’images, certes intéressantes en terme de diversité, mais complètement anachroniques au regard de l’histoire. Quand on lui demandait de générer des portraits de rois européens, ou des pères fondateurs des États-Unis, ou encore d’un soldat allemand en 1943, elle proposait des personnages de couleur. L’extrême droite américaine s’en est donnée à coeur joie. Accusant Google de “wokisme” (c’est à dire selon elle d’un anti-racisme radical). Conséquence : Google a suspendu la capacité de son IA à générer des portraits, jusqu’à ce que le problème soit résolu.

Au-delà de la polémique, cette histoire nous apprend beaucoup sur les biais contenus dans les données d’entrainement des IA, en particulier des IA d’images. J’en avais déjà parlé ici : Dall-E 3 et Midjourney présentent des biais racistes même quand on leur demande le contraire !

Pour corriger ce pêché originel, Google Gemini, a tenté de contenir ces biais par un pansement. C’est à dire un réglage a posteriori pour qu’elle produise des images reflétant la diversité.

Dall-E 3 (intégré dans ChatGPT) a des restrictions similaires, à l’aide d’un pre-prompt sommaire qui invite le modèle a réfléter la diversité.

Sauf que, pour ce qui concerne Gemini, ce n’est pas toujours opportun. Notamment pour certaines représentations historiques.

Au fond, ce n’est pas tant le “wokisme” le problème, que le biais raciste contenu dans les données qui alimentent les IA génératives.


LE PROMPT

Connais-tu la technique de l’auto-réflexion ?

Comme tu le sais sans doute, les chatbots d’IA comme ChatGPT ne réfléchissent pas. Ils sont auto-régressifs. C’est à dire que ChatGPT prédit sa réponse par rapport à sa connaissance interne et à ta requête.

En général, pour améliorer sa réponse, tu interagis avec lui ou tu retravailles ton instruction (“écris ça”, “maintenant ajoute ça…” etc), mais ce n’est pas toujours satisfaisant et ça prend du temps.

L’idée de l’auto-reflexion, est de demander au modèle de faire lui-même ce travail d’auto-évaluation et de correction, pour obtenir de meilleurs résultats.

J’ai trouvé cette technique très simple, rapide et hyper efficace !

Voici un modèle d’instruction (“prompt”) que tu peux utiliser et tester avec la plupart des chatbots d’IA comme ChatGPT :

[INSÈRE TA REQUÊTE, par exemple : "qu'est-ce que l'inférence ?"] 

1) Rédigez un plan pour répondre à la requête suivante de façon très simple  
2) Comment ce plan pourrait-il être meilleur ?
3) Appliquez cette réflexion à au plan que vous avez élaboré 
4) Rédigez une réponse à la requête 
5) Comment pourriez-vous améliorer la réponse ?
6) Rédigez la réponse améliorée

INVESTIS EN TOI

Elle est là, youpi

Ah oui, sinon, la formation la plus complète du moment pour apprendre à maitriser ChatGPT est sortie la semaine dernière. Enfin !

Hum… “la formation la plus complète”, haha : je suis vraiment nul en marketing moi.

Disons que je suis juste super fier de mon travail !

Elle compile tout ce que nous avons appris, Thomas et moi, sur le chatbot le plus célèbre du monde, pour t’aider à en faire un assistant vraiment utile.

La formatio, c’est en fait DEUX formations. Elles donnent accès à plus de 50 vidéos courtes organisées en deux niveaux :

1) Apprendre les bases avec le Kit de démarrage.

2) Passer au niveau expert avec le Kit avancé : comment exploiter les capacités de “raisonnement” par étapes de GPT-4, comment faire des recherches efficaces, créer des images spectaculaires avec Dall-E 3, analyser des fichiers et même t’offrir les services de petits assistants personnalisés avec les “Custom GPTs” (des mini ChatGPT à créer soi-même).

Comme toujours, tu bénéficieras de ces formation ET de leurs mises-à-jour sans date limite. Elles te donnent accès à un guide des prompts complet (que je mets régulièrement à jour) et au groupe d’entraide WhatsApp.

Déjà plus de 600 personnes en ont bénéficié.

Pour te remercier de lire cette lettre, je te propose une réduction exceptionnelle de 30% (valable une semaine pour 20 personnes). Il suffit de cliquer sur ce lien !


On construit cette lettre ensemble !

Quels sont les retours sur la dernière lettre sur les deepfakes ?

🟩🟩🟩🟩🟩🟩 Top ! (95,65%)

⬜️⬜️⬜️⬜️⬜️⬜️ Bien mais… (3,42%)

⬜️⬜️⬜️⬜️⬜️⬜️ Bof… (0,93%)

322 Votes

Parmi les commmentaires, il y a celui de JM, qui se demande comment il peut nous soutenir financièrement :

Alors c’est vrai que cette question du modèle écomique, on ne l’a pas encore complètement fouillée. Pour l’instant, ce sont les formations qui nous financent et les abonnements au service de veille Flint Business. On réfléchit beaucoup à tout ça, parce qu’on adore faire ce travail de pédagogie critique, mais on se laisse le temps d’installer une vraie audience. Et on continue d’expérimenter.

Par exemple, tu vois, ce mois-ci, Thomas a développé un petit outil de veille interne. Il s’appelle Jeff. Chaque jour, il m’envoie un brief très court des actus que je ne devais pas manquer sur l’intelligence artificielle.

Il m’est vite devenu indispensable. Mais qu’en faire ? Tu trouves ça intéressant ? Ça pourrait être un service payant ? Ou au contraire une facilité gratuite pour gagner en audience et rendre payant un dossier du mois ? Ou tout mettre en gratuit et tu paies ce que tu veux si tu veux ? Ralalala…


Voilà ! A toi de voter !

Comment as-tu trouvé cette lettre ? Vote ici et laisse tes commentaires pour nous aider à nous améliorer ! Dis moi aussi ce que tu aimerais voir en plus ou en moins.

Merci d’avoir pris le temps de me lire ! Je te souhaite une magnifique journée au pays des humains !

 ❤️ Benoît, Thomas et FlintGPT.