

Discover more from The Storyline
Doit-on avoir peur de l'IA ? Ma discussion avec Sam Altman 👾
En 2017, j'interrogeais Sam Altman sur le futur de l'intelligence artificielle. Bilan des courses, 6 ans plus tard
🎧 Thinking Bout You - Frank Ocean - pour se détendre au soleil ☀️
Hello tout le monde,
J’espère que cette édition de la newsletter vous trouvera en pleine forme et prêts à profiter des beaux jours qui reviennent à toute vitesse !
De mon côté, dans l’édition précédente, je faisais allusion à mes soucis de santé. Depuis quelques semaines, j’essaie de reprendre doucement mes marques dans le « monde des vivants » comme l’appelle poétiquement Suleika Jaouad, après près d’un an de lutte contre le cancer. Après le combat contre le corps, c’est un nouveau défi encore plus difficile que j’affronte : celui contre un mental qui panique sans prévenir, qui a peur, qui doute en permanence, qui m’amène son lot pensées difficiles au quotidien.
Je ne vais pas vous mentir : je pensais que la chimio et la radiothérapie étaient les épreuves les plus difficiles à traverser pour moi, mais aujourd’hui je réalise que l’après-maladie est d’une violence d’une magnitude encore plus forte. Heureusement, j’ai la chance d’avoir une famille et des amis fabuleux qui m’épaulent au quotidien et me ramassent quand je me prends les pieds dans le tapis. Dédicace à celles et ceux d’entre eux qui, en plus, lisent cette newsletter 😘
Je dédie donc autant de temps que possible à réconcilier mon corps et mon esprit, à me refaire confiance, à réapprendre à vivre "“normalement”, à faire du sport… Tout ça depuis la belle ville de Marseille que je découvre et où j’ai posé mes valises de manière permanente. Si vous êtes dans le coin et avez envie de prendre un café ou un verre, écrivez-moi en réponse à cet email !
Bref - tout ça pour vous dire que cette édition est moins longue que d’habitude, car j’ai moins de temps à y dédier 🙂
Depuis quelques mois, j’observe (de loin) l’excitation et la peur qui entourent les intelligences artificielles, notamment génératives, et le buzz autour de DALL-E, ChatGPT, … Par un heureux hasard, une amie m’a rappelé qu’en 2017, j’avais interrogé Sam Altman (le “père” de ChatGPT) en live sur les sujets de responsabilité et d’éthique liés à l’évolution de l’IA. En réécoutant sa réponse et au vu de la situation actuelle, je me suis souvenue à quel point il est important de questionner en profondeur les implications de la technologie sur nos métiers, nous autres entrepreneurs, communicants et créatifs. Je vous partage donc mes propres usages de ChatGPT et des réflexions sur le futur de son usage.
Bonne lecture !
Noémie
Brain food 🧠
Des signaux faibles (ou forts) révélant les liens complexes entre marques, individus et nouvelles technologies - et l’impact sur nos jobs et nos modes de vie.
🧪 Elizabeth Holmes is back. Et cette fois, elle veut qu’on l’appelle Liz Holmes et qu’on oublie tout de ses dérives avec Theranos !
🚐 Les nomades digitaux, futurs artisans itinérants ? C’est en tout cas le scénario posé dans cette brillante édition signée par Noémie Aubron de La Mutante, une newsletter dédiée à la prospective.
🤖 ChatGPT vs humanité. Les intelligences artificielles marquent-elles la fin de notre civilisation ? C’est en tout cas la peur de Yuval Noah Harari, auteur du génial Sapiens.
👟 Adidas et Ye dans la tourmente. Adidas s'attend à enregistrer une perte d'exploitation de plus de 700 millions d'euros en 2023, en grande partie à cause de son stock d’invendus de chaussures Yeezy (créées par Kanye West aka Ye). La société avait annoncé en novembre 2022 arrêter son partenariat avec l’artiste, accusé de propos antisémites, ainsi que la production de chaussures.
🥊 Tacklé par une IA. Un photographe allemand a demandé à ce qu’une photo de lui soit retirée d’un set d’images utilisés pour nourrir une IA. Il s’est fait poursuivre en justice en réponse et doit payer des frais pour “revendication injustifiée de droits d'auteur”. Lunaire.
📰 Fake news un jour, fake news toujours… Un homme a été arrêté en Chine pour avoir utilisé ChatGPT pour créer et diffuser de fausses informations sur le crash d’un train.
Pause café ☕
Des informations random pour se marrer, se détendre ou s’inspirer
🛍 Shopping is the answer. Ou pas ? J’ai bien ri en voyant ce tweet qui a touché une corde sensible…
🧬 Avoir deux parents, c’est ringard. Ce jeune bébé est né au Royaume Uni de la combinaison de l’ADN de non pas deux, mais trois personnes !
Pour celles et ceux qui nous ont rejoint depuis le mois dernier, bienvenue ! Dans cette rubrique, je partage mon expérience d’écriture d’un livre sur le sujet des communautés de marque avec les éditions Eyrolles.
Grosse avancée du côté du livre ! Après avoir pris en compte les retours de mon éditrice Chloé, j’ai posé le point final et renvoyé le manuscrit complet aux éditions Eyrolles ! 🥳
Prochaine étape : sa mise en page et sa relecture pour s’assurer qu’aucune coquille ne s’est glissée dans le texte ! C’est ce que l’on appelle « les épreuves ». Une fois passées, le livre sera envoyé en impression et sera disponible à la rentrée en septembre.
Prochaine étape bis : je commence à me pencher sur l’organisation de la campagne de lancement du livre, car j’ai très envie de faire du bruit et d’avoir un maximum de visibilité ! J’espère vous compter parmi mes futurs lecteurs 😉 Voici mes idées pour une campagne efficace :
Organiser des pré-commandes du livre avant sa publication et offrir des bonus pour toute pré-commande. Pour l’instant, j’envisage d’offrir aux personnes pré-commandant le livre un accès à des ressources exclusives (toolbox de la création de communauté, médias et créateurs de référence à suivre, invitation à une masterclass privée avec moi, accès aux interviews d’experts qui ont contribué à écrire le livre…) 👉 vous avez des idées de contenus bonus ou des choses que vous aimeriez recevoir ? Dites-le moi dans le formulaire de feedback de la newsletter ici !
Participer à des émissions de podcast / YouTube / masterclasses & conférences en ligne pour faire la promo du livre 👉 Si vous avez un média et que vous voulez que j’intervienne pour parler communautés, faites moi signe 😉
Créer du contenu exclusif diffusé via The Storyline et Komuno
Organiser une soirée de lancement à Paris chez Eyrolles - because qui n’aime pas faire l’apéro ? Héhé
Voilà pour la suite du projet ! Si vous avez envie de m’aider / me donner des idées / me faire intervenir sur votre chaîne / podcast / blog… N’hésitez pas à me faire signe ! En répondant à la newsletter ou en répondant au formulaire de feedback
Merci 💖
Une IA pour tous - mais contrôlée par qui ? 🤔
Bon, je vous ai un peu hypés en utilisant le mot « interview » pour parler de mon interaction avec Sam Altman. J’avoue, c’était une vile stratégie ‘putaclic’ - mais la réalité n’en est pas si loin !
Il y a quelques semaines, j’ai reçu un message d’une amie me disant qu’elle m’avait aperçue au détour d’une vidéo publiée par The Family en 2017 (il y a 6 ans) - une interview de Sam Altman, le CEO d’OpenAI (la maison-mère de ChatGPT, GPT-4, etc), alors de passage à Paris.
Je n’avais aucun souvenir d’avoir déjà vu Sam Altman en personne - et encore moins de lui avoir posé une question en live ! Il n’en fallait pas plus pour susciter ma curiosité ! J’ai donc regardé la vidéo (pour la question, vous pouvez regarder le passage à partir de 19:45).
J’ai été surprise de réaliser à quel point ma question, posée il y a plus de 6 ans et qui concerne les sujets de gouvernance et d’éthique posés par l’intelligence artificielle, était d’actualité aujourd’hui (oui, je me jette des fleurs au passage, hop 💐).
Voici (traduit en français) le contenu de notre échange :
👩 NOÉMIE : « Tout à l'heure, vous avez parlé de construire des ordinateurs et des machines plus intelligents que les hommes. Ma question est la suivante : que se passera-t-il exactement lorsque nous en serons là et que nous disposerons d'une technologie qui surpasse les capacités des gens au quotidien et que l'ensemble de la société dépend de cette technologie, mais que seules quelques personnes peuvent la comprendre et la maîtriser ? Je pense notamment à la capacité d'influencer le comportement des clients, de faire faire aux gens des choses qu'ils ne réalisent pas vraiment... Qui sera responsable de poser les limites de cela ? »
🧑 SAM : « C'est une excellente question, à laquelle je réfléchis tous les jours. Que se passera-t-il lorsque les ordinateurs seront plus intelligents que les humains ? Comment allons-nous contrôler cela, qui va décider ?
La raison pour laquelle nous avons lancé OpenAI, c’est que je ne veux pas vivre dans un monde où une seule entreprise contrôle toute l'intelligence de l'univers et où l'humain le plus intelligent n'est qu'un milliardième plus intelligent qu'une IA. Je ne veux pas qu'une entreprise possède cela. Je pense que c'est quelque chose qui devrait être détenu collectivement. OpenAI est donc une association à but non lucratif. Nous n'avons pas l'obligation de maximiser les profits des entreprises, ni rien de ce genre.
Notre seul objectif est de faire en sorte que tout se passe bien pour tout le monde. Et de distribuer les bénéfices et le contrôle à tout le monde. Nous ne pensons pas que les quatre personnes qui écrivent le programme sont celles qui méritent de prendre toutes les décisions sur ce qui se passera par la suite, et nous ne pensons pas non plus que ces personnes devraient bénéficier de tous les avantages économiques. Nous voulons donc que ce soit une extension collective de la richesse humaine, où nous décidons tous de ce qu'il advient de cette richesse et où nous en profitons tous. Je n'ai pas beaucoup de temps libre, je n'ai pas l'habitude de créer d'autres entreprises, mais celle-ci m'a semblé si importante, ce changement technologique qui appartient aux gens et non à une seule entreprise, que j'y consacre maintenant un jour par semaine ou deux. »
La réponse de Sam Altman est pleine de raison, de bienveillance et il semble peser chacun de ses mots. Dans son discours, il partage notamment l’idée qui est la pierre angulaire de la fondation d’OpenAI : le fait que l’entreprise ait décidé, dès ses débuts, de se constituer comme une association à but non lucratif et de diffuser ses produits (dont GPT-3, ChatGPT, etc) en open sources. Autrement dit, d’ouvrir le capot de l’algorithme, pour ne pas créer une boîte noire et permettre au plus grand nombre de s’emparer des opportunités liées à la compréhension et la maîtrise des nouvelles technologies.
Sam Altman s’enflamme un peu et va même jusqu’à parler d’une extension collective de la richesse humaine, de changement technologique appartenant aux gens. Dans la théorie, la démarche est belle : décorréler la création d’un algorithme surpuissant d’intelligence artificielle de la recherche de profit et permettre à chacun de s’approprier cet algorithme. Permettre la propriété collective et la co-construction, plutôt que la centralisation du pouvoir.
Mais dans la pratique, c’est une toute autre réalité qui se dessine aujourd’hui…
En 2019, soit quatre ans après sa création en tant qu’association à but non lucratif, OpenAI est devenue est devenue une société à but lucratif appelée OpenAI LP, contrôlée par une société mère appelée OpenAI Inc. Quelques mois après ce changement, le géant Microsoft injecte 1 milliard de dollars dans la société.
En janvier 2023, Microsoft remet la main au portefeuille, cette fois-ci à hauteur de 10 milliards de dollars, dans la société. Et deux mois plus tard, OpenAI a annoncé (relativement discrètement) son intention de rétropédaler sur le parti pris de proposer ses produits en open source. Ainsi, comme l’écrit The Verge, « OpenAI a partagé de nombreux résultats de tests et d'analyses comparatives pour GPT-4, ainsi que des démonstrations intéressantes, mais n'a fourni pratiquement aucune information sur les données utilisées pour entraîner le système, ses coûts énergétiques, ou le matériel spécifique ou les méthodes utilisées pour le créer. »
En d’autres termes, OpenAI a donc effectué un véritable virage à 180 degrés (à 130 à l’heure sur l’autoroute) : de modèle open source et non-profit en 2015, elle est passée à société lucrative et privée (avec Microsoft en actionnaire) en 2023. Pas exactement le meilleur statut pour délivrer sur la promesse faite par Sam Altman à Paris en 2017, donc 🤨
La justification d’Ilya Sutskever, Chief Scientist et cofondateur d'OpenAI, pour expliquer cette décision de fermer le capot de l’algo ? Un double argument, financier 💸 et sécuritaire 👮♀️ Comme il l’explique à The Verge :
« En ce qui concerne le paysage concurrentiel, la concurrence est rude. GPT-4 n'est pas facile à développer. Il a fallu que la quasi-totalité de l’équipe d'OpenAI travaille ensemble pendant très longtemps pour produire ce résultat. Et il y a beaucoup d'entreprises qui veulent faire la même chose, donc d'un point de vue compétitif, on peut voir cela comme une maturation du domaine. »
« En ce qui concerne la sécurité, je dirais qu'elle n'est pas encore une raison aussi importante que la concurrence. Mais cela va changer, et c'est essentiellement pour les raisons suivantes. Ces modèles sont très puissants et le deviennent de plus en plus. À un moment donné, il sera assez facile, si l'on veut, de causer beaucoup de dégâts avec ces modèles. Et à mesure que les capacités augmentent, il est logique de ne pas vouloir les divulguer. »
Ces arguments sont bien sûr recevables. Mais la quête de profit et la peur des dérives justifient-ils de renoncer à l’idéal de liberté absolue sur l’algorithme et d’extension collective de la richesse humaine rêvé par Altman ? Vaste question. Qui n’a pourtant pas fait couleur autant d’encre qu’elle aurait dû…
Car au-delà du cas d’OpenAI, se dessine une question plus large : celle des limites que nous devons (ou non) poser à la technologie. Et au-delà du sujet de la technologie, je la vois comme un questionnement encore plus large de notre modèle de société, qui promeut et encourage une course à l’innovation, au progrès et à la croissance à tout prix.
Et les gouvernements de nombreux pays ont commencé à réagir, en prenant parfois des mesures drastiques pour protéger leurs citoyens. Mais ces mesures sont-elles la solution ?
La levée de boucliers européenne 🛡
Le 31 mars 2023, l’Italie a exigé qu'OpenAI cesse d'utiliser les informations personnelles des internautes dans ChatGPT, pour des raisons de sécurité. En conséquence, OpenAI a coupé l’accès à ses produits aux italiens.
L’Espagne, la France et l’Allemagne ont également lancé des recours (plaintes, pétitions, etc) pour ouvrir le dialogue autour d’un contrôle plus avancé des outils d’intelligence artificielle (avec, bien sûr, OpenAI en plein dans le viseur).
La censure est-elle pour autant la solution ? Pas si sûr. S’il y a bien une chose qui est certaine, c’est que des stratégies de contournement permettront toujours d’accéder à ces outils (comme en témoignent les citoyens chinois). Mais ces accès non régulés peuvent s’avérer dangereux pour les utilisateurs (accès à des fausses informations, manque de compréhension des bonnes pratiques d’usage de l’IA, etc).
La réaction rapide et brutale des législateurs européens prouve une chose : les conséquences possibles de l’adoption fulgurante d’outils comme ChatGPT inquiètent dans les plus hautes sphères. Et cette inquiétude n’est pas à prendre à la légère. Face à l’émerveillement quand on utilise ChatGPT pour la première fois, on a tendance à oublier qu’en réalité :
l’IA n’est pas entièrement fiable : elle est le reflet des failles humaines et a même tendance à raconter n’importe quoi à ses utilisateurs lorsqu’elle n’a pas la bonne réponse à une question. J’ai moi-même expérimenté de nombreuses fois des réponses incohérentes, voire contradictoires, quand j’ai voulu utiliser ChatGPT pour écrire mon livre ;
l’IA ne peut pas remplacer totalement le travail humain. Écrire un article de qualité, par exemple, demande du temps, de la vérification de sources et le travail d’une tonalité éditoriale plus poussée que ce que produit (à date) ChatGPT.
Mais alors, allez-vous me demander, quels peuvent être ses usages ? Doit-on l’interdire ? Comment en faire un outil utile, qui nous rende plus productifs au quotidien ?
Je vous ai listé quelques uns des usages que j’ai pu faire de ChatGPT ces derniers mois et qui se sont avérés utiles - tout en restant safe !
Les usages utiles de l’IA générative
Je vous épargnerai les conseils du type “l’IA c’est super pour générer des illustrations pour votre blog”, parce que vous le savez sûrement déjà.
Mais voici tout de même quelques idées d’usage que vous n’aviez peut-être pas forcément testées :
Clarifier ses idées : ChatGPT a été très utile pour m’aider à poser des mots concrets, voire même des théories, sur des idées floues. Je m’explique : je lui ai par exemple demandé « y-a-t-il des auteurs qui ont étudié ou théorisé la capacité à influencer les comportements des gens en les amenant à effectuer des petites actions ponctuelles ?» (niveau de complexité de cette phrase : 1000 😅) - ce à quoi l’outil m’a donné une liste de noms, de références de recherche et même de concepts philosophiques qui ont pu alimenter ma réflexion sur un article.
Résumer des textes : plutôt que de générer du texte (sur lequel je n’ai aucune certitude en termes de qualité et de fiabilité), j’aime beaucoup utiliser ChatGPT pour faire des récapitulatifs de notes qui ne sont pas au propre, ou des synthèses de textes longs - transformés en paragraphes percutants !
Générer des lignes de code : plus besoin d’outils de programmation visuelle avec GPT-4 ! Il est désormais possible de transformer un brief créatif en code directement grâce à l’outil. Le processus a encore des limites et n’est pas parfait, mais peut vous permettre de créer un site web original sans trop d’efforts…
Trouver des éléments pour enrichir des textes : ChatGPT peut être redoutablement efficace pour sortir une citation, un contexte philosophique, un exemple venant appuyer vos idées. Vous pouvez l’utiliser pour enrichir par petites touches vos contenus !
Bien sûr, ces exemples ne sont pas les seuls intéressants : il y a de nombreuses façons de s’appuyer sur l’outil au quotidien, notamment dans les métiers du marketing et de la communication.
Mais ChatGPT, c’est un peu comme un burger : à consommer avec modération, car on ne sait pas trop ce qu’il y a dedans… 🍔 N’oubliez pas que vos données de recherche sont enregistrées et finissent dans une véritable « boîte noire » dont personne ne connaît les contours.
Comme on l’a mentionné au début de cet article, OpenAI ne s’est pour l’instant pas vraiment illustrée par sa capacité à tenir ses promesses et ses engagements… La société étant devenue privée et étant soumise à des investisseurs conséquents, impossible de ne pas penser que nos données sont dores et déjà monétisées d’une manière ou d’une autre.
N’oublions pas l’adage : si vous ne payez pas, c’est que vous êtes le produit.
Alors, quel futur pour ChatGPT et les intelligences artificielles génératives ? Au vu du bazar qu’elles sont capables de créer (je pense par exemple à la fausse interview de Michael Schumacher ou à la fausse vidéo de Barack Obama), je serais partisane d’un usage règlementé - ou bien, de plus de transparence de la part d’entreprises comme OpenAI sur l’origine des données qui alimentent les algorithmes. Car la véracité de ces dernières est le véritable sujet.
Dans le futur, les IA peuvent devenir des copilotes précieux nous faisant gagner du temps au quotidien. Mais elles ont aussi le potentiel de devenir des machines de désinformation à l’échelle ou, comme s’en inquiète Yuval Noah Harari, signer la fin de la culture humaine et de la démocratie. Un futur qu’il est difficile de s’imaginer lorsqu’on discute avec un chatbot bien utile !
La blockchain pourrait être une manière intéressante de garantir l’intégrité et la véracité des données. Quoi qu’il en soit, un boulevard s’ouvre pour les entrepreneurs qui souhaitent s’emparer du sujet et créer des intelligences artificielles éthiques et fiables - deux qualificatifs qui ne représentent pas la réalité actuelle des produits que nous utilisons !
Affaire à suivre…
#73 - Debunker les dérives des influenceurs, avec Audrey Chippaux
Si vous n’avez pas encore exploré (ou craignez de le faire) le dark side des réseaux sociaux et de ses influenceurs pas toujours bien intentionnés, c’est le moment. 🦈 J’ai trouvé la guide parfaite pour une plongée en eaux troubles (mais avec filet de sécurité). Audrey Chippaux, à qui l’on doit le compte Instagram d’intérêt public Vos Stars en Réalité, m’a expliqué dans cet épisode du podcast les dessous des arnaques aux CPF, des compléments alimentaires miracles et des projets NFT un peu bancals.
#74 - Créer une plateforme de marque remarquable (et différenciante)
Julie Charrier est Brand Designer et fondatrice du Studio Kahi. Dans le dernier épisode du podcast The Storyline, nous avons discuté du vaste (et ô combien important) sujet de l’ADN d’une marque, aussi appelé plateforme de marque. Mais aussi, de la secret sauce de Julie pour créer une personnalité et une identité visuelle impactante pour tout projet.
Alors, ça vous a plu ?
🌟 Génial • 👍 Bien • 😕 Bof • 🙈 Nuuuul
Si vous avez aimé cette édition et que vous kiffez The Storyline, ce serait un énorme coup de pouce de la partager ou même - soyons fous - d’aller donner 5 étoiles et un commentaire au podcast sur Apple 👉 par ici 👈.
D’ici-là, je vous donne rdv dans un mois pour la prochaine édition !
Doit-on avoir peur de l'IA ? Ma discussion avec Sam Altman 👾
Salut Noémie, ce petit message pour t’apporter tout mon soutien face à la phase post-maladie que tu racontes en intro... Je n’aurais pas imaginé que cette phase soit si dure, et je trouve ça d’autant plus courageux d’en parler ouvertement ET de continuer à tenir cette newsletter en parallèle ! Et en plus cette édition est particulièrement intéressante, que demande le peuple 😊 Bref merci pour ton travail, et force & honneur pour la suite !