L'IA va-t-elle tous nous remplacer ?
Accedi per cambiare la lingua dei sottotitoli, regolare la velocità e modificare dimensione e colore.
Un philosophe alerte sur les dangers de l'IA générative, qu'il qualifie de "tournant intellectuel et créatif", et ses conséquences sur les facultés humaines, l'emploi et les liens sociaux, plaidant pour son interdiction.
- 0:00 Depuis 15 ans, vous consacrez votre travail à l'étude de la tech, de l'intelligence artificielle et de ses conséquences.
- 0:06 Vous publiez ce livre majeur, et pour beaucoup d'observateurs, c'est un livre aussi important que la Société du spectacle de Guy Debord.
- 0:13 Ça s'appelle « Le désert de nous-mêmes », c'est aux éditions L'Échappée. Et pour commencer, je voudrais écouter ça.
- 0:18 Le rossignol philomène, c'est le point de départ de votre livre. Pourquoi ?
- 0:25 Mon livre commence par une fable animalière qui met en scène le rossignol philomène,
- 0:30 qui est doté de plein de capacités créatives, qui génère une infinité d'harmonies.
- 0:37 Et puis, un beau matin, certains de leurs semblables viennent leur proposer des outils qui vont l'abstraire de l'usage de leurs facultés.
- 0:44 Et pris par paresse et le souci du moindre effort, ils acceptent cela.
- 0:48 Et on les voit abandonner leur société aiguillée, pleine de créativité, de joute musicale, et terminer atrophiés,
- 0:56 plein de tristesse et plein d'isolement dans leur nid confiné. Ça ne vous fait pas penser à quelque chose, cela ?
- 1:04 Ça me fait penser au 30 novembre 2022. C'est le jour du lancement de Chadjipiti.
- 1:08 Pour vous, c'est une date décisive dans l'histoire de l'humanité. Et je crois que vous vous en souvenez de cette date.
- 1:13 Ah oui, il me semble qu'on s'en rendra compte de plus en plus, qu'on retiendra le 30 novembre 2022 comme la date du lancement de Chadjipiti,
- 1:24 comme une des dates les plus décisives de l'histoire de l'humanité. Je m'explique en quelques mots.
- 1:28 Là, nous sommes trois ans plus tard, automne 2025. Ça y est, il est arrivé ce moment où les premières grandes conséquences
- 1:38 commencent à nous apparaître, où nous sommes mis face aux grandes conséquences. Je vous donne quelques exemples.
- 1:42 Depuis quelque temps, est apparue la notion de Jobs' Apocalypse, qui vient de la Silicon Valley. En réalité, ça s'étend à la Terre entière,
- 1:49 qui regarde des foules de licenciements et un phénomène plus insidieux, des moindres embauches relativement au col blanc,
- 1:56 et à l'enceinte de ce qui s'est passé avec Amazon il y a une dizaine de jours. Donc, on a parlé qu'il y avait un licenciement de 14 % des personnes.
- 2:02 Plusieurs milliers de salariés licenciés.
- 2:04 Pas un jour, je vous donne quelques exemples très rapidement, sans que l'on parle, mesdames et messieurs, de professeurs dans l'école
- 2:12 qui ne se connaissent même plus, qui ne savent même plus quel est le sens de leur mission, complètement livrée à eux-mêmes.
- 2:19 Pas un jour, sans que l'on parle notamment dans le champ de la culture et notamment dans le monde musical, par exemple,
- 2:25 des plateformes comme Spotify qui sont inondées jusqu'à plus de 30 % aujourd'hui par des morceaux générés et qui mettent en péril
- 2:32 les métiers de la culture étant de compositeurs. Et puis pas un jour encore, excusez-moi de terminer sur ce point capital,
- 2:40 sans qu'on parle de dépendance émotionnelle relativement à ces systèmes qui sont allés jusqu'à, on le sait, des cas extrêmes, jusqu'à des suicides.
- 2:50 Ces cas-là, on pourrait...
- 2:52 – Je peux en rajouter un ?
- 2:53 – Mais oui, parce qu'on peut les égrener sur des longues pages, ces exemples.
- 2:55 – Je peux parler de cette actrice, par exemple, cette actrice qui n'existe pas, qui s'appelle Tilly Wood.
- 3:00 C'est la première actrice 100% IA, c'est un coup de com' d'une startup américaine.
- 3:06 Est-ce que tout ça, tous les exemples que vous venez de dénoncer, ce sont un vrai danger ?
- 3:12 – Mais oui, mais vous savez que cette actrice, cette pseudo-actrice a occasionné le lever de bouclier auprès des acteurs d'Hollywood.
- 3:22 Mais moi, je prends le pari, mesdames et messieurs, que parmi ces foules d'acteurs d'Hollywood qui veulent le maintien de leur emploi,
- 3:30 la plupart doivent utiliser Chad GPT, parce que nos actes en gage, c'est ça que l'on n'a pas vu il y a trois ans.
- 3:37 Parce que des foules se sont jetées sur ces outils, je pense qu'il y a eu une faillite, chère Yann,
- 3:42 je vous le dis avec beaucoup de gravité, je pense qu'il y a eu une faillite morale collective.
- 3:46 – Mais ce qui est étonnant, c'est que...
- 3:47 – Collective, je termine juste sur cela, parce que tout le monde a sauté sur cela.
- 3:51 Moi, j'avais très bien vu à l'époque, 30 novembre 2022, donc les jours qui ont suivi en décembre et janvier 2023,
- 3:57 je posais toujours la question, mais tu te rends compte, ce qui va se passer,
- 4:01 et notamment la mer de toutes les questions qui auraient dû s'imposer à nous et de toutes les préoccupations.
- 4:07 Est-ce qu'on voit nos enfants qui, dans deux, trois ans, vont nous dire,
- 4:10 « Papa, maman, pourquoi je vais à l'école, moi, si des systèmes sur une simple instruction, de ma part,
- 4:15 va produire du texte, pourquoi j'apprends la grammaire, pourquoi j'apprends l'orthographe ? »
- 4:18 Toutes ces questions, je ne les ai pas posées, pourquoi ?
- 4:21 Parce que tout le monde n'a prêché que par utilitarisme pratique.
- 4:23 Et quand on posait la question, et je continue de poser la question...
- 4:26 – Est-ce qu'on aurait dû l'interdire ?
- 4:27 – Alors, d'abord, il y a une passion humaine, c'est pour ça qu'il y a cette fable avec les Rossignols,
- 4:33 Philomel, que je commence le livre avec cela, parce qu'il y a une passion humaine
- 4:36 dont s'est très bien joué l'industrie du numérique, c'est la propension à la paresse,
- 4:40 et à la recherche du moindre effort.
- 4:43 Et le fait que, je continue, moi, quand je vois des adolescents dans des dîners, chez des amis,
- 4:49 je dis, « Tu utilises le JPT ? » Tout le monde me dit oui, et je dis, « Mais pourquoi ? »
- 4:54 Et la réponse, c'est toujours la même. Gain de temps, gain de pratique.
- 4:57 Mais tu te rends compte de ce que tu perds ?
- 4:59 Est-ce que tu te rends compte de tes capacités de parler en première personne,
- 5:02 de maîtriser le langage, qui est le vecteur de la liberté, de la singularité,
- 5:06 d'exprimer tes propres positions ?
- 5:08 – Quand vous répondez ça, ils vous répondent quoi ?
- 5:10 – En général, on est embarrassé, parce qu'on n'écoute pas très bien,
- 5:16 et on pense que, finalement, c'est pratique, et que c'est ça qui compte.
- 5:20 Or, ça, ça va être le cheval de Troyes du renoncement à nous-mêmes,
- 5:22 c'est ça que j'analyse dans mon livre.
- 5:24 – Donc, est-ce qu'on aurait dû interdire ?
- 5:25 – L'utilitarisme pratique, c'est le renoncement du…
- 5:29 c'est le cheval de Troyes du renoncement à l'usage de nos facultés,
- 5:33 et à toute une série de conséquences que j'aimerais bien décrire avec vous
- 5:37 dans les minutes qui viennent.
- 5:38 Pour revenir à votre question, Yann, est-ce qu'on aurait dû interdire ?
- 5:41 Alors, je vais être très précis sur ça, parce que, vous savez,
- 5:43 on ne cesse de parler d'IA.
- 5:45 Je pense qu'on est entre nous, je vous le dis,
- 5:47 il n'y a pas beaucoup de monde qui nous regarde.
- 5:49 Je pense qu'on n'a jamais dit…
- 5:51 – Il y a deux, trois caméras, quand même.
- 5:52 – Bon, je pense qu'on n'a jamais dit autant de bêtises
- 5:54 relativement à un phénomène aussi déterminant,
- 5:56 parce que, vous avez remarqué, il y a des spécialistes de l'IA de la dernière heure.
- 6:00 Il y a une chose qu'on doit faire en préalable, en termes de méthodologie,
- 6:03 c'est de séparer l'IA, telle qu'elle est depuis une quinzaine d'années,
- 6:07 qui permet toute une série de choses.
- 6:08 Il y a des choses extrêmement graves,
- 6:11 mais il y a aussi des choses qui sont rendues possibles par l'IA,
- 6:13 je pense à l'aérodynamisme médical,
- 6:16 dans l'aérodynamisme pour Airbus Industries ou dans l'avion,
- 6:21 ça engage aussi beaucoup d'autres enjeux d'une extrême gravité
- 6:25 dans les entrepôts Amazon où des systèmes
- 6:27 interprètent les localisations des manufacturiers
- 6:30 et qui leur commandent à aller chercher tel produit
- 6:33 dans tel endroit pour le déposer à tel palais.
- 6:34 C'est ça, l'intelligence artificielle,
- 6:36 telle qu'elle est à l'œuvre depuis une vingtaine d'années,
- 6:38 qui continue cette puissance d'interprétation et d'envoi de signaux
- 6:41 et qui organise de plus en plus le cours des affaires humaines.
- 6:45 Mais il y a un autre type d'IA qui est apparu,
- 6:48 et c'est deux choses différentes, parce qu'on parle d'IA…
- 6:50 Maintenant, il faut distinguer…
- 6:52 Ce sont deux choses différentes, ça charrie des enjeux différents
- 6:55 et ça entraîne des conséquences très différentes.
- 6:58 Et c'est pour ça que, relativement à la question,
- 6:59 parce que je n'ai pas perdu mon fil,
- 7:01 j'ai entendu votre question, chère Yann,
- 7:03 est-ce qu'on aurait dû interdire ?
- 7:04 Sur l'IA, c'est beaucoup plus compliqué,
- 7:06 telle qu'elle est à l'œuvre depuis une vingtaine d'années.
- 7:08 On va dire que c'est cas par cas qu'on devrait envisager les choses.
- 7:11 Or, on ne les envisage pas assez cas par cas, ça c'est une chose.
- 7:14 Concernant les IA génératives, pour répondre maintenant à ces questions…
- 7:17 – C'est celle-là qui vous dérange ?
- 7:18 – Ce n'est pas que ça me dérange,
- 7:19 c'est nous tous, au nom des principes qui sont les nôtres,
- 7:22 au nom de ce que nous sommes, au nom de ce qui nous constitue en propre…
- 7:24 – Est-ce qu'on peut juste rater…
- 7:25 – Oui, je termine juste sur ça Yann, ça, ça aurait dû être interdit.
- 7:29 Mais personne n'a eu la conscience, la présence des fonds.
- 7:32 – Pour que ça fasse ce qu'est l'IA générative, c'est quoi ?
- 7:35 – Alors, l'IA générative, c'est, pour bien comprendre la gravité de ce qui se joue,
- 7:41 j'ai nommé ça un concept, parce que le concept permet d'identifier les phénomènes
- 7:46 avec un concept relativement simple que tout le monde va comprendre,
- 7:49 c'est le sous-titre de mon bouquin,
- 7:51 que j'appelle le tournant intellectuel et créatif de l'intelligence artificielle.
- 7:56 C'est ça qui est à l'œuvre depuis bientôt trois ans maintenant.
- 7:59 Qu'est-ce que ça veut dire le tournant intellectuel et créatif ?
- 8:02 Pour bien comprendre la portée, j'ai envie de dire même la gravité,
- 8:05 et la rupture historique et presque anthropologique,
- 8:08 anthropologique dans le sens de ce qui nous constitue, nous,
- 8:10 en tant qu'êtres humains dotés de toute une série de facultés,
- 8:14 c'est qu'il faut, pour bien comprendre, utiliser une formule littérale,
- 8:19 c'est-à-dire qu'il est dorénavant dévolu à des systèmes,
- 8:22 il faut entendre la gravité de ce que je vais dire,
- 8:24 il est dorénavant dévolu à des systèmes d'assurer des tâches
- 8:29 qui jusque-là mobilisaient nos facultés intellectuelles et créatives.
- 8:34 Comment ne pas voir la rupture anthropologique
- 8:38 et l'ouragan qui vient sur quantité de champs de la vie humaine ?
- 8:41 Alors, le fait est que, relativement à ces enjeux, il y a beaucoup...
- 8:45 C'est-à-dire que notre cerveau va s'atrophier ?
- 8:47 C'est beaucoup plus que ça, c'est le cerveau...
- 8:51 Ça, c'est déjà beaucoup.
- 8:52 Oui, c'est déjà énorme, mais c'est une certaine idée de nous-mêmes,
- 8:56 une certaine idée de notre implication dans le réel,
- 8:58 une certaine idée de la société,
- 9:00 parce que vous savez que, et notamment fondée sur l'expression de nos facultés,
- 9:05 sur le fait qu'on a besoin toujours d'autrui dans la société,
- 9:08 on a besoin d'un médecin, on a besoin d'un juriste,
- 9:11 on a besoin d'un professeur.
- 9:13 De plus en plus, avec ces systèmes,
- 9:15 Sam Altman l'a dit lors du premier anniversaire du lancement de Chad GPT,
- 9:19 là, pas en 22, mais 30 novembre 2023,
- 9:22 il a dit devant une foule d'adorateurs,
- 9:24 vous savez, les keynotes de la Silicon Valley,
- 9:26 il a dit « We have been good the past year ».
- 9:27 C'est le monsieur qu'on voit là.
- 9:28 Voilà, on a été très bons l'année qui est passée.
- 9:31 « Amazing, t'as été génial, fantastique ! »
- 9:33 Il a dit « Please, please, calm down ».
- 9:35 C'est rien par rapport à ce qui vient.
- 9:37 Et ce qui vient, c'est les super assistants,
- 9:38 c'est là les investissements industriels,
- 9:41 c'est les super assistants dans tous les champs de la vie.
- 9:43 C'est-à-dire, par exemple, jusque-là,
- 9:46 si vous achetiez une maison,
- 9:48 en général, vous faisiez appel à un architecte,
- 9:50 et puis peut-être après à un designer.
- 9:52 Ça existe déjà ?
- 9:53 Eh bien, de plus en plus.
- 9:54 Vous prenez en photo une pièce,
- 9:56 et puis il vous met les meubles, il vous met les portes.
- 9:58 Voilà, de plus en plus, dans tous les champs de la vie,
- 10:00 assistant avocat, assistant éducatif,
- 10:02 assistant architecte, assistant santé,
- 10:05 dans tous les champs de la vie,
- 10:06 les super assistants vont répondre
- 10:08 à la moindre de nos sollicitations.
- 10:10 Mais qu'est-ce que ça veut dire, ça ?
- 10:11 Regardez ce que je fais avec vous, Yann.
- 10:13 Je vous évacue de mon horizon.
- 10:14 C'est-à-dire que c'est autrui qu'on évacue.
- 10:16 Or, la société, c'est déjà qu'il y a un effritement continu.
- 10:23 La société, on l'a dit, on a besoin d'autrui.
- 10:26 C'est aussi toute une série de liens
- 10:28 continus d'interdépendance.
- 10:30 On a dit, on a besoin réciproquement les uns des autres.
- 10:32 De plus en plus, vont s'opérer des vis-à-vis continus.
- 10:35 C'est pour ça que ce n'est pas seulement
- 10:36 l'épuisement de nos facultés,
- 10:38 c'est une certaine idée du monde.
- 10:39 Est-ce qu'il est trop tard
- 10:40 ou est-ce qu'on peut encore choisir l'IA du futur ?
- 10:43 Est-ce qu'on peut la tordre
- 10:46 pour que l'IA soit plus acceptable ?
- 10:48 Certainement pas.
- 10:49 Certainement pas.
- 10:50 Ce qu'il se passe, parce que vous savez,
- 10:51 avec tout cela, il y a plein de bonnes intentions.
- 10:54 Il y a plein de discours qui enrobent.
- 10:56 En général, le travail minimal appellerait
- 10:59 de savoir qui parle.
- 11:00 C'est-à-dire, plein de discours qu'on entend.
- 11:02 La plupart, à 90% des discours qu'on entend
- 11:04 dans la presse, sur le plateau télé, pas moi,
- 11:08 les radios, c'est des gens qui sont jugés partis.
- 11:10 Notamment les ingénieurs et les entrepreneurs de la tech
- 11:13 qu'on invite pour comprendre à quoi on a affaire.
- 11:16 Non mais attendez, on a un problème sur l'expertise.
- 11:18 Pourtant, vous, ça fait des années
- 11:20 que vous vous alertez là-dessus.
- 11:21 Nous, on a retrouvé une archive de vous
- 11:22 sur France Culture en 2011,
- 11:23 donc c'était il y a 14 ans.
- 11:24 Vous m'avez fait ça ?
- 11:26 Oui, il y a 14 ans.
- 11:27 Vous avez pris un coup de vieux, vous, depuis.
- 11:28 C'est incroyable.
- 11:29 Aujourd'hui, vous êtes un oracle de l'IA qui dégénère,
- 11:31 mais en réalité, ça fait près de 15 ans
- 11:32 que vous dites la même chose.
- 11:33 Pourquoi personne ne vous a écouté ?
- 11:35 Alors, on m'écoute.
- 11:38 Vous savez que vous m'avez interrompu,
- 11:39 j'étais en plein fil.
- 11:41 Mais on m'écoute, on m'écoute.
- 11:44 Mais vous savez, qu'est-ce que c'est qu'un philosophe
- 11:46 par rapport à la puissance industrielle
- 11:48 et à la capitalisation, par exemple,
- 11:49 boursière de NIFDIA ?
- 11:50 Vous savez qu'il fait les puces d'IA
- 11:51 de 5 000 milliards de dollars.
- 11:53 Qu'est-ce que je pèse, moi ?
- 11:54 Rien, rien.
- 11:55 Il n'empêche, il n'empêche
- 11:57 que notre compréhension de l'IA,
- 11:59 et on parle des IA génératives,
- 12:01 c'est généralement des gens qui sont jugés partis.
- 12:04 Mais c'est une inconséquence dans l'expertise.
- 12:06 Par exemple, si on veut comprendre la cigarette,
- 12:08 est-ce qu'on va interroger M. Marlboro,
- 12:09 qui n'existe pas, M. Marlboro,
- 12:11 est-ce que c'est lui qu'on va interroger ?
- 12:12 Mais non, c'est des cancérologues
- 12:14 qu'il faut interroger.
- 12:15 C'est eux qu'il faut interroger.
- 12:16 C'est pour ça que quand il y a eu le sommet de Paris
- 12:19 organisé par Emmanuel Macron sur l'IA,
- 12:22 moi, je me suis dit qu'il n'y avait que des gens de la Tech
- 12:25 qui allaient nous promettre des merveilleux lendemains.
- 12:26 – Ce n'était pas eux qui fallait.
- 12:27 – Ce n'était pas eux qui fallait,
- 12:28 c'était interdit au public.
- 12:29 Il y avait une centaine de chefs d'État
- 12:31 qui annonçaient cesser de rivaliser d'investissement
- 12:36 et tout ce monde-là nous chantait des merveilleux lendemains
- 12:39 à venir et au futur.
- 12:41 C'est-à-dire que ce n'est pas engageant,
- 12:41 vous dites qu'il va faire beau dans deux ans,
- 12:43 personne ne viendra vous interroger,
- 12:44 parce que c'est toujours comme ça,
- 12:45 il y a toujours l'horizon de promesse.
- 12:47 Et moi, je me suis dit, je suis à Paris,
- 12:48 je suis Français, pays de Beaumarchais,
- 12:51 d'Émile Zola, de Charles Péguy,
- 12:53 de Paul Valéry, d'Albert Camus,
- 12:55 et au nom de toutes mes recherches
- 12:57 que je mène depuis une quinzaine d'années,
- 12:58 je me suis dit, je ne peux pas rester les bras croisés.
- 13:00 Et on a monté un contre-sommet.
- 13:01 Et vous avez dit, qu'est-ce qu'on peut faire ?
- 13:03 Et qu'est-ce qui s'est passé dans ce contre-sommet
- 13:05 qui était une première mondiale ?
- 13:06 On a invité des gens issus de l'administration publique,
- 13:12 du monde de l'entreprise, du monde du journalisme,
- 13:14 des spécialistes du climat et de l'écologie,
- 13:19 du monde de la culture.
- 13:20 C'était extraordinaire,
- 13:22 c'est-à-dire qu'on a vu les conséquences concrètes,
- 13:27 elles sont très importantes,
- 13:28 notamment dans le monde de la culture.
- 13:31 Par exemple, les réalisateurs de films d'animation
- 13:33 dont on sait qu'ils vivent dans des situations très précaires,
- 13:35 maintenant Café France Télévisions,
- 13:37 avec de l'argent public, en tout cas la redevance,
- 13:39 eh bien, ils vont commencer à faire des films d'animation
- 13:42 avec des IA génératives.
- 13:43 Il y a eu une mobilisation.
- 13:45 Je crois que l'heure est à la mobilisation.
- 13:46 Sinon, c'est tous les métiers à haute compétence cognitive,
- 13:49 notamment, qui vont disparaître,
- 13:51 et notamment les métiers de la culture.
- 13:53 Et est-ce que c'est ça ce monde qu'on veut ?
- 13:55 C'est-à-dire que des systèmes
- 13:56 qui fassent tout du matin au soir
- 13:57 jusqu'à nous faire notre petite série,
- 13:59 notre petite fiction, notre petite musique,
- 14:02 où l'autre est évacué, l'artiste est évacué.
- 14:04 Non, il n'est pas possible de rester les mains croisées
- 14:06 relativement à tout cela.
- 0:00 For 15 years, you have dedicated your work to the study of tech, artificial intelligence, and its consequences.
- 0:06 You are publishing this major book, and for many observers, it is as important as Guy Debord's The Society of the Spectacle.
- 0:13 It's called 'The Desert of Ourselves,' published by L'Échappée. And to start, I'd like to listen to this.
- 0:18 The nightingale Philomela is the starting point of your book. Why?
- 0:25 My book begins with an animal fable featuring the nightingale Philomela,
- 0:30 who is endowed with many creative capacities, generating an infinity of harmonies.
- 0:37 And then, one fine morning, some of their peers come to offer them tools that will abstract them from the use of their faculties.
- 0:44 And driven by laziness and the desire for minimal effort, they accept this.
- 0:48 And we see them abandon their vibrant society, full of creativity, of musical jousting, and end up atrophied,
- 0:56 full of sadness and isolation in their confined nest. Doesn't that remind you of something?
- 1:04 That reminds me of November 30, 2022. It's the day ChatGPT was launched.
- 1:08 For you, it's a decisive date in human history. And I believe you remember that date.
- 1:13 Oh yes, I think we'll realize more and more that November 30, 2022, will be remembered as the launch date of ChatGPT,
- 1:24 as one of the most decisive dates in human history. Let me explain in a few words.
- 1:28 Here we are, three years later, autumn 2025. The moment has arrived when the first major consequences
- 1:38 are starting to appear to us, where we are confronted with the major consequences. I'll give you a few examples.
- 1:42 For some time now, the notion of a 'Jobs' Apocalypse' has emerged from Silicon Valley. In reality, it's spreading across the entire world,
- 1:49 seeing masses of layoffs and a more insidious phenomenon: fewer white-collar hirings,
- 1:56 and within the scope of what happened with Amazon about ten days ago. So, there was talk of 14% of people being laid off.
- 2:02 Several thousand employees laid off.
- 2:04 Not a day goes by, I'll give you a few examples very quickly, without us talking, ladies and gentlemen, about teachers in schools
- 2:12 who no longer even know themselves, who no longer know the meaning of their mission, completely left to their own devices.
- 2:19 Not a day goes by without us talking, particularly in the field of culture and especially in the music world, for example,
- 2:25 about platforms like Spotify being flooded by over 30% today with generated tracks, which jeopardizes
- 2:32 cultural professions like composers. And then, not a day goes by, forgive me for ending on this crucial point,
- 2:40 without us talking about emotional dependence on these systems, which have led, as we know, to extreme cases, even suicides.
- 2:50 These cases, we could...
- 2:52 - Can I add one?
- 2:53 - Yes, because we could list these examples over many pages.
- 2:55 - I can talk about this actress, for example, this actress who doesn't exist, named Tilly Wood.
- 3:00 She's the first 100% AI actress, a PR stunt by an American startup.
- 3:06 Is all of this, all the examples you've just denounced, a real danger?
- 3:12 - But yes, but you know that this actress, this pseudo-actress, caused an outcry among Hollywood actors.
- 3:22 But I'll bet, ladies and gentlemen, that among these crowds of Hollywood actors who want to keep their jobs,
- 3:30 most of them must be using ChatGPT, because our actions are at stake, that's what we didn't see three years ago.
- 3:37 Because crowds rushed to these tools, I think there was a failure, dear Yann,
- 3:42 I tell you with great seriousness, I think there was a collective moral failure.
- 3:46 - But what's surprising is that...
- 3:47 - Collective, I'll just finish on that, because everyone jumped on it.
- 3:51 I had seen it very clearly at the time, November 30, 2022, so the days that followed in December and January 2023,
- 3:57 I always asked the question, 'But do you realize what's going to happen?'
- 4:01 and especially the sea of all the questions that should have confronted us and all the concerns.
- 4:07 Do we see our children who, in two or three years, will tell us,
- 4:10 'Dad, Mom, why do I go to school if systems, with a simple instruction from me,
- 4:15 will produce text? Why do I learn grammar? Why do I learn spelling?'
- 4:18 All these questions, I didn't ask them, why?
- 4:21 Because everyone only preached practical utilitarianism.
- 4:23 And when we asked the question, and I continue to ask the question...
- 4:26 - Should we have forbidden it?
- 4:27 - Well, first, there's a human passion, that's why there's this fable with the Nightingales,
- 4:33 Philomela, that I start the book with, because there's a human passion
- 4:36 that the digital industry has played very well on: the propensity for laziness,
- 4:40 and the search for the path of least resistance.
- 4:43 And the fact that, I continue, when I see teenagers at dinners, at friends' houses,
- 4:49 I say, 'Do you use ChatGPT?' Everyone tells me yes, and I say, 'But why?'
- 4:54 And the answer is always the same: 'Time-saving, practical gain.'
- 4:57 But do you realize what you're losing?
- 4:59 Do you realize your ability to speak in the first person,
- 5:02 to master language, which is the vector of freedom, of singularity,
- 5:06 to express your own positions?
- 5:08 – When you answer that, what do they say?
- 5:10 – Generally, we're embarrassed, because we don't listen very well,
- 5:16 and we think that, ultimately, it's practical, and that's what matters.
- 5:20 However, this will be the Trojan horse of self-renunciation,
- 5:22 that's what I analyze in my book.
- 5:24 – So, should we have banned it?
- 5:25 – Practical utilitarianism is the renunciation of...
- 5:29 it's the Trojan horse of renouncing the use of our faculties,
- 5:33 and a whole series of consequences that I'd like to describe with you
- 5:37 in the coming minutes.
- 5:38 To get back to your question, Yann, should we have banned it?
- 5:41 Now, I'm going to be very precise about this, because, you know,
- 5:43 we keep talking about AI.
- 5:45 I think we're among ourselves, I'm telling you,
- 5:47 not many people are watching us.
- 5:49 I think we've never said...
- 5:51 – There are two, three cameras, though.
- 5:52 – Well, I think we've never said so many foolish things
- 5:54 regarding such a decisive phenomenon,
- 5:56 because, you've noticed, there are last-minute AI specialists.
- 6:00 There's one thing we must do beforehand, in terms of methodology,
- 6:03 it's to separate AI, as it has been for about fifteen years,
- 6:07 which allows for a whole series of things.
- 6:08 There are extremely serious things,
- 6:11 but there are also things made possible by AI,
- 6:13 I'm thinking of medical aerodynamics,
- 6:16 in aerodynamics for Airbus Industries or in aircraft,
- 6:21 it also involves many other extremely serious issues
- 6:25 in Amazon warehouses where systems
- 6:27 interpret manufacturers' locations
- 6:30 and instruct them to retrieve a specific product
- 6:33 from a certain place to deliver it to a specific pallet.
- 6:34 That's artificial intelligence,
- 6:36 as it has been at work for about twenty years,
- 6:38 which continues this power of interpretation and signal sending
- 6:41 and which increasingly organizes the course of human affairs.
- 6:45 But another type of AI has appeared,
- 6:48 and these are two different things, because we talk about AI...
- 6:50 Now, we need to distinguish...
- 6:52 These are two different things, they carry different stakes
- 6:55 and they lead to very different consequences.
- 6:58 And that's why, regarding the question,
- 6:59 because I haven't lost my train of thought,
- 7:01 I heard your question, dear Yann,
- 7:03 should we have banned it?
- 7:04 Regarding AI, it's much more complicated,
- 7:06 as it has been at work for about twenty years.
- 7:08 We could say that things should be considered on a case-by-case basis.
- 7:11 However, we don't consider them enough on a case-by-case basis, that's one thing.
- 7:14 Regarding generative AIs, to now answer these questions...
- 7:17 – Is that the one that bothers you?
- 7:18 – It's not that it bothers me,
- 7:19 it's all of us, in the name of our principles,
- 7:22 in the name of who we are, in the name of what constitutes us...
- 7:24 – Can we just miss...
- 7:25 – Yes, I'll just finish on that, Yann, that should have been banned.
- 7:29 But no one had the awareness, the foresight.
- 7:32 – So that it does what generative AI is, what is it?
- 7:35 – So, generative AI is, to fully understand the gravity of what's at stake,
- 7:41 I've called it a concept, because a concept allows us to identify phenomena
- 7:46 with a relatively simple concept that everyone will understand,
- 7:49 it's the subtitle of my book,
- 7:51 which I call the intellectual and creative turning point of artificial intelligence.
- 7:56 This is what has been at work for almost three years now.
- 7:59 What does the intellectual and creative turning point mean?
- 8:02 To fully understand the scope, I would even say the gravity,
- 8:05 and the historical and almost anthropological rupture,
- 8:08 anthropological in the sense of what constitutes us,
- 8:10 as human beings endowed with a whole series of faculties,
- 8:14 to understand it well, we must use a literal formula,
- 8:19 that is, it is now incumbent upon systems,
- 8:22 you must understand the gravity of what I am about to say,
- 8:24 it is now incumbent upon systems to perform tasks
- 8:29 that until now mobilized our intellectual and creative faculties.
- 8:34 How can we not see the anthropological rupture
- 8:38 and the hurricane that is coming across so many fields of human life?
- 8:41 So, the fact is that, relative to these stakes, there is a lot...
- 8:45 Does that mean our brain will atrophy?
- 8:47 It's much more than that, it's the brain...
- 8:51 That's already a lot.
- 8:52 Yes, it's already huge, but it's a certain idea of ourselves,
- 8:56 a certain idea of our involvement in reality,
- 8:58 a certain idea of society,
- 9:00 because you know that, and notably based on the expression of our faculties,
- 9:05 on the fact that we always need others in society,
- 9:08 we need a doctor, we need a lawyer,
- 9:11 we need a teacher.
- 9:13 More and more, with these systems,
- 9:15 Sam Altman said it on the first anniversary of the launch of ChatGPT,
- 9:19 not in '22, but November 30, 2023,
- 9:22 he said before a crowd of admirers,
- 9:24 you know, the Silicon Valley keynotes,
- 9:26 he said 'We have been good the past year'.
- 9:27 That's the gentleman we see there.
- 9:28 Yes, we've been very good this past year.
- 9:31 'Amazing, you were great, fantastic!'
- 9:33 He said 'Please, please, calm down'.
- 9:35 That's nothing compared to what's coming.
- 9:37 And what's coming are the super assistants,
- 9:38 that's where the industrial investments are,
- 9:41 it's super assistants in all areas of life.
- 9:43 That is, for example, until now,
- 9:46 if you bought a house,
- 9:48 generally, you would call upon an architect,
- 9:50 and then perhaps a designer.
- 9:52 Does that already exist?
- 9:53 Well, more and more.
- 9:54 You take a picture of a room,
- 9:56 and then it puts the furniture in for you, it puts the doors in for you.
- 9:58 So, more and more, in all areas of life,
- 10:00 lawyer assistant, educational assistant,
- 10:02 architect assistant, health assistant,
- 10:05 in all areas of life,
- 10:06 super assistants will respond
- 10:08 to our slightest requests.
- 10:10 But what does that mean?
- 10:11 Look at what I'm doing with you, Yann.
- 10:13 I'm removing you from my horizon.
- 10:14 That is, it's others we're removing.
- 10:16 However, society is already experiencing continuous erosion.
- 10:23 Society, as we've said, we need others.
- 10:26 It's also a whole series of continuous
- 10:28 interdependent links.
- 10:30 As we've said, we reciprocally need each other.
- 10:32 More and more, continuous face-to-face interactions will occur.
- 10:35 That's why it's not just
- 10:36 the exhaustion of our faculties,
- 10:38 it's a certain idea of the world.
- 10:39 Is it too late
- 10:40 or can we still choose the AI of the future?
- 10:43 Can we twist it
- 10:46 so that AI is more acceptable?
- 10:48 Certainly not.
- 10:49 Certainly not.
- 10:50 What's happening, because you know,
- 10:51 with all this, there are plenty of good intentions.
- 10:54 There are plenty of speeches that sugarcoat it.
- 10:56 Generally, the minimal work would require
- 10:59 knowing who is speaking.
- 11:00 That is, many speeches we hear.
- 11:02 Most, 90% of the speeches we hear
- 11:04 in the press, on TV shows, not me,
- 11:08 on the radio, are from people who are biased.
- 11:10 Notably, engineers and tech entrepreneurs
- 11:13 whom we invite to understand what we're dealing with.
- 11:16 No, but wait, we have a problem with expertise.
- 11:18 Yet, you, for years,
- 11:20 have been warning about this.
- 11:21 We found an archive of you
- 11:22 on France Culture in 2011,
- 11:23 so that was 14 years ago.
- 11:24 You did that to me?
- 11:26 Yes, 14 years ago.
- 11:27 You've aged a bit since then.
- 11:28 It's incredible.
- 11:29 Today, you are an oracle of degenerating AI,
- 11:31 but in reality, for almost 15 years,
- 11:32 you've been saying the same thing.
- 11:33 Why has no one listened to you?
- 11:35 Well, people do listen to me.
- 11:38 You know you interrupted me,
- 11:39 I was in the middle of my thought.
- 11:41 But people listen to me, they do.
- 11:44 But you know, what is a philosopher
- 11:46 compared to industrial power
- 11:48 and the market capitalization, for example,
- 11:49 of NVIDIA?
- 11:50 You know it makes AI chips
- 11:51 worth 5 trillion dollars.
- 11:53 What's my influence?
- 11:54 Nothing, nothing.
- 11:55 Nevertheless, nevertheless,
- 11:57 our understanding of AI,
- 11:59 and we're talking about generative AIs,
- 12:01 is generally from people who are biased.
- 12:04 But that's an inconsistency in expertise.
- 12:06 For example, if we want to understand cigarettes,
- 12:08 are we going to interview Mr. Marlboro,
- 12:09 who doesn't exist, Mr. Marlboro,
- 12:11 is he the one we're going to interview?
- 12:12 No, it's oncologists
- 12:14 who should be questioned.
- 12:15 They are the ones who should be questioned.
- 12:16 That's why when there was the Paris summit
- 12:19 organized by Emmanuel Macron on AI,
- 12:22 I told myself that there were only tech people
- 12:25 who were going to promise us wonderful tomorrows.
- 12:26 – It wasn't them who were needed.
- 12:27 – It wasn't them who were needed,
- 12:28 it was closed to the public.
- 12:29 There were about a hundred heads of state
- 12:31 who announced they would stop competing in investment
- 12:36 and all those people were singing us wonderful tomorrows
- 12:39 to come and in the future.
- 12:41 Meaning it's not binding,
- 12:41 you say it will be sunny in two years,
- 12:43 no one will come to question you,
- 12:44 because it's always like that,
- 12:45 there's always the horizon of promise.
- 12:47 And I told myself, I'm in Paris,
- 12:48 I'm French, the country of Beaumarchais,
- 12:51 of Émile Zola, of Charles Péguy,
- 12:53 of Paul Valéry, of Albert Camus,
- 12:55 and in the name of all my research
- 12:57 that I've been conducting for about fifteen years,
- 12:58 I told myself, I cannot stand idly by.
- 13:00 And we organized a counter-summit.
- 13:01 And you said, what can we do?
- 13:03 And what happened at this counter-summit
- 13:05 which was a world first?
- 13:06 We invited people from public administration,
- 13:12 the business world, the world of journalism,
- 13:14 climate and ecology specialists,
- 13:19 and the world of culture.
- 13:20 It was extraordinary,
- 13:22 meaning we saw the concrete consequences,
- 13:27 they are very significant,
- 13:28 especially in the world of culture.
- 13:31 For example, animation film directors
- 13:33 who we know live in very precarious situations,
- 13:35 now France Télévisions,
- 13:37 with public money, or at least the license fee,
- 13:39 well, they are going to start making animated films
- 13:42 with generative AIs.
- 13:43 There has been a mobilization.
- 13:45 I believe it's time for mobilization.
- 13:46 Otherwise, it's all professions requiring high cognitive skills,
- 13:49 in particular, that will disappear,
- 13:51 and especially cultural professions.
- 13:53 And is this the world we want?
- 13:55 Meaning systems
- 13:56 that do everything from morning to night
- 13:57 even making our little series,
- 13:59 our little fiction, our little music,
- 14:02 where the other is excluded, the artist is excluded.
- 14:04 No, it's not possible to stand idly by
- 14:06 regarding all of this.
- 0:00 15年間、あなたはテクノロジー、人工知能、そしてその影響の研究に仕事の全てを捧げてきました。
- 0:06 あなたはこの重要な本を出版しました。多くの評論家にとって、これはギー・ドゥボールの『スペクタクルの社会』と同じくらい重要な本です。
- 0:13 タイトルは「私たち自身の砂漠」、L'Échappée社から出版されています。まず、これを聞いていただきたいのですが。
- 0:18 ナイチンゲールのフィロメーラが、あなたの本の出発点ですね。なぜですか?
- 0:25 私の本は、ナイチンゲールのフィロメーラが登場する動物寓話から始まります。
- 0:30 彼女は多くの創造的な能力を持ち、無限のハーモニーを生み出します。
- 0:37 そしてある朝、同族の何羽かがやってきて、彼らの能力を使う必要がなくなるような道具を提案します。
- 0:44 怠惰と最小限の努力で済ませたいという思いから、彼らはそれを受け入れます。
- 0:48 そして彼らは、創造性と音楽の競い合いに満ちた活気ある社会を捨て、衰弱しきってしまいます。
- 0:56 悲しみと孤立に満ちた、閉じ込められた巣の中で。これは何かを思い起こさせませんか?
- 1:04 2022年11月30日を思い出します。チャットGPTがリリースされた日です。
- 1:08 あなたにとって、それは人類の歴史における決定的な日です。そして、あなたはその日を覚えていると思います。
- 1:13 ええ、ますます多くの人が気づくようになるでしょう。2022年11月30日をチャットGPTのリリース日として記憶するでしょう。
- 1:24 人類史上最も決定的な日の一つとして。少し説明させてください。
- 1:28 今、私たちは3年後の2025年秋にいます。ついに、最初の大きな影響が
- 1:38 現れ始め、私たちはその大きな影響に直面しています。いくつか例を挙げましょう。
- 1:42 しばらく前から、シリコンバレー発の「ジョブズ・アポカリプス」という概念が登場しました。実際には、これは地球全体に広がりつつあります。
- 1:49 大量の解雇と、より陰湿な現象、つまりホワイトカラーの採用数の減少が見られます。
- 1:56 そして、10日ほど前にAmazonで起こったことの範囲内で。つまり、14%の人員削減があったと報じられました。
- 2:02 数千人の従業員が解雇されました。
- 2:04 毎日、皆さんが学校の先生について話さない日はありません。いくつか例を挙げますと、
- 2:12 彼らはもはや自分自身を知らず、自分の使命の意味さえも分からず、完全に自分たちだけで取り残されています。
- 2:19 毎日、特に文化の分野、例えば音楽の世界で話されない日はありません。
- 2:25 Spotifyのようなプラットフォームは、今日では30%以上が生成された楽曲で溢れかえっており、それが危機に瀕させています。
- 2:32 作曲家である文化の職業を。そしてもう一つ、この重要な点で締めくくることをお許しください。
- 2:40 これらのシステムに対する感情的な依存について話さない日はありません。それが極端なケース、自殺にまで至ったことは知られています。
- 2:50 これらのケースは、私たちは...
- 2:52 – もう一つ加えてもいいですか?
- 2:53 – ええ、これらの例は長いページにわたって列挙できますから。
- 2:55 – 例えば、実在しない女優、ティリー・ウッドについて話しましょう。
- 3:00 彼女は100%AIの最初の女優で、アメリカのスタートアップ企業の宣伝戦略です。
- 3:06 これら全て、あなたが非難した例は、本当の危険なのでしょうか?
- 3:12 – ええ、しかしこの女優、この偽の女優がハリウッドの俳優たちの反発を招いたことをご存知でしょう。
- 3:22 しかし私は、皆さんに賭けます。仕事を維持したいと願うハリウッドの多くの俳優たちの中で、
- 3:30 ほとんどの人がチャットGPTを使っているはずです。なぜなら、私たちの行動がそれを証明しているからです。これは3年前には見えなかったことです。
- 3:37 多くの人々がこれらのツールに飛びついたからです。ヤンさん、私は失敗があったと思います。
- 3:42 非常に真剣に言いますが、集団的な倫理的破綻があったと思います。
- 3:46 – しかし驚くべきは...
- 3:47 – 集団的です。これだけで終わらせます。なぜなら、誰もがそれに飛びついたからです。
- 3:51 私は当時、2022年11月30日、つまりその後の12月と2023年1月には、よく分かっていました。
- 3:57 私はいつも問いかけていました。「何が起こるか、分かっているのか?」と。
- 4:01 特に、私たちに課せられるべきだったあらゆる疑問と懸念の海です。
- 4:07 2、3年後に子供たちが私たちにこう言うのを見ることになるでしょうか。
- 4:10 「パパ、ママ、僕が簡単な指示を出すだけでシステムがテキストを生成してくれるなら、なぜ学校に行くの?」
- 4:15 「なぜ文法を学ぶの?なぜスペルを学ぶの?」と。
- 4:18 これらの質問は、私はしなかった。なぜか?
- 4:21 なぜなら、誰もが実用的な功利主義ばかりを説いていたからです。
- 4:23 そして、その質問をしたとき、そして私は今もその質問をし続けていますが...
- 4:26 – 禁止すべきだったのでしょうか?
- 4:27 – まず、人間の情熱があります。だからこそ、ナイチンゲールの寓話があるのです。
- 4:33 フィロメーラ。私がこの本をその話から始めるのは、人間の情熱があるからです。
- 4:36 デジタル産業が非常にうまく利用してきた情熱、それは怠惰への傾向です。
- 4:40 そして最小限の努力を求めることです。
- 4:43 そして、私が友人の家での夕食会でティーンエイジャーを見ると、私は続けて言います。
- 4:49 「チャットGPTを使っている?」と。みんな「はい」と答えるので、「でも、なぜ?」と聞きます。
- 4:54 そして答えはいつも同じです。「時間の節約、実用性の向上」と。
- 4:57 でも、何を失っているか分かっているのか?
- 4:59 一人称で話す能力、
- 5:02 自由と個性の媒体である言語を習得する能力、
- 5:06 自分の意見を表現する能力を、失っていることに気づいているのか?
- 5:08 – そう答えると、彼らは何と答えるのですか?
- 5:10 – 一般的に、私たちは困惑します。なぜなら、あまりよく聞いていないからです。
- 5:16 そして、結局のところ、それは便利であり、それが重要だと考えています。
- 5:20 しかし、それは私たち自身を放棄するトロイの木馬となるでしょう。
- 5:22 それが私の本で分析していることです。
- 5:24 – では、禁止すべきだったのでしょうか?
- 5:25 – 実用的な功利主義は、放棄です…
- 5:29 それは、私たちの能力の使用を放棄するトロイの木馬であり、
- 5:33 そして、私が皆さんと一緒に説明したい一連の結果につながります。
- 5:37 これから数分で。
- 5:38 ヤンさん、あなたの質問に戻りますが、禁止すべきだったのでしょうか?
- 5:41 では、これについては非常に正確に説明します。なぜなら、ご存じの通り、
- 5:43 私たちはAIについて話し続けています。
- 5:45 私たちは内輪だと思いますので、お話ししますが、
- 5:47 私たちを見ている人はあまりいません。
- 5:49 私たちは一度も言ったことがないと思います…
- 5:51 – カメラは2、3台ありますよ。
- 5:52 – まあ、これほど多くの愚かなことを言ったことはないと思います。
- 5:54 これほど決定的な現象に関して、
- 5:56 なぜなら、お気づきのように、最近になってAIの専門家になった人がいますから。
- 6:00 方法論の観点から、事前にやるべきことが一つあります。
- 6:03 それは、過去15年間存在してきたAIと、
- 6:07 様々なことを可能にするAIを区別することです。
- 6:08 非常に深刻なこともありますが、
- 6:11 AIによって可能になったこともあります。
- 6:13 医療における空力学、
- 6:16 エアバス・インダストリーズや航空機における空力学を考えてみてください。
- 6:21 それはまた、極めて深刻な他の多くの問題を引き起こします。
- 6:25 Amazonの倉庫では、システムが
- 6:27 製造業者の所在地を解釈し、
- 6:30 特定の製品を特定の場所から取りに行き、
- 6:33 特定のパレットに置くように指示します。
- 6:34 それが人工知能です。
- 6:36 過去20年間機能してきたものです。
- 6:38 この解釈と信号送信の力を継続し、
- 6:41 そして、ますます人間の活動の流れを組織しています。
- 6:45 しかし、別の種類のAIが登場しました。
- 6:48 そして、それは2つの異なるものです。なぜなら、私たちはAIについて話していますが…
- 6:50 今、区別する必要があります…
- 6:52 これらは2つの異なるものであり、異なる課題を伴い、
- 6:55 そして、非常に異なる結果をもたらします。
- 6:58 だからこそ、その質問に関して、
- 6:59 私は話の筋を見失っていませんから、
- 7:01 ヤンさん、あなたの質問は聞きました。
- 7:03 禁止すべきだったのでしょうか?
- 7:04 AIについては、はるかに複雑です。
- 7:06 過去20年間機能してきたAIについては。
- 7:08 物事はケースバイケースで検討すべきだと言えるでしょう。
- 7:11 しかし、私たちは十分にケースバイケースで検討していません。これは一つのことです。
- 7:14 生成AIについては、これらの質問に今答えるために…
- 7:17 – それがあなたを困らせているのですか?
- 7:18 – 私が困っているわけではありません。
- 7:19 私たち自身の原則の名において、私たち全員が、
- 7:22 私たちが何であるかの名において、私たち自身を構成するものの名において…
- 7:24 – ただ見逃すことはできますか…
- 7:25 – はい、ヤンさん、これについてだけ言わせてください。これは禁止されるべきでした。
- 7:29 しかし、誰も意識も、深い洞察力もありませんでした。
- 7:32 – 生成AIとは、どういうものですか?
- 7:35 – では、生成AIとは、何が起こっているかの深刻さをよく理解するために、
- 7:41 私はそれをコンセプトと名付けました。なぜなら、コンセプトは現象を特定することを可能にするからです。
- 7:46 誰もが理解できる、比較的シンプルなコンセプトで
- 7:49 それは私の本のサブタイトルです
- 7:51 私が「人工知能の知的・創造的転換点」と呼んでいるものです。
- 7:56 それが今、もうすぐ3年になりますが、進行中です。
- 7:59 知的・創造的転換点とはどういう意味でしょうか?
- 8:02 その影響、いや、その深刻ささえもよく理解するためには、
- 8:05 そして歴史的、そしてほとんど人類学的な断絶を、
- 8:08 人類学的な意味で、私たち自身を構成するものとして、
- 8:10 あらゆる能力を持つ人間として、
- 8:14 よく理解するためには、文字通りの表現を使う必要があります。
- 8:19 つまり、これからはシステムに委ねられるということです。
- 8:22 私がこれから言うことの重大さを理解してください。
- 8:24 これからはシステムがタスクを遂行するようになります。
- 8:29 それはこれまで私たちの知的・創造的な能力を動員していたものです。
- 8:34 人類学的な断絶をどうして見過ごせるでしょうか?
- 8:38 そして人間の生活の多くの分野に押し寄せるハリケーンを?
- 8:41 さて、これらの問題に関して言えば、多くのことが...
- 8:45 つまり、私たちの脳は萎縮するということですか?
- 8:47 それどころではありません、脳は...
- 8:51 それだけでも大変なことです。
- 8:52 ええ、それはすでに非常に大きなことですが、それは私たち自身の特定の考え方、
- 8:56 現実への私たちの関与についての特定の考え方、
- 8:58 社会についての特定の考え方です。
- 9:00 なぜなら、ご存知のように、特に私たちの能力の表現に基づいているからです。
- 9:05 社会では常に他者が必要であるという事実に基づいています。
- 9:08 私たちは医者が必要です、弁護士が必要です、
- 9:11 教授が必要です。
- 9:13 ますます、これらのシステムによって、
- 9:15 サム・アルトマンは、ChatGPTのローンチ1周年記念の際に言いました。
- 9:19 2022年ではなく、2023年11月30日のことです。
- 9:22 彼は崇拝者の群衆の前で言いました。
- 9:24 シリコンバレーの基調講演をご存知でしょう。
- 9:26 彼は「この1年、私たちはよくやった」と言いました。
- 9:27 彼がそこにいる男性です。
- 9:28 そう、私たちはこの1年、とてもよくやりました。
- 9:31 「素晴らしい、君は最高だった、ファンタスティック!」
- 9:33 彼は「どうか、どうか落ち着いてください」と言いました。
- 9:35 これから来るものに比べれば、何でもありません。
- 9:37 そしてこれから来るのは、スーパーアシスタントです。
- 9:38 それが産業投資です。
- 9:41 それは生活のあらゆる分野におけるスーパーアシスタントです。
- 9:43 つまり、例えば、これまでは、
- 9:46 家を買う場合、
- 9:48 通常は建築家に依頼し、
- 9:50 その後、おそらくデザイナーに依頼していました。
- 9:52 それはもう存在しますか?
- 9:53 ええ、ますます増えています。
- 9:54 部屋の写真を撮ると、
- 9:56 家具を配置し、ドアを設置してくれます。
- 9:58 そう、ますます、生活のあらゆる分野で、
- 10:00 弁護士アシスタント、教育アシスタント、
- 10:02 建築家アシスタント、医療アシスタント、
- 10:05 生活のあらゆる分野で、
- 10:06 スーパーアシスタントが応えてくれます。
- 10:08 私たちのどんな小さな要求にも。
- 10:10 しかし、それはどういう意味でしょうか?
- 10:11 ヤン、私があなたと何をしているか見てください。
- 10:13 私はあなたを私の視野から排除しています。
- 10:14 つまり、私たちが排除しているのは他者です。
- 10:16 しかし、社会はすでに継続的な崩壊を経験しています。
- 10:23 社会は、言ったように、他者を必要とします。
- 10:26 それはまた、一連のつながりでもあります
- 10:28 継続的な相互依存の。
- 10:30 私たちは互いに必要とし合っていると言いました。
- 10:32 ますます、継続的な対面が行われるでしょう。
- 10:35 だから、それは単に
- 10:36 私たちの能力の枯渇ではなく、
- 10:38 ある種の世界観なのです。
- 10:39 もう遅すぎるのでしょうか
- 10:40 それとも、未来のAIをまだ選ぶことができるのでしょうか?
- 10:43 それをねじ曲げることはできるのでしょうか
- 10:46 AIがもっと受け入れられるように?
- 10:48 決してそうではありません。
- 10:49 決してそうではありません。
- 10:50 何が起こっているかというと、ご存知のように、
- 10:51 これらすべてには、多くの善意があります。
- 10:54 多くの美辞麗句があります。
- 10:56 一般的に、最低限の作業としては
- 10:59 誰が話しているのかを知ることでしょう。
- 11:00 つまり、私たちが聞く多くの言説です。
- 11:02 私たちが聞く言説のほとんど、90%は
- 11:04 報道機関やテレビ番組で、私ではなく、
- 11:08 ラジオで聞くのは、当事者と見なされる人々です。
- 11:10 特に、テクノロジーのエンジニアや起業家たちで、
- 11:13 私たちが何に直面しているのかを理解するために招かれる人々です。
- 11:16 いや、待ってください、専門知識に問題があります。
- 11:18 しかし、あなたは長年
- 11:20 そのことについて警告してきました。
- 11:21 私たちはあなたのアーカイブを見つけました
- 11:22 2011年のフランス・キュルチュールでの、
- 11:23 つまり14年前のものです。
- 11:24 私にそんなことをしたのですか?
- 11:26 はい、14年前です。
- 11:27 あなたはそれ以来、老けましたね。
- 11:28 信じられない。
- 11:29 今日、あなたは退廃するAIの預言者ですが、
- 11:31 実際には、15年近く
- 11:32 同じことを言い続けています。
- 11:33 なぜ誰もあなたの言うことを聞かなかったのですか?
- 11:35 ええと、私の話は聞かれています。
- 11:38 ご存知の通り、あなたは私を遮りましたね、
- 11:39 私は話の途中で。
- 11:41 しかし、私の話は聞かれています、聞かれています。
- 11:44 しかし、ご存知の通り、哲学者が一体何だというのでしょう
- 11:46 産業力や
- 11:48 例えば、NIFDIAの
- 11:49 株式時価総額と比べて?
- 11:50 彼らがAIチップを製造していることをご存知でしょう
- 11:51 5兆ドルもの。
- 11:53 私に何ほどの価値があるというのでしょう?
- 11:54 何も、何も。
- 11:55 それでも、それでも
- 11:57 私たちのAIの理解、
- 11:59 そして生成AIについて話すとき、
- 12:01 それは通常、当事者と見なされる人々です。
- 12:04 しかし、それは専門知識における矛盾です。
- 12:06 例えば、タバコを理解したいなら、
- 12:08 マールボロ氏に尋ねるのでしょうか、
- 12:09 存在しないマールボロ氏に、
- 12:11 彼に尋ねるのでしょうか?
- 12:12 いや、そうじゃない、癌専門医たちだ
- 12:14 尋ねるべきなのは
- 12:15 彼らこそ尋ねるべきなんだ
- 12:16 だから、パリでサミットが開催された時
- 12:19 エマニュエル・マクロンによってAIについて組織されたものだが
- 12:22 私は、テック業界の人々しかいないだろうと思った
- 12:25 素晴らしい未来を約束するだろうと
- 12:26 – 彼らではなかった
- 12:27 – 彼らではなかった
- 12:28 一般公開は禁止されていた
- 12:29 約100人の国家元首がいて
- 12:31 投資競争をやめると発表し
- 12:36 そして、その全員が素晴らしい未来を歌っていた
- 12:39 来るべき未来について
- 12:41 つまり、それは約束にならない
- 12:41 2年後に晴れると言っても
- 12:43 誰もあなたに尋ねに来ないだろう
- 12:44 なぜなら、いつもそうだからだ
- 12:45 常に約束の地平線があるからだ
- 12:47 そして私は思った、私はパリにいる
- 12:48 私はフランス人だ、ボーマルシェの国
- 12:51 エミール・ゾラ、シャルル・ペギー
- 12:53 ポール・ヴァレリー、アルベール・カミュの国だ
- 12:55 そして、私が15年ほど行ってきた
- 12:57 すべての研究の名において
- 12:58 私は腕を組んで見ているわけにはいかないと思った
- 13:00 そして、私たちは対抗サミットを立ち上げた
- 13:01 そして、あなた方は『何ができるのか?』と言った
- 13:03 そして、この対抗サミットで何が起こったのか
- 13:05 それは世界初だったのだが?
- 13:06 私たちは、行政の世界から人々を招いた
- 13:12 企業の世界、ジャーナリズムの世界から
- 13:14 気候と生態学の専門家
- 13:19 そして文化の世界からだ
- 13:20 それは並外れたことだった
- 13:22 つまり、私たちは具体的な結果を見た
- 13:27 それらは非常に重要だ
- 13:28 特に文化の世界において
- 13:31 例えば、アニメーション映画の監督たちは
- 13:33 彼らが非常に不安定な状況で生活していることは知られているが
- 13:35 今やフランス・テレビジョンは
- 13:37 公金、少なくとも受信料を使って
- 13:39 アニメーション映画を作り始めるだろう
- 13:42 生成AIを使って
- 13:43 動員があった
- 13:45 今こそ動員すべき時だと思う
- 13:46 さもなければ、特に高い認知能力を要するすべての職業が
- 13:49 特に、消滅するだろう
- 13:51 そして特に文化の職業が
- 13:53 そして、これが私たちが望む世界なのか?
- 13:55 つまり、システムが
- 13:56 朝から晩まで全てを行い
- 13:57 私たちの小さなシリーズ
- 13:59 小さなフィクション、小さな音楽まで作ってしまうような
- 14:02 そこでは他者が排除され、アーティストが排除される世界だ
- 14:04 いや、腕を組んで見ているわけにはいかない
- 14:06 これらすべてに対しては
- 0:00 15년 동안, 당신은 기술, 인공지능 그리고 그 결과에 대한 연구에 전념해 오셨습니다.
- 0:06 당신은 이 중요한 책을 출판하셨고, 많은 관찰자들에게 이 책은 기 드보르(Guy Debord)의 '스펙터클의 사회(La Société du spectacle)'만큼이나 중요한 책입니다.
- 0:13 이 책의 제목은 '우리 자신들의 사막(Le désert de nous-mêmes)'이며, L'Échappée 출판사에서 나왔습니다. 시작하기 전에, 이것을 들어보고 싶습니다.
- 0:18 필로멜 나이팅게일은 당신 책의 출발점입니다. 왜죠?
- 0:25 제 책은 필로멜 나이팅게일을 등장시키는 동물 우화로 시작합니다.
- 0:30 이 나이팅게일은 수많은 창의적인 능력을 가지고 있으며, 무한한 조화를 만들어냅니다.
- 0:37 그러던 어느 날 아침, 동족 중 일부가 그들의 능력을 사용하지 않게 할 도구들을 제안하러 옵니다.
- 0:44 그리고 게으름과 최소한의 노력만을 하려는 생각에 사로잡혀, 그들은 그것을 받아들입니다.
- 0:48 우리는 그들이 창의성과 음악적 대결로 가득했던 활기찬 사회를 버리고, 위축되고,
- 0:56 슬픔과 고립감으로 가득 찬 채 좁은 둥지에서 생을 마감하는 것을 봅니다. 이것이 당신에게 무언가를 떠올리게 하지 않나요?
- 1:04 저는 2022년 11월 30일을 떠올립니다. 챗GPT(Chadjipiti)가 출시된 날이죠.
- 1:08 당신에게는 인류 역사상 결정적인 날짜입니다. 그리고 당신은 이 날짜를 기억하고 계실 겁니다.
- 1:13 아, 네, 점점 더 깨닫게 될 것 같습니다. 2022년 11월 30일을 챗GPT(Chadjipiti) 출시일로 기억하게 될 것이라고요.
- 1:24 인류 역사상 가장 결정적인 날짜 중 하나로 말이죠. 몇 마디로 설명해 드리겠습니다.
- 1:28 지금은 3년 후인 2025년 가을입니다. 이제 첫 번째 큰 결과들이 나타나기 시작하는 순간이 왔습니다.
- 1:38 우리가 큰 결과들에 직면하게 되는 순간 말이죠. 몇 가지 예를 들어드리겠습니다.
- 1:42 얼마 전부터 실리콘밸리(Silicon Valley)에서 시작된 '일자리 종말(Jobs' Apocalypse)'이라는 개념이 등장했습니다. 사실 이것은 전 세계로 확산되고 있습니다.
- 1:49 수많은 해고와 더 교활한 현상, 즉 화이트칼라(col blanc) 직종의 고용 감소를 목격하고 있습니다.
- 1:56 그리고 약 열흘 전 아마존(Amazon)에서 일어난 일의 맥락에서 보면, 14%의 인원 해고가 논의되었습니다.
- 2:02 수천 명의 직원이 해고되었습니다.
- 2:04 매일같이, 신사 숙녀 여러분, 학교 선생님들에 대한 이야기가 나오지 않는 날이 없습니다. 몇 가지 예를 아주 빠르게 말씀드리겠습니다.
- 2:12 그들은 더 이상 자신을 알지 못하고, 자신의 임무의 의미조차 모른 채 완전히 스스로에게 맡겨져 있습니다.
- 2:19 특히 문화 분야, 예를 들어 음악계에서 이야기가 나오지 않는 날이 없습니다.
- 2:25 스포티파이(Spotify)와 같은 플랫폼은 오늘날 생성된 음악으로 30% 이상 넘쳐나고 있으며, 이는 위협하고 있습니다.
- 2:32 작곡가와 같은 문화 직업들을요. 그리고 또 하루도 빠짐없이, 이 중요한 점으로 마무리해서 죄송합니다만,
- 2:40 이러한 시스템에 대한 정서적 의존성에 대한 이야기가 나오지 않는 날이 없습니다. 이는 극단적인 경우, 심지어 자살에까지 이르렀다는 것을 우리는 알고 있습니다.
- 2:50 이런 사례들은 우리가...
- 2:52 – 하나 더 추가해도 될까요?
- 2:53 – 네, 물론이죠. 이런 예시들은 긴 페이지에 걸쳐 나열할 수 있으니까요.
- 2:55 – 예를 들어, 존재하지 않는 여배우, 틸리 우드(Tilly Wood)에 대해 이야기할 수 있습니다.
- 3:00 그녀는 100% AI 여배우이며, 한 미국 스타트업의 홍보 전략입니다.
- 3:06 당신이 방금 비난한 이 모든 것, 이 모든 예시들이 진정한 위험인가요?
- 3:12 – 네, 물론이죠. 하지만 이 여배우, 이 가짜 여배우가 할리우드(Hollywood) 배우들 사이에서 반발을 불러일으켰다는 것을 아실 겁니다.
- 3:22 하지만 신사 숙녀 여러분, 저는 장담합니다. 자신의 일자리를 유지하고 싶어 하는 수많은 할리우드 배우들 중에서도,
- 3:30 대부분은 챗GPT(Chad GPT)를 사용하고 있을 것이라고요. 왜냐하면 우리의 행동이 증거이기 때문입니다. 이것이 우리가 3년 전에는 보지 못했던 것입니다.
- 3:37 수많은 사람들이 이 도구들에 달려들었기 때문에, 친애하는 얀(Yann), 저는 실패가 있었다고 생각합니다.
- 3:42 매우 진지하게 말씀드리건대, 저는 집단적인 도덕적 실패가 있었다고 생각합니다.
- 3:46 – 하지만 놀라운 점은...
- 3:47 – 집단적이라는 겁니다. 이 점에 대해서만 말씀드리겠습니다. 왜냐하면 모든 사람이 여기에 뛰어들었기 때문입니다.
- 3:51 저는 당시, 2022년 11월 30일, 그리고 이어진 12월과 2023년 1월에 아주 잘 보았습니다.
- 3:57 저는 항상 이런 질문을 던졌습니다. "무슨 일이 일어날지 깨닫고 있니?"
- 4:01 특히 우리에게 제기되었어야 할 모든 질문과 모든 우려의 바다를 말이죠.
- 4:07 2, 3년 안에 우리 아이들이 우리에게 이렇게 말하는 것을 보게 될까요?
- 4:10 "아빠, 엄마, 제가 간단한 지시만으로 텍스트를 생성하는 시스템이 있는데, 왜 학교에 가야 해요?"
- 4:15 "왜 문법을 배우고, 왜 철자를 배워야 해요?"
- 4:18 이 모든 질문들을 저는 던지지 않았습니다. 왜일까요?
- 4:21 모든 사람이 오직 실용적인 공리주의만을 설파했기 때문입니다.
- 4:23 그리고 우리가 질문을 던졌을 때, 그리고 저는 계속해서 질문을 던지고 있습니다...
- 4:26 – 우리가 그것을 금지했어야 했을까요?
- 4:27 – 음, 우선 인간에게는 열정이 있습니다. 그래서 나이팅게일 우화가 있는 것이고,
- 4:33 제가 필로멜(Philomel)과 함께 책을 시작하는 이유도 인간에게 열정이 있기 때문입니다.
- 4:36 디지털 산업이 아주 잘 이용한 인간의 열정은 바로 게으름에 대한 성향과
- 4:40 최소한의 노력을 추구하는 것입니다.
- 4:43 그리고 저는 계속해서, 친구 집 저녁 식사 자리에서 청소년들을 볼 때마다,
- 4:49 "너 챗GPT(JPT) 쓰니?"라고 묻습니다. 모두가 "네"라고 답하고, 저는 "왜?"라고 묻습니다.
- 4:54 그리고 대답은 항상 같습니다. 시간 절약, 실용성.
- 4:57 하지만 네가 무엇을 잃고 있는지 깨닫고 있니?
- 4:59 1인칭으로 말하는 너의 능력,
- 5:02 자유와 개성의 매개체인 언어를 숙달하는 능력,
- 5:06 너 자신의 입장을 표현하는 능력을 깨닫고 있니?
- 5:08 – 그렇게 대답하면 그들은 뭐라고 답하나요?
- 5:10 – 보통은 당황하죠, 잘 듣지 못했으니까요,
- 5:16 그리고 결국 편리하고 그게 중요하다고 생각하죠.
- 5:20 하지만 그것은 우리 자신을 포기하는 트로이 목마가 될 것입니다,
- 5:22 이것이 제가 제 책에서 분석하는 내용입니다.
- 5:24 – 그럼, 금지했어야 했을까요?
- 5:25 – 실용적 공리주의는… 포기하는 것입니다.
- 5:29 그것은 우리의 능력을 사용하는 것을 포기하는 트로이 목마입니다,
- 5:33 그리고 제가 여러분과 함께 설명하고 싶은 일련의 결과들이 있습니다.
- 5:37 곧 이어질 몇 분 안에요.
- 5:38 Yann, 당신의 질문으로 돌아가서, 금지했어야 했을까요?
- 5:41 음, 이 점에 대해 아주 정확히 말씀드리겠습니다. 아시다시피,
- 5:43 우리는 계속해서 AI에 대해 이야기합니다.
- 5:45 우리끼리 하는 이야기라고 생각하고 말씀드립니다만,
- 5:47 우리를 지켜보는 사람이 많지 않습니다.
- 5:49 저는 우리가 한 번도 말한 적이 없다고 생각합니다…
- 5:51 – 그래도 두세 대의 카메라가 있습니다.
- 5:52 – 음, 저는 우리가 이렇게 많은 어리석은 말을 한 적이 없다고 생각합니다.
- 5:54 이렇게 결정적인 현상에 관해서는요,
- 5:56 왜냐하면, 아시다시피, 최근에 AI 전문가가 된 사람들이 많습니다.
- 6:00 방법론적인 측면에서 우리가 먼저 해야 할 일이 하나 있습니다.
- 6:03 그것은 지난 15년 동안 존재해 온 AI를 분리하는 것입니다.
- 6:07 이것은 여러 가지를 가능하게 합니다.
- 6:08 매우 심각한 것들도 있지만,
- 6:11 AI로 인해 가능해진 것들도 있습니다.
- 6:13 저는 의료 공기역학을 생각합니다.
- 6:16 에어버스 인더스트리나 항공기 분야의 공기역학에서요,
- 6:21 그것은 또한 극도로 심각한 다른 많은 문제들을 야기합니다.
- 6:25 아마존 창고에서는 시스템들이
- 6:27 제조업체의 위치를 해석하고
- 6:30 그들에게 특정 제품을 가져오라고 지시합니다.
- 6:33 특정 장소에서 가져와 특정 위치에 놓도록 말이죠.
- 6:34 이것이 인공지능입니다.
- 6:36 지난 20년 동안 작동해 온 방식대로요,
- 6:38 해석하고 신호를 보내는 이 능력을 계속하며
- 6:41 점점 더 인간사의 흐름을 조직합니다.
- 6:45 하지만 또 다른 종류의 AI가 등장했습니다.
- 6:48 그리고 이것은 두 가지 다른 것입니다. 왜냐하면 우리는 AI에 대해 이야기하지만…
- 6:50 이제 구별해야 합니다…
- 6:52 이것들은 두 가지 다른 것이며, 다른 문제들을 야기하고
- 6:55 매우 다른 결과들을 초래합니다.
- 6:58 그래서 그 질문에 관해서는,
- 6:59 제가 요점을 놓치지 않았기 때문에,
- 7:01 친애하는 Yann, 당신의 질문을 들었습니다.
- 7:03 금지했어야 했을까요?
- 7:04 AI에 관해서는 훨씬 더 복잡합니다.
- 7:06 지난 20년 동안 작동해 온 방식대로요.
- 7:08 우리는 사안별로 접근해야 한다고 말할 수 있습니다.
- 7:11 하지만 우리는 충분히 사안별로 접근하지 않습니다. 이것이 한 가지입니다.
- 7:14 생성형 AI에 관해서는, 이제 이 질문들에 답하기 위해…
- 7:17 – 그것이 당신을 불편하게 하는 건가요?
- 7:18 – 저를 불편하게 하는 것이 아니라,
- 7:19 우리 모두가, 우리의 원칙의 이름으로,
- 7:22 우리의 존재의 이름으로, 우리를 구성하는 것의 이름으로…
- 7:24 – 우리가 그냥 놓칠 수 있을까요…
- 7:25 – 네, Yann, 이 부분만 마무리하겠습니다. 이것은 금지되었어야 했습니다.
- 7:29 하지만 아무도 그런 의식, 즉 본질을 꿰뚫어보는 통찰력을 가지지 못했습니다.
- 7:32 – 생성형 AI가 하는 일이 무엇인가요?
- 7:35 – 음, 생성형 AI는, 지금 벌어지고 있는 일의 심각성을 제대로 이해하기 위해,
- 7:41 저는 이것을 개념이라고 불렀습니다. 왜냐하면 개념은 현상들을 식별할 수 있게 해주기 때문입니다.
- 7:46 모두가 이해할 수 있는 비교적 간단한 개념으로,
- 7:49 제 책의 부제입니다.
- 7:51 제가 인공지능의 지적이고 창의적인 전환점이라고 부르는 것입니다.
- 7:56 이것이 지금으로부터 거의 3년 전부터 진행되고 있는 일입니다.
- 7:59 지적이고 창의적인 전환점이라는 것이 무엇을 의미할까요?
- 8:02 그 중요성, 심지어는 심각성까지 제대로 이해하려면,
- 8:05 그리고 역사적이고 거의 인류학적인 단절을 이해하려면,
- 8:08 우리 자신을 구성하는 것의 의미에서 인류학적이라는 것은,
- 8:10 일련의 모든 능력을 갖춘 인간으로서의 우리를 말합니다.
- 8:14 제대로 이해하기 위해서는 문자 그대로의 표현을 사용해야 합니다.
- 8:19 즉, 이제부터는 시스템에 맡겨진다는 것입니다.
- 8:22 제가 말할 내용의 심각성을 이해해야 합니다.
- 8:24 이제부터는 시스템이 다음과 같은 작업을 수행하게 됩니다.
- 8:29 지금까지 우리의 지적이고 창의적인 능력을 동원했던 작업들 말입니다.
- 8:34 인류학적 단절을 어떻게 보지 않을 수 있겠습니까?
- 8:38 그리고 인간 삶의 수많은 영역에 닥쳐올 태풍을 말입니다.
- 8:41 자, 사실은 이러한 문제들과 관련하여 많은...
- 8:45 즉, 우리의 뇌가 위축될 것이라는 말인가요?
- 8:47 그 이상입니다. 뇌가...
- 8:51 그것만으로도 이미 엄청난데요.
- 8:52 네, 이미 엄청난 일이지만, 그것은 우리 자신에 대한 어떤 생각,
- 8:56 현실에 대한 우리의 개입에 대한 어떤 생각,
- 8:58 사회에 대한 어떤 생각입니다.
- 9:00 왜냐하면 아시다시피, 특히 우리의 능력 발현에 기반을 두고 있기 때문입니다.
- 9:05 사회에서 우리는 항상 타인을 필요로 한다는 사실에 기반을 두고 있습니다.
- 9:08 우리는 의사가 필요하고, 법률가가 필요하며,
- 9:11 교수가 필요합니다.
- 9:13 점점 더, 이러한 시스템들로 인해,
- 9:15 샘 알트만(Sam Altman)은 챗GPT(ChatGPT) 출시 1주년 기념일에 이렇게 말했습니다.
- 9:19 2022년이 아니라 2023년 11월 30일에 말입니다.
- 9:22 그는 수많은 숭배자들 앞에서 말했습니다.
- 9:24 실리콘밸리(Silicon Valley)의 기조연설들 아시죠?
- 9:26 그는 "우리는 지난 한 해 동안 잘 해왔습니다"라고 말했습니다.
- 9:27 저기 보이는 분입니다.
- 9:28 네, 지난 한 해 동안 우리는 아주 잘했습니다.
- 9:31 "놀랍고, 대단하고, 환상적이었어요!"
- 9:33 그는 "제발, 제발, 진정하세요"라고 말했습니다.
- 9:35 이것은 앞으로 올 것에 비하면 아무것도 아닙니다.
- 9:37 그리고 앞으로 올 것은 슈퍼 어시스턴트들입니다.
- 9:38 산업 투자가 바로 여기에 있습니다.
- 9:41 삶의 모든 영역에 걸친 슈퍼 어시스턴트들 말입니다.
- 9:43 예를 들어, 지금까지는
- 9:46 집을 사면,
- 9:48 보통 건축가에게 의뢰하고,
- 9:50 그 다음에는 디자이너에게 의뢰했을 겁니다.
- 9:52 벌써 그런 게 있나요?
- 9:53 네, 점점 더 많아지고 있습니다.
- 9:54 방 사진을 찍으면,
- 9:56 가구를 배치해주고, 문을 달아줍니다.
- 9:58 네, 점점 더 삶의 모든 영역에서,
- 10:00 변호사 보조, 교육 보조,
- 10:02 건축가 보조, 건강 보조 등
- 10:05 삶의 모든 영역에서,
- 10:06 슈퍼 어시스턴트들이 응답할 것입니다.
- 10:08 우리의 아주 사소한 요청에도 말입니다.
- 10:10 그런데 그게 무슨 의미인가요?
- 10:11 얀, 제가 당신과 함께 하는 것을 보세요.
- 10:13 저는 당신을 제 시야에서 제거합니다.
- 10:14 즉, 우리가 제거하는 것은 타인입니다.
- 10:16 그런데 사회는 이미 지속적인 붕괴가 일어나고 있습니다.
- 10:23 사회는, 우리가 말했듯이, 타인이 필요합니다.
- 10:26 그것은 또한 일련의 관계들입니다
- 10:28 지속적인 상호 의존 관계입니다.
- 10:30 우리는 서로가 필요하다고 말했습니다.
- 10:32 점점 더, 지속적인 대면이 이루어질 것입니다.
- 10:35 그래서 그것은 단지
- 10:36 우리의 능력 고갈만이 아니라,
- 10:38 세상에 대한 어떤 생각입니다.
- 10:39 너무 늦었을까요
- 10:40 아니면 미래의 AI를 아직 선택할 수 있을까요?
- 10:43 우리가 그것을 바꿀 수 있을까요
- 10:46 AI가 더 수용 가능하도록요?
- 10:48 절대 아닙니다.
- 10:49 절대 아닙니다.
- 10:50 무슨 일이 일어나고 있냐면, 아시다시피,
- 10:51 이 모든 것에는 좋은 의도들이 많습니다.
- 10:54 포장하는 말들이 많습니다.
- 10:56 일반적으로, 최소한의 작업은 요구할 것입니다
- 10:59 누가 말하는지 아는 것을요.
- 11:00 즉, 우리가 듣는 많은 이야기들입니다.
- 11:02 대부분, 우리가 듣는 이야기의 90%는
- 11:04 언론에서, TV 프로그램에서 (저는 아니지만),
- 11:08 라디오에서, 편향된 사람들입니다.
- 11:10 특히 기술 분야의 엔지니어들과 기업가들입니다
- 11:13 우리가 무엇을 다루고 있는지 이해하기 위해 초대하는 사람들 말입니다.
- 11:16 아니 잠깐만요, 전문성에 문제가 있습니다.
- 11:18 하지만 당신은 수년 동안
- 11:20 그것에 대해 경고해왔습니다.
- 11:21 저희는 당신의 기록을 찾았습니다
- 11:22 2011년 France Culture에서요,
- 11:23 그러니까 14년 전이었습니다.
- 11:24 저한테 그러셨어요?
- 11:26 네, 14년 전입니다.
- 11:27 그때부터 많이 늙으셨네요.
- 11:28 놀랍네요.
- 11:29 오늘날 당신은 퇴화하는 AI의 예언자이지만,
- 11:31 사실은 거의 15년 동안
- 11:32 같은 말을 해왔습니다.
- 11:33 왜 아무도 당신의 말을 듣지 않았을까요?
- 11:35 음, 사람들은 제 말을 듣습니다.
- 11:38 아시다시피, 당신이 저를 방해했습니다,
- 11:39 제가 한창 이야기 중이었는데 말이죠.
- 11:41 하지만 사람들은 제 말을 듣습니다, 듣고 있습니다.
- 11:44 하지만 아시다시피, 철학자가 무엇입니까
- 11:46 산업 강국과 비교했을 때
- 11:48 그리고 예를 들어 시가총액과 비교했을 때
- 11:49 NIFDIA의 주식 시가총액과요?
- 11:50 그 회사가 AI 칩을 만든다는 것을 아시죠
- 11:51 5조 달러 규모의 AI 칩을요.
- 11:53 제가 무슨 영향력이 있겠습니까?
- 11:54 아무것도 아닙니다, 아무것도요.
- 11:55 그럼에도 불구하고, 그럼에도 불구하고
- 11:57 우리의 AI에 대한 이해는,
- 11:59 그리고 우리는 생성형 AI에 대해 이야기하고 있습니다만,
- 12:01 일반적으로 편향된 사람들의 것입니다.
- 12:04 하지만 이것은 전문성에서 일관성이 없는 것입니다.
- 12:06 예를 들어, 담배를 이해하고 싶다면,
- 12:08 말보로 씨를 인터뷰할까요,
- 12:09 존재하지 않는 말보로 씨를요,
- 12:11 그 사람을 인터뷰할까요?
- 12:12 아니요, 암 전문의들이에요
- 12:14 그들에게 질문해야 합니다.
- 12:15 그들에게 질문해야 합니다.
- 12:16 그래서 파리 정상회담이 열렸을 때
- 12:19 에마뉘엘 마크롱이 AI에 관해 주최한 회담에서,
- 12:22 저는 기술 분야 사람들만 있을 거라고 생각했어요.
- 12:25 그들이 우리에게 멋진 미래를 약속할 것이라고요.
- 12:26 – 그들이 아니었어요.
- 12:27 – 그들이 아니었어요,
- 12:28 대중에게는 금지되었죠.
- 12:29 수백 명의 국가 원수들이 있었고
- 12:31 투자 경쟁을 멈추겠다고 발표했습니다.
- 12:36 그리고 그 모든 사람들이 우리에게 멋진 미래를 노래했어요.
- 12:39 다가올 미래에 대해 말이죠.
- 12:41 다시 말해, 그것은 구속력이 없어요.
- 12:41 2년 뒤에 날씨가 좋을 거라고 말해도,
- 12:43 아무도 당신에게 질문하러 오지 않을 거예요.
- 12:44 왜냐하면 항상 그렇듯이,
- 12:45 항상 약속의 지평선이 있기 때문이죠.
- 12:47 그리고 저는 생각했어요, 저는 파리에 있고,
- 12:48 저는 프랑스인이고, 보마르셰의 나라이며,
- 12:51 에밀 졸라, 샤를 페기,
- 12:53 폴 발레리, 알베르 카뮈의 나라인데,
- 12:55 제가 지난 15년간 수행해 온
- 12:57 모든 연구의 이름으로,
- 12:58 저는 팔짱만 끼고 있을 수 없다고 생각했어요.
- 13:00 그래서 우리는 대항 정상회담을 열었습니다.
- 13:01 그리고 당신은 '우리가 무엇을 할 수 있을까요?'라고 말했죠.
- 13:03 그리고 세계 최초였던 이 대항 정상회담에서
- 13:05 무슨 일이 일어났을까요?
- 13:06 우리는 공공 행정 분야 사람들을 초대했습니다,
- 13:12 기업계, 언론계,
- 13:14 기후 및 생태 전문가들,
- 13:19 문화계 인사들을요.
- 13:20 그것은 놀라웠습니다.
- 13:22 다시 말해, 우리는 구체적인 결과들을 보았는데,
- 13:27 그것들은 매우 중요합니다.
- 13:28 특히 문화계에서 말이죠.
- 13:31 예를 들어, 애니메이션 영화 감독들은
- 13:33 매우 불안정한 상황에서 살고 있다는 것을 알고 있는데,
- 13:35 이제 카페 프랑스 텔레비전은,
- 13:37 공공 자금, 즉 수신료로,
- 13:39 음, 그들은 애니메이션 영화를 만들기 시작할 것입니다.
- 13:42 생성형 AI를 사용해서요.
- 13:43 움직임이 있었습니다.
- 13:45 저는 지금이 행동할 때라고 생각합니다.
- 13:46 그렇지 않으면, 모든 고도의 인지 능력을 요하는 직업들이,
- 13:49 특히 사라질 것입니다.
- 13:51 특히 문화 분야 직업들이요.
- 13:53 그리고 이것이 우리가 원하는 세상인가요?
- 13:55 다시 말해, 시스템들이
- 13:56 아침부터 저녁까지 모든 것을 하고
- 13:57 우리의 작은 시리즈, 작은 소설,
- 13:59 작은 음악까지 만들어주는 세상에서,
- 14:02 타인이 배제되고, 예술가가 배제되는 세상 말이죠.
- 14:04 아니요, 이 모든 것에 대해 팔짱만 끼고 있을 수는 없습니다.
- 14:06 이 모든 것에 대해 팔짱만 끼고 있을 수는 없습니다.
- 0:00 Trong 15 năm qua, ông đã dành công sức nghiên cứu về công nghệ, trí tuệ nhân tạo và những hệ quả của nó.
- 0:06 Ông xuất bản cuốn sách quan trọng này, và đối với nhiều nhà quan sát, đây là một cuốn sách cũng quan trọng như <i>Xã hội Cảnh tượng</i> của Guy Debord.
- 0:13 Nó có tên là « Sa mạc của chính chúng ta », do nhà xuất bản L'Échappée phát hành. Và để bắt đầu, tôi muốn nghe điều này.
- 0:18 Chim họa mi Philomène là điểm khởi đầu cho cuốn sách của ông. Tại sao?
- 0:25 Cuốn sách của tôi bắt đầu bằng một truyện ngụ ngôn về loài vật, kể về chim họa mi Philomène,
- 0:30 với đầy đủ khả năng sáng tạo, tạo ra vô số giai điệu hài hòa.
- 0:37 Và rồi, một buổi sáng đẹp trời, một số đồng loại của chúng đến đề nghị chúng những công cụ sẽ khiến chúng không cần sử dụng các khả năng của mình nữa.
- 0:44 Và vì lười biếng và muốn ít nỗ lực nhất, chúng đã chấp nhận điều đó.
- 0:48 Và chúng ta thấy chúng từ bỏ xã hội sôi nổi, đầy sáng tạo, những cuộc đấu âm nhạc, và cuối cùng trở nên teo tóp,
- 0:56 đầy buồn bã và cô lập trong tổ ấm chật hẹp của mình. Điều này có làm ông nghĩ đến điều gì không?
- 1:04 Điều đó làm tôi nghĩ đến ngày 30 tháng 11 năm 2022. Đó là ngày ra mắt của ChatGPT.
- 1:08 Đối với ông, đó là một ngày mang tính quyết định trong lịch sử nhân loại. Và tôi tin rằng ông vẫn nhớ ngày đó.
- 1:13 À vâng, tôi nghĩ chúng ta sẽ ngày càng nhận ra rằng ngày 30 tháng 11 năm 2022 sẽ được ghi nhớ là ngày ra mắt của ChatGPT,
- 1:24 là một trong những ngày mang tính quyết định nhất trong lịch sử nhân loại. Tôi xin giải thích ngắn gọn.
- 1:28 Giờ đây, ba năm sau, vào mùa thu năm 2025. Thời điểm mà những hậu quả lớn đầu tiên
- 1:38 bắt đầu hiện rõ, nơi chúng ta phải đối mặt với những hậu quả lớn. Tôi xin đưa ra vài ví dụ.
- 1:42 Trong một thời gian, khái niệm Ngày tận thế việc làm (Jobs' Apocalypse) đã xuất hiện, đến từ Thung lũng Silicon. Thực tế, nó đang lan rộng ra toàn cầu,
- 1:49 chứng kiến hàng loạt vụ sa thải và một hiện tượng thâm độc hơn, đó là ít tuyển dụng hơn đối với nhân viên văn phòng,
- 1:56 và trong bối cảnh những gì đã xảy ra với Amazon khoảng mười ngày trước. Người ta đã nói về việc sa thải 14% nhân sự.
- 2:02 Hàng nghìn nhân viên bị sa thải.
- 2:04 Không một ngày nào, tôi xin đưa ra vài ví dụ rất nhanh, mà không nói đến, thưa quý vị, các giáo viên trong trường học
- 2:12 những người thậm chí không còn nhận ra chính mình, không còn biết ý nghĩa nhiệm vụ của mình là gì, hoàn toàn bị bỏ mặc.
- 2:19 Không một ngày nào mà không nói đến, đặc biệt trong lĩnh vực văn hóa và đặc biệt là trong thế giới âm nhạc, chẳng hạn,
- 2:25 các nền tảng như Spotify bị tràn ngập tới hơn 30% bởi các bản nhạc được tạo ra bởi AI và đang đe dọa
- 2:32 các ngành nghề văn hóa như nhà soạn nhạc. Và xin lỗi, không một ngày nào nữa, tôi xin kết thúc ở điểm quan trọng này,
- 2:40 mà không nói về sự phụ thuộc cảm xúc vào các hệ thống này, vốn đã dẫn đến, như chúng ta biết, những trường hợp cực đoan, thậm chí là tự tử.
- 2:50 Những trường hợp đó, chúng ta có thể...
- 2:52 – Tôi có thể thêm một cái nữa không?
- 2:53 – Vâng, vì chúng ta có thể liệt kê những ví dụ này trên nhiều trang dài.
- 2:55 – Tôi có thể nói về nữ diễn viên này, chẳng hạn, nữ diễn viên không tồn tại, tên là Tilly Wood.
- 3:00 Đó là nữ diễn viên 100% AI đầu tiên, một chiêu trò truyền thông của một startup Mỹ.
- 3:06 Tất cả những điều này, tất cả những ví dụ mà ông vừa lên án, có phải là một mối nguy hiểm thực sự không?
- 3:12 – Vâng, nhưng ông biết rằng nữ diễn viên này, nữ diễn viên giả này đã gây ra sự phản đối mạnh mẽ từ các diễn viên Hollywood.
- 3:22 Nhưng tôi dám cá, thưa quý vị, rằng trong số đông diễn viên Hollywood muốn giữ việc làm của mình,
- 3:30 hầu hết chắc chắn đang sử dụng ChatGPT, bởi vì hành động của chúng ta đã chứng minh điều đó, điều mà chúng ta đã không thấy ba năm trước.
- 3:37 Bởi vì đám đông đã đổ xô vào những công cụ này, tôi nghĩ rằng đã có một sự thất bại, Yann thân mến,
- 3:42 tôi nói với bạn một cách rất nghiêm túc, tôi nghĩ rằng đã có một sự suy đồi đạo đức tập thể.
- 3:46 – Nhưng điều đáng ngạc nhiên là...
- 3:47 – Tập thể, tôi chỉ kết thúc ở điểm này, bởi vì mọi người đều lao vào điều đó.
- 3:51 Tôi đã thấy rất rõ vào thời điểm đó, ngày 30 tháng 11 năm 2022, tức là những ngày sau đó vào tháng 12 và tháng 1 năm 2023,
- 3:57 tôi luôn đặt câu hỏi, nhưng bạn có nhận ra điều gì sẽ xảy ra không,
- 4:01 và đặc biệt là vô vàn câu hỏi lẽ ra phải đặt ra cho chúng ta và mọi mối lo ngại.
- 4:07 Liệu chúng ta có thấy con cái mình, trong hai, ba năm nữa, sẽ nói với chúng ta,
- 4:10 « Bố, mẹ, tại sao con phải đi học, nếu các hệ thống chỉ với một hướng dẫn đơn giản từ con,
- 4:15 có thể tạo ra văn bản, tại sao con phải học ngữ pháp, tại sao con phải học chính tả? »
- 4:18 Tất cả những câu hỏi này, tôi đã không đặt ra, tại sao?
- 4:21 Bởi vì mọi người chỉ rao giảng về chủ nghĩa thực dụng.
- 4:23 Và khi chúng ta đặt câu hỏi, và tôi vẫn tiếp tục đặt câu hỏi...
- 4:26 – Chúng ta có nên cấm nó không?
- 4:27 – Vậy thì, trước hết, có một bản năng của con người, đó là lý do tại sao có câu chuyện ngụ ngôn về những chú chim họa mi,
- 4:33 Philomel, mà tôi bắt đầu cuốn sách với nó, bởi vì có một bản năng của con người
- 4:36 mà ngành công nghiệp kỹ thuật số đã lợi dụng rất tốt, đó là xu hướng lười biếng,
- 4:40 và tìm kiếm sự nỗ lực tối thiểu.
- 4:43 Và thực tế là, tôi tiếp tục, khi tôi thấy những thanh thiếu niên trong các bữa tối, ở nhà bạn bè,
- 4:49 tôi hỏi, « Bạn có dùng ChatGPT không? » Mọi người đều nói có, và tôi hỏi, « Nhưng tại sao? »
- 4:54 Và câu trả lời luôn giống nhau. Tiết kiệm thời gian, tiện lợi.
- 4:57 Nhưng bạn có nhận ra mình đang mất gì không?
- 4:59 Bạn có nhận ra khả năng nói chuyện ở ngôi thứ nhất của mình không,
- 5:02 khả năng làm chủ ngôn ngữ, vốn là phương tiện của tự do, của sự độc đáo,
- 5:06 khả năng thể hiện quan điểm của riêng bạn?
- 5:08 – Khi bạn trả lời như vậy, họ sẽ trả lời bạn thế nào?
- 5:10 – Thông thường, chúng ta bối rối, vì chúng ta không lắng nghe kỹ,
- 5:16 và chúng ta nghĩ rằng, cuối cùng, nó tiện lợi, và đó là điều quan trọng.
- 5:20 Tuy nhiên, điều đó sẽ là con ngựa thành Troie của sự từ bỏ chính mình,
- 5:22 đó là điều tôi phân tích trong cuốn sách của mình.
- 5:24 – Vậy, chúng ta có nên cấm không?
- 5:25 – Chủ nghĩa thực dụng, đó là sự từ bỏ của...
- 5:29 đó là con ngựa thành Troie của sự từ bỏ việc sử dụng các khả năng của chúng ta,
- 5:33 và một loạt các hậu quả mà tôi rất muốn mô tả với bạn
- 5:37 trong vài phút tới.
- 5:38 Để trở lại câu hỏi của bạn, Yann, chúng ta có nên cấm không?
- 5:41 Vậy thì, tôi sẽ rất cụ thể về điều này, bởi vì, bạn biết đấy,
- 5:43 chúng ta không ngừng nói về AI.
- 5:45 Tôi nghĩ chúng ta đang nói chuyện riêng, tôi nói cho bạn biết,
- 5:47 không có nhiều người đang xem chúng ta.
- 5:49 Tôi nghĩ chúng ta chưa bao giờ nói...
- 5:51 – Dù sao thì cũng có hai, ba camera.
- 5:52 – Chà, tôi nghĩ chúng ta chưa bao giờ nói nhiều điều ngớ ngẩn đến vậy
- 5:54 liên quan đến một hiện tượng mang tính quyết định như vậy,
- 5:56 bởi vì, bạn đã nhận thấy, có những chuyên gia AI mới nổi.
- 6:00 Có một điều chúng ta phải làm trước tiên, về mặt phương pháp luận,
- 6:03 đó là tách biệt AI, như nó đã tồn tại khoảng mười lăm năm nay,
- 6:07 cho phép thực hiện một loạt các điều.
- 6:08 Có những điều cực kỳ nghiêm trọng,
- 6:11 nhưng cũng có những điều được AI làm cho khả thi,
- 6:13 tôi nghĩ đến khí động học y tế,
- 6:16 trong khí động học cho Airbus Industries hoặc trong máy bay,
- 6:21 điều đó cũng liên quan đến nhiều vấn đề cực kỳ nghiêm trọng khác
- 6:25 trong các kho hàng Amazon nơi các hệ thống
- 6:27 giải thích vị trí của các nhà sản xuất
- 6:30 và ra lệnh cho họ đi lấy sản phẩm này
- 6:33 ở nơi này để đặt vào vị trí kia.
- 6:34 Đó chính là trí tuệ nhân tạo,
- 6:36 như nó đã hoạt động trong khoảng hai mươi năm nay,
- 6:38 tiếp tục sức mạnh diễn giải và gửi tín hiệu này
- 6:41 và ngày càng tổ chức các hoạt động của con người.
- 6:45 Nhưng có một loại AI khác đã xuất hiện,
- 6:48 và đó là hai điều khác nhau, bởi vì chúng ta nói về AI...
- 6:50 Bây giờ, chúng ta phải phân biệt...
- 6:52 Đó là hai điều khác nhau, nó mang theo những vấn đề khác nhau
- 6:55 và nó dẫn đến những hậu quả rất khác nhau.
- 6:58 Và đó là lý do tại sao, liên quan đến câu hỏi,
- 6:59 bởi vì tôi không lạc đề,
- 7:01 tôi đã nghe câu hỏi của bạn, Yann thân mến,
- 7:03 chúng ta có nên cấm không?
- 7:04 Về AI, nó phức tạp hơn nhiều,
- 7:06 như nó đã hoạt động trong khoảng hai mươi năm nay.
- 7:08 Chúng ta sẽ nói rằng chúng ta nên xem xét mọi thứ từng trường hợp một.
- 7:11 Tuy nhiên, chúng ta chưa xem xét chúng đủ từng trường hợp một, đó là một điều.
- 7:14 Về AI tạo sinh, để trả lời các câu hỏi này bây giờ...
- 7:17 – Đó có phải là điều làm bạn khó chịu không?
- 7:18 – Không phải là nó làm tôi khó chịu,
- 7:19 mà là tất cả chúng ta, nhân danh những nguyên tắc của chúng ta,
- 7:22 nhân danh con người chúng ta, nhân danh những gì tạo nên bản chất của chúng ta...
- 7:24 – Chúng ta có thể chỉ bỏ lỡ...
- 7:25 – Vâng, tôi chỉ kết thúc về điều này Yann, điều này, điều đó lẽ ra phải bị cấm.
- 7:29 Nhưng không ai có ý thức, sự sáng suốt.
- 7:32 – Để nó làm được những gì AI tạo sinh làm, nó là gì?
- 7:35 – Vậy thì, AI tạo sinh, để hiểu rõ mức độ nghiêm trọng của những gì đang diễn ra,
- 7:41 tôi đã gọi đó là một khái niệm, bởi vì khái niệm cho phép xác định các hiện tượng
- 7:46 với một khái niệm tương đối đơn giản mà ai cũng sẽ hiểu,
- 7:49 đó là phụ đề cuốn sách của tôi,
- 7:51 mà tôi gọi là bước ngoặt trí tuệ và sáng tạo của trí tuệ nhân tạo.
- 7:56 Đó là điều đang diễn ra trong gần ba năm nay.
- 7:59 Bước ngoặt trí tuệ và sáng tạo nghĩa là gì?
- 8:02 Để hiểu rõ tầm quan trọng, tôi muốn nói là cả sự nghiêm trọng,
- 8:05 và sự đứt gãy mang tính lịch sử và gần như nhân học,
- 8:08 nhân học theo nghĩa là những gì cấu thành nên chúng ta,
- 8:10 với tư cách là con người được trang bị đầy đủ các năng lực,
- 8:14 đó là, để hiểu rõ, cần phải sử dụng một công thức theo nghĩa đen,
- 8:19 nghĩa là từ nay nó được giao cho các hệ thống,
- 8:22 phải hiểu sự nghiêm trọng của điều tôi sắp nói,
- 8:24 từ nay nó được giao cho các hệ thống đảm nhiệm các nhiệm vụ
- 8:29 mà cho đến nay vẫn huy động các năng lực trí tuệ và sáng tạo của chúng ta.
- 8:34 Làm sao không thấy được sự đứt gãy nhân học
- 8:38 và cơn bão đang ập đến trên vô số lĩnh vực của đời sống con người?
- 8:41 Vậy thì, thực tế là, liên quan đến những vấn đề này, có rất nhiều...
- 8:45 Nghĩa là não của chúng ta sẽ bị teo lại ư?
- 8:47 Nó còn hơn thế nữa, đó là bộ não...
- 8:51 Điều đó đã là rất nhiều rồi.
- 8:52 Vâng, điều đó đã rất lớn, nhưng đó là một ý niệm nhất định về bản thân chúng ta,
- 8:56 một ý niệm nhất định về sự tham gia của chúng ta vào thực tế,
- 8:58 một ý niệm nhất định về xã hội,
- 9:00 bởi vì bạn biết rằng, và đặc biệt dựa trên sự thể hiện các năng lực của chúng ta,
- 9:05 trên thực tế là chúng ta luôn cần người khác trong xã hội,
- 9:08 chúng ta cần một bác sĩ, chúng ta cần một luật sư,
- 9:11 chúng ta cần một giáo sư.
- 9:13 Ngày càng nhiều, với các hệ thống này,
- 9:15 Sam Altman đã nói điều đó trong lễ kỷ niệm một năm ra mắt ChatGPT,
- 9:19 không phải năm 2022, mà là ngày 30 tháng 11 năm 2023,
- 9:22 ông ấy đã nói trước một đám đông những người hâm mộ,
- 9:24 bạn biết đấy, các bài phát biểu quan trọng ở Thung lũng Silicon,
- 9:26 ông ấy nói « We have been good the past year ».
- 9:27 Đó là người đàn ông chúng ta thấy ở đó.
- 9:28 Đúng vậy, chúng ta đã làm rất tốt trong năm vừa qua.
- 9:31 « Tuyệt vời, bạn thật xuất sắc, tuyệt diệu! »
- 9:33 Ông ấy nói « Please, please, calm down ».
- 9:35 Điều đó chẳng là gì so với những gì sắp tới.
- 9:37 Và những gì sắp tới là các siêu trợ lý,
- 9:38 đó là các khoản đầu tư công nghiệp,
- 9:41 đó là các siêu trợ lý trong mọi lĩnh vực của cuộc sống.
- 9:43 Nghĩa là, ví dụ, cho đến nay,
- 9:46 nếu bạn mua một ngôi nhà,
- 9:48 thông thường, bạn sẽ nhờ đến một kiến trúc sư,
- 9:50 và có thể sau đó là một nhà thiết kế.
- 9:52 Điều đó đã tồn tại rồi ư?
- 9:53 Vâng, ngày càng nhiều.
- 9:54 Bạn chụp ảnh một căn phòng,
- 9:56 và sau đó nó sẽ đặt đồ nội thất, đặt cửa cho bạn.
- 9:58 Đúng vậy, ngày càng nhiều, trong mọi lĩnh vực của cuộc sống,
- 10:00 trợ lý luật sư, trợ lý giáo dục,
- 10:02 trợ lý kiến trúc sư, trợ lý y tế,
- 10:05 trong mọi lĩnh vực của cuộc sống,
- 10:06 các siêu trợ lý sẽ đáp ứng
- 10:08 mọi yêu cầu nhỏ nhất của chúng ta.
- 10:10 Nhưng điều đó có nghĩa là gì?
- 10:11 Hãy nhìn những gì tôi làm với bạn, Yann.
- 10:13 Tôi loại bỏ bạn khỏi tầm nhìn của mình.
- 10:14 Nghĩa là chúng ta loại bỏ người khác.
- 10:16 Mà xã hội, đó đã là một sự xói mòn liên tục rồi.
- 10:23 Xã hội, như chúng ta đã nói, chúng ta cần người khác.
- 10:26 Đó cũng là cả một chuỗi các mối liên kết
- 10:28 phụ thuộc lẫn nhau liên tục.
- 10:30 Chúng ta đã nói, chúng ta cần lẫn nhau.
- 10:32 Ngày càng nhiều, những cuộc đối mặt liên tục sẽ diễn ra.
- 10:35 Đó là lý do tại sao nó không chỉ là
- 10:36 sự cạn kiệt khả năng của chúng ta,
- 10:38 mà là một ý niệm nhất định về thế giới.
- 10:39 Có quá muộn không
- 10:40 hay chúng ta vẫn có thể chọn AI của tương lai?
- 10:43 Chúng ta có thể bẻ cong nó
- 10:46 để AI trở nên dễ chấp nhận hơn không?
- 10:48 Chắc chắn là không.
- 10:49 Chắc chắn là không.
- 10:50 Điều đang xảy ra, bởi vì bạn biết đấy,
- 10:51 với tất cả những điều này, có rất nhiều ý định tốt.
- 10:54 Có rất nhiều bài diễn thuyết bao bọc.
- 10:56 Nói chung, công việc tối thiểu sẽ đòi hỏi
- 10:59 phải biết ai đang nói.
- 11:00 Tức là, rất nhiều bài diễn thuyết mà chúng ta nghe.
- 11:02 Hầu hết, 90% các bài diễn thuyết mà chúng ta nghe
- 11:04 trên báo chí, trên truyền hình, không phải tôi,
- 11:08 trên đài phát thanh, là những người có lợi ích liên quan.
- 11:10 Đặc biệt là các kỹ sư và doanh nhân công nghệ
- 11:13 mà chúng ta mời đến để hiểu chúng ta đang đối mặt với điều gì.
- 11:16 Không, nhưng đợi đã, chúng ta có vấn đề về chuyên môn.
- 11:18 Tuy nhiên, bạn, đã nhiều năm rồi
- 11:20 bạn đã cảnh báo về điều này.
- 11:21 Chúng tôi đã tìm thấy một tài liệu lưu trữ của bạn
- 11:22 trên France Culture vào năm 2011,
- 11:23 tức là cách đây 14 năm.
- 11:24 Bạn đã làm điều đó với tôi sao?
- 11:26 Vâng, 14 năm trước.
- 11:27 Bạn đã già đi nhiều kể từ đó.
- 11:28 Thật không thể tin được.
- 11:29 Hôm nay, bạn là một nhà tiên tri về AI đang thoái hóa,
- 11:31 nhưng thực tế, đã gần 15 năm rồi
- 11:32 bạn vẫn nói cùng một điều.
- 11:33 Tại sao không ai lắng nghe bạn?
- 11:35 À, người ta có nghe tôi.
- 11:38 Bạn biết đấy, bạn đã ngắt lời tôi,
- 11:39 tôi đang nói dở.
- 11:41 Nhưng người ta có nghe tôi, người ta có nghe tôi.
- 11:44 Nhưng bạn biết đấy, một nhà triết học là gì
- 11:46 so với sức mạnh công nghiệp
- 11:48 và vốn hóa thị trường, ví dụ,
- 11:49 của NIFDIA?
- 11:50 Bạn biết rằng nó sản xuất chip AI
- 11:51 trị giá 5 nghìn tỷ đô la.
- 11:53 Tôi đáng giá bao nhiêu?
- 11:54 Không gì cả, không gì cả.
- 11:55 Tuy nhiên, tuy nhiên
- 11:57 sự hiểu biết của chúng ta về AI,
- 11:59 và chúng ta đang nói về AI tạo sinh,
- 12:01 thường là từ những người có lợi ích liên quan.
- 12:04 Nhưng đó là một sự thiếu nhất quán trong chuyên môn.
- 12:06 Ví dụ, nếu chúng ta muốn hiểu về thuốc lá,
- 12:08 chúng ta có nên hỏi ông Marlboro,
- 12:09 người không tồn tại, ông Marlboro,
- 12:11 có phải ông ấy là người chúng ta sẽ hỏi không?
- 12:12 Không, phải là các bác sĩ ung thư
- 12:14 mà chúng ta cần hỏi.
- 12:15 Chính họ là những người cần được hỏi.
- 12:16 Đó là lý do tại sao khi hội nghị thượng đỉnh Paris
- 12:19 về AI do Emmanuel Macron tổ chức diễn ra,
- 12:22 tôi đã nghĩ rằng chỉ có những người trong ngành công nghệ
- 12:25 sẽ hứa hẹn với chúng ta về một tương lai tươi sáng.
- 12:26 – Không phải họ là người cần thiết.
- 12:27 – Không phải họ là người cần thiết,
- 12:28 nó bị cấm đối với công chúng.
- 12:29 Có khoảng một trăm nguyên thủ quốc gia
- 12:31 tuyên bố ngừng cạnh tranh đầu tư
- 12:36 và tất cả những người đó đã ca ngợi những ngày mai tươi đẹp
- 12:39 sắp tới và trong tương lai.
- 12:41 Tức là, điều đó không có tính ràng buộc,
- 12:41 bạn nói rằng hai năm nữa trời sẽ đẹp,
- 12:43 sẽ không ai đến hỏi bạn,
- 12:44 bởi vì mọi chuyện luôn như vậy,
- 12:45 luôn có một chân trời hứa hẹn.
- 12:47 Và tôi đã nghĩ, tôi đang ở Paris,
- 12:48 tôi là người Pháp, đất nước của Beaumarchais,
- 12:51 của Émile Zola, của Charles Péguy,
- 12:53 của Paul Valéry, của Albert Camus,
- 12:55 và nhân danh tất cả các nghiên cứu của tôi
- 12:57 mà tôi đã thực hiện trong khoảng mười lăm năm qua,
- 12:58 tôi đã tự nhủ, tôi không thể khoanh tay đứng nhìn.
- 13:00 Và chúng tôi đã tổ chức một hội nghị đối trọng.
- 13:01 Và bạn đã nói, chúng ta có thể làm gì?
- 13:03 Và điều gì đã xảy ra trong hội nghị đối trọng này
- 13:05 mà là một sự kiện lần đầu tiên trên thế giới?
- 13:06 Chúng tôi đã mời những người từ chính quyền công,
- 13:12 từ thế giới doanh nghiệp, thế giới báo chí,
- 13:14 các chuyên gia về khí hậu và sinh thái học,
- 13:19 từ thế giới văn hóa.
- 13:20 Thật phi thường,
- 13:22 tức là chúng ta đã thấy những hậu quả cụ thể,
- 13:27 chúng rất quan trọng,
- 13:28 đặc biệt là trong thế giới văn hóa.
- 13:31 Ví dụ, các đạo diễn phim hoạt hình
- 13:33 mà chúng ta biết rằng họ sống trong những hoàn cảnh rất bấp bênh,
- 13:35 bây giờ France Télévisions,
- 13:37 với tiền công, dù sao cũng là tiền phí,
- 13:39 thì họ sẽ bắt đầu làm phim hoạt hình
- 13:42 bằng AI tạo sinh.
- 13:43 Đã có một sự huy động.
- 13:45 Tôi tin rằng đã đến lúc phải huy động.
- 13:46 Nếu không, tất cả các ngành nghề đòi hỏi kỹ năng nhận thức cao,
- 13:49 đặc biệt là, sẽ biến mất,
- 13:51 và đặc biệt là các ngành nghề văn hóa.
- 13:53 Và đây có phải là thế giới mà chúng ta muốn không?
- 13:55 Tức là các hệ thống
- 13:56 làm mọi thứ từ sáng đến tối
- 13:57 đến mức tạo ra bộ phim truyền hình nhỏ của chúng ta,
- 13:59 tiểu thuyết nhỏ của chúng ta, bản nhạc nhỏ của chúng ta,
- 14:02 nơi người khác bị loại bỏ, nghệ sĩ bị loại bỏ.
- 14:04 Không, không thể khoanh tay đứng nhìn
- 14:06 trước tất cả những điều này.
Dans cette interview, un philosophe spécialisé dans l'étude de la technologie et de l'intelligence artificielle, auteur du livre « Le désert de nous-mêmes », expose sa vision critique de l'IA, en particulier de l'IA générative. Il débute par une fable du rossignol philomène, symbolisant la perte des capacités créatives et l'atrophie des facultés humaines par paresse et recherche du moindre effort, une métaphore qu'il applique directement au lancement de ChatGPT le 30 novembre 2022, qu'il considère comme une date décisive pour l'humanité.
Le philosophe détaille les "grandes conséquences" de l'IA générative, trois ans après son apparition. Il évoque la "Jobs' Apocalypse" avec des licenciements massifs et une diminution des embauches, notamment pour les cols blancs, citant l'exemple d'Amazon. Il souligne l'impact sur l'éducation, où les professeurs perdent le sens de leur mission, et sur la culture, avec des plateformes comme Spotify inondées de morceaux générés par IA, menaçant les métiers de compositeurs et d'acteurs (comme l'actrice 100% IA, Tilly Wood). Il mentionne également des cas extrêmes de dépendance émotionnelle et de suicides liés à ces systèmes.
Il distingue clairement l'IA "traditionnelle", présente depuis une vingtaine d'années (utilisée par exemple en médecine ou dans l'aéronautique, mais aussi dans les entrepôts Amazon pour optimiser les tâches), de l'IA générative. C'est cette dernière qui, selon lui, représente une "rupture historique et anthropologique" car elle délègue à des systèmes des tâches qui mobilisaient jusqu'alors nos facultés intellectuelles et créatives. Il dénonce une "faillite morale collective" face à l'adoption généralisée de ces outils par utilitarisme pratique, sans considération pour la perte de la maîtrise du langage, de la singularité et de la capacité à exprimer ses propres positions.
Le philosophe affirme que l'IA générative aurait dû être interdite, contrairement à l'IA "classique" dont l'évaluation devrait se faire au cas par cas. Il critique le manque d'expertise indépendante dans le débat public, où les "spécialistes de l'IA de la dernière heure" et les entrepreneurs de la tech, juges et parties, dominent le discours. Il compare cela à interroger un fabricant de cigarettes sur les dangers du tabac plutôt qu'un cancérologue. Il relate l'organisation d'un contre-sommet à Paris, réunissant des acteurs de divers horizons (administration, entreprise, journalisme, écologie, culture) pour discuter des conséquences concrètes de l'IA. Il conclut en appelant à une mobilisation pour éviter la disparition des métiers à haute compétence cognitive et la déshumanisation d'un monde où l'autre et l'artiste seraient évacués au profit de systèmes autonomes.
Sincronizzazione sottotitoli
Sottotitoli fuori sincrono con l'audio? Regola il tempo qui:
Negativo = sottotitoli prima, positivo = dopo. Salvato su questo dispositivo, separatamente per ogni video e ogni clip.
Segnala un errore
Dicci cosa non va. Leggiamo ogni segnalazione.
0 commenti
Sii il primo a commentare.