L'IA va-t-elle tous nous remplacer ?

interview 14:07 来源 ↗ intelligence artificielle ia générative chatgpt impact social perte d'emploi créativité
解锁字幕、速度等更多功能

登录即可切换字幕语言、调整播放速度,并更改字幕大小和颜色。

Un philosophe alerte sur les dangers de l'IA générative, qu'il qualifie de "tournant intellectuel et créatif", et ses conséquences sur les facultés humaines, l'emploi et les liens sociaux, plaidant pour son interdiction.

  1. 0:00 Depuis 15 ans, vous consacrez votre travail à l'étude de la tech, de l'intelligence artificielle et de ses conséquences.
  2. 0:06 Vous publiez ce livre majeur, et pour beaucoup d'observateurs, c'est un livre aussi important que la Société du spectacle de Guy Debord.
  3. 0:13 Ça s'appelle « Le désert de nous-mêmes », c'est aux éditions L'Échappée. Et pour commencer, je voudrais écouter ça.
  4. 0:18 Le rossignol philomène, c'est le point de départ de votre livre. Pourquoi ?
  5. 0:25 Mon livre commence par une fable animalière qui met en scène le rossignol philomène,
  6. 0:30 qui est doté de plein de capacités créatives, qui génère une infinité d'harmonies.
  7. 0:37 Et puis, un beau matin, certains de leurs semblables viennent leur proposer des outils qui vont l'abstraire de l'usage de leurs facultés.
  8. 0:44 Et pris par paresse et le souci du moindre effort, ils acceptent cela.
  9. 0:48 Et on les voit abandonner leur société aiguillée, pleine de créativité, de joute musicale, et terminer atrophiés,
  10. 0:56 plein de tristesse et plein d'isolement dans leur nid confiné. Ça ne vous fait pas penser à quelque chose, cela ?
  11. 1:04 Ça me fait penser au 30 novembre 2022. C'est le jour du lancement de Chadjipiti.
  12. 1:08 Pour vous, c'est une date décisive dans l'histoire de l'humanité. Et je crois que vous vous en souvenez de cette date.
  13. 1:13 Ah oui, il me semble qu'on s'en rendra compte de plus en plus, qu'on retiendra le 30 novembre 2022 comme la date du lancement de Chadjipiti,
  14. 1:24 comme une des dates les plus décisives de l'histoire de l'humanité. Je m'explique en quelques mots.
  15. 1:28 Là, nous sommes trois ans plus tard, automne 2025. Ça y est, il est arrivé ce moment où les premières grandes conséquences
  16. 1:38 commencent à nous apparaître, où nous sommes mis face aux grandes conséquences. Je vous donne quelques exemples.
  17. 1:42 Depuis quelque temps, est apparue la notion de Jobs' Apocalypse, qui vient de la Silicon Valley. En réalité, ça s'étend à la Terre entière,
  18. 1:49 qui regarde des foules de licenciements et un phénomène plus insidieux, des moindres embauches relativement au col blanc,
  19. 1:56 et à l'enceinte de ce qui s'est passé avec Amazon il y a une dizaine de jours. Donc, on a parlé qu'il y avait un licenciement de 14 % des personnes.
  20. 2:02 Plusieurs milliers de salariés licenciés.
  21. 2:04 Pas un jour, je vous donne quelques exemples très rapidement, sans que l'on parle, mesdames et messieurs, de professeurs dans l'école
  22. 2:12 qui ne se connaissent même plus, qui ne savent même plus quel est le sens de leur mission, complètement livrée à eux-mêmes.
  23. 2:19 Pas un jour, sans que l'on parle notamment dans le champ de la culture et notamment dans le monde musical, par exemple,
  24. 2:25 des plateformes comme Spotify qui sont inondées jusqu'à plus de 30 % aujourd'hui par des morceaux générés et qui mettent en péril
  25. 2:32 les métiers de la culture étant de compositeurs. Et puis pas un jour encore, excusez-moi de terminer sur ce point capital,
  26. 2:40 sans qu'on parle de dépendance émotionnelle relativement à ces systèmes qui sont allés jusqu'à, on le sait, des cas extrêmes, jusqu'à des suicides.
  27. 2:50 Ces cas-là, on pourrait...
  28. 2:52 – Je peux en rajouter un ?
  29. 2:53 – Mais oui, parce qu'on peut les égrener sur des longues pages, ces exemples.
  30. 2:55 – Je peux parler de cette actrice, par exemple, cette actrice qui n'existe pas, qui s'appelle Tilly Wood.
  31. 3:00 C'est la première actrice 100% IA, c'est un coup de com' d'une startup américaine.
  32. 3:06 Est-ce que tout ça, tous les exemples que vous venez de dénoncer, ce sont un vrai danger ?
  33. 3:12 – Mais oui, mais vous savez que cette actrice, cette pseudo-actrice a occasionné le lever de bouclier auprès des acteurs d'Hollywood.
  34. 3:22 Mais moi, je prends le pari, mesdames et messieurs, que parmi ces foules d'acteurs d'Hollywood qui veulent le maintien de leur emploi,
  35. 3:30 la plupart doivent utiliser Chad GPT, parce que nos actes en gage, c'est ça que l'on n'a pas vu il y a trois ans.
  36. 3:37 Parce que des foules se sont jetées sur ces outils, je pense qu'il y a eu une faillite, chère Yann,
  37. 3:42 je vous le dis avec beaucoup de gravité, je pense qu'il y a eu une faillite morale collective.
  38. 3:46 – Mais ce qui est étonnant, c'est que...
  39. 3:47 – Collective, je termine juste sur cela, parce que tout le monde a sauté sur cela.
  40. 3:51 Moi, j'avais très bien vu à l'époque, 30 novembre 2022, donc les jours qui ont suivi en décembre et janvier 2023,
  41. 3:57 je posais toujours la question, mais tu te rends compte, ce qui va se passer,
  42. 4:01 et notamment la mer de toutes les questions qui auraient dû s'imposer à nous et de toutes les préoccupations.
  43. 4:07 Est-ce qu'on voit nos enfants qui, dans deux, trois ans, vont nous dire,
  44. 4:10 « Papa, maman, pourquoi je vais à l'école, moi, si des systèmes sur une simple instruction, de ma part,
  45. 4:15 va produire du texte, pourquoi j'apprends la grammaire, pourquoi j'apprends l'orthographe ? »
  46. 4:18 Toutes ces questions, je ne les ai pas posées, pourquoi ?
  47. 4:21 Parce que tout le monde n'a prêché que par utilitarisme pratique.
  48. 4:23 Et quand on posait la question, et je continue de poser la question...
  49. 4:26 – Est-ce qu'on aurait dû l'interdire ?
  50. 4:27 – Alors, d'abord, il y a une passion humaine, c'est pour ça qu'il y a cette fable avec les Rossignols,
  51. 4:33 Philomel, que je commence le livre avec cela, parce qu'il y a une passion humaine
  52. 4:36 dont s'est très bien joué l'industrie du numérique, c'est la propension à la paresse,
  53. 4:40 et à la recherche du moindre effort.
  54. 4:43 Et le fait que, je continue, moi, quand je vois des adolescents dans des dîners, chez des amis,
  55. 4:49 je dis, « Tu utilises le JPT ? » Tout le monde me dit oui, et je dis, « Mais pourquoi ? »
  56. 4:54 Et la réponse, c'est toujours la même. Gain de temps, gain de pratique.
  57. 4:57 Mais tu te rends compte de ce que tu perds ?
  58. 4:59 Est-ce que tu te rends compte de tes capacités de parler en première personne,
  59. 5:02 de maîtriser le langage, qui est le vecteur de la liberté, de la singularité,
  60. 5:06 d'exprimer tes propres positions ?
  61. 5:08 – Quand vous répondez ça, ils vous répondent quoi ?
  62. 5:10 – En général, on est embarrassé, parce qu'on n'écoute pas très bien,
  63. 5:16 et on pense que, finalement, c'est pratique, et que c'est ça qui compte.
  64. 5:20 Or, ça, ça va être le cheval de Troyes du renoncement à nous-mêmes,
  65. 5:22 c'est ça que j'analyse dans mon livre.
  66. 5:24 – Donc, est-ce qu'on aurait dû interdire ?
  67. 5:25 – L'utilitarisme pratique, c'est le renoncement du…
  68. 5:29 c'est le cheval de Troyes du renoncement à l'usage de nos facultés,
  69. 5:33 et à toute une série de conséquences que j'aimerais bien décrire avec vous
  70. 5:37 dans les minutes qui viennent.
  71. 5:38 Pour revenir à votre question, Yann, est-ce qu'on aurait dû interdire ?
  72. 5:41 Alors, je vais être très précis sur ça, parce que, vous savez,
  73. 5:43 on ne cesse de parler d'IA.
  74. 5:45 Je pense qu'on est entre nous, je vous le dis,
  75. 5:47 il n'y a pas beaucoup de monde qui nous regarde.
  76. 5:49 Je pense qu'on n'a jamais dit…
  77. 5:51 – Il y a deux, trois caméras, quand même.
  78. 5:52 – Bon, je pense qu'on n'a jamais dit autant de bêtises
  79. 5:54 relativement à un phénomène aussi déterminant,
  80. 5:56 parce que, vous avez remarqué, il y a des spécialistes de l'IA de la dernière heure.
  81. 6:00 Il y a une chose qu'on doit faire en préalable, en termes de méthodologie,
  82. 6:03 c'est de séparer l'IA, telle qu'elle est depuis une quinzaine d'années,
  83. 6:07 qui permet toute une série de choses.
  84. 6:08 Il y a des choses extrêmement graves,
  85. 6:11 mais il y a aussi des choses qui sont rendues possibles par l'IA,
  86. 6:13 je pense à l'aérodynamisme médical,
  87. 6:16 dans l'aérodynamisme pour Airbus Industries ou dans l'avion,
  88. 6:21 ça engage aussi beaucoup d'autres enjeux d'une extrême gravité
  89. 6:25 dans les entrepôts Amazon où des systèmes
  90. 6:27 interprètent les localisations des manufacturiers
  91. 6:30 et qui leur commandent à aller chercher tel produit
  92. 6:33 dans tel endroit pour le déposer à tel palais.
  93. 6:34 C'est ça, l'intelligence artificielle,
  94. 6:36 telle qu'elle est à l'œuvre depuis une vingtaine d'années,
  95. 6:38 qui continue cette puissance d'interprétation et d'envoi de signaux
  96. 6:41 et qui organise de plus en plus le cours des affaires humaines.
  97. 6:45 Mais il y a un autre type d'IA qui est apparu,
  98. 6:48 et c'est deux choses différentes, parce qu'on parle d'IA…
  99. 6:50 Maintenant, il faut distinguer…
  100. 6:52 Ce sont deux choses différentes, ça charrie des enjeux différents
  101. 6:55 et ça entraîne des conséquences très différentes.
  102. 6:58 Et c'est pour ça que, relativement à la question,
  103. 6:59 parce que je n'ai pas perdu mon fil,
  104. 7:01 j'ai entendu votre question, chère Yann,
  105. 7:03 est-ce qu'on aurait dû interdire ?
  106. 7:04 Sur l'IA, c'est beaucoup plus compliqué,
  107. 7:06 telle qu'elle est à l'œuvre depuis une vingtaine d'années.
  108. 7:08 On va dire que c'est cas par cas qu'on devrait envisager les choses.
  109. 7:11 Or, on ne les envisage pas assez cas par cas, ça c'est une chose.
  110. 7:14 Concernant les IA génératives, pour répondre maintenant à ces questions…
  111. 7:17 – C'est celle-là qui vous dérange ?
  112. 7:18 – Ce n'est pas que ça me dérange,
  113. 7:19 c'est nous tous, au nom des principes qui sont les nôtres,
  114. 7:22 au nom de ce que nous sommes, au nom de ce qui nous constitue en propre…
  115. 7:24 – Est-ce qu'on peut juste rater…
  116. 7:25 – Oui, je termine juste sur ça Yann, ça, ça aurait dû être interdit.
  117. 7:29 Mais personne n'a eu la conscience, la présence des fonds.
  118. 7:32 – Pour que ça fasse ce qu'est l'IA générative, c'est quoi ?
  119. 7:35 – Alors, l'IA générative, c'est, pour bien comprendre la gravité de ce qui se joue,
  120. 7:41 j'ai nommé ça un concept, parce que le concept permet d'identifier les phénomènes
  121. 7:46 avec un concept relativement simple que tout le monde va comprendre,
  122. 7:49 c'est le sous-titre de mon bouquin,
  123. 7:51 que j'appelle le tournant intellectuel et créatif de l'intelligence artificielle.
  124. 7:56 C'est ça qui est à l'œuvre depuis bientôt trois ans maintenant.
  125. 7:59 Qu'est-ce que ça veut dire le tournant intellectuel et créatif ?
  126. 8:02 Pour bien comprendre la portée, j'ai envie de dire même la gravité,
  127. 8:05 et la rupture historique et presque anthropologique,
  128. 8:08 anthropologique dans le sens de ce qui nous constitue, nous,
  129. 8:10 en tant qu'êtres humains dotés de toute une série de facultés,
  130. 8:14 c'est qu'il faut, pour bien comprendre, utiliser une formule littérale,
  131. 8:19 c'est-à-dire qu'il est dorénavant dévolu à des systèmes,
  132. 8:22 il faut entendre la gravité de ce que je vais dire,
  133. 8:24 il est dorénavant dévolu à des systèmes d'assurer des tâches
  134. 8:29 qui jusque-là mobilisaient nos facultés intellectuelles et créatives.
  135. 8:34 Comment ne pas voir la rupture anthropologique
  136. 8:38 et l'ouragan qui vient sur quantité de champs de la vie humaine ?
  137. 8:41 Alors, le fait est que, relativement à ces enjeux, il y a beaucoup...
  138. 8:45 C'est-à-dire que notre cerveau va s'atrophier ?
  139. 8:47 C'est beaucoup plus que ça, c'est le cerveau...
  140. 8:51 Ça, c'est déjà beaucoup.
  141. 8:52 Oui, c'est déjà énorme, mais c'est une certaine idée de nous-mêmes,
  142. 8:56 une certaine idée de notre implication dans le réel,
  143. 8:58 une certaine idée de la société,
  144. 9:00 parce que vous savez que, et notamment fondée sur l'expression de nos facultés,
  145. 9:05 sur le fait qu'on a besoin toujours d'autrui dans la société,
  146. 9:08 on a besoin d'un médecin, on a besoin d'un juriste,
  147. 9:11 on a besoin d'un professeur.
  148. 9:13 De plus en plus, avec ces systèmes,
  149. 9:15 Sam Altman l'a dit lors du premier anniversaire du lancement de Chad GPT,
  150. 9:19 là, pas en 22, mais 30 novembre 2023,
  151. 9:22 il a dit devant une foule d'adorateurs,
  152. 9:24 vous savez, les keynotes de la Silicon Valley,
  153. 9:26 il a dit « We have been good the past year ».
  154. 9:27 C'est le monsieur qu'on voit là.
  155. 9:28 Voilà, on a été très bons l'année qui est passée.
  156. 9:31 « Amazing, t'as été génial, fantastique ! »
  157. 9:33 Il a dit « Please, please, calm down ».
  158. 9:35 C'est rien par rapport à ce qui vient.
  159. 9:37 Et ce qui vient, c'est les super assistants,
  160. 9:38 c'est là les investissements industriels,
  161. 9:41 c'est les super assistants dans tous les champs de la vie.
  162. 9:43 C'est-à-dire, par exemple, jusque-là,
  163. 9:46 si vous achetiez une maison,
  164. 9:48 en général, vous faisiez appel à un architecte,
  165. 9:50 et puis peut-être après à un designer.
  166. 9:52 Ça existe déjà ?
  167. 9:53 Eh bien, de plus en plus.
  168. 9:54 Vous prenez en photo une pièce,
  169. 9:56 et puis il vous met les meubles, il vous met les portes.
  170. 9:58 Voilà, de plus en plus, dans tous les champs de la vie,
  171. 10:00 assistant avocat, assistant éducatif,
  172. 10:02 assistant architecte, assistant santé,
  173. 10:05 dans tous les champs de la vie,
  174. 10:06 les super assistants vont répondre
  175. 10:08 à la moindre de nos sollicitations.
  176. 10:10 Mais qu'est-ce que ça veut dire, ça ?
  177. 10:11 Regardez ce que je fais avec vous, Yann.
  178. 10:13 Je vous évacue de mon horizon.
  179. 10:14 C'est-à-dire que c'est autrui qu'on évacue.
  180. 10:16 Or, la société, c'est déjà qu'il y a un effritement continu.
  181. 10:23 La société, on l'a dit, on a besoin d'autrui.
  182. 10:26 C'est aussi toute une série de liens
  183. 10:28 continus d'interdépendance.
  184. 10:30 On a dit, on a besoin réciproquement les uns des autres.
  185. 10:32 De plus en plus, vont s'opérer des vis-à-vis continus.
  186. 10:35 C'est pour ça que ce n'est pas seulement
  187. 10:36 l'épuisement de nos facultés,
  188. 10:38 c'est une certaine idée du monde.
  189. 10:39 Est-ce qu'il est trop tard
  190. 10:40 ou est-ce qu'on peut encore choisir l'IA du futur ?
  191. 10:43 Est-ce qu'on peut la tordre
  192. 10:46 pour que l'IA soit plus acceptable ?
  193. 10:48 Certainement pas.
  194. 10:49 Certainement pas.
  195. 10:50 Ce qu'il se passe, parce que vous savez,
  196. 10:51 avec tout cela, il y a plein de bonnes intentions.
  197. 10:54 Il y a plein de discours qui enrobent.
  198. 10:56 En général, le travail minimal appellerait
  199. 10:59 de savoir qui parle.
  200. 11:00 C'est-à-dire, plein de discours qu'on entend.
  201. 11:02 La plupart, à 90% des discours qu'on entend
  202. 11:04 dans la presse, sur le plateau télé, pas moi,
  203. 11:08 les radios, c'est des gens qui sont jugés partis.
  204. 11:10 Notamment les ingénieurs et les entrepreneurs de la tech
  205. 11:13 qu'on invite pour comprendre à quoi on a affaire.
  206. 11:16 Non mais attendez, on a un problème sur l'expertise.
  207. 11:18 Pourtant, vous, ça fait des années
  208. 11:20 que vous vous alertez là-dessus.
  209. 11:21 Nous, on a retrouvé une archive de vous
  210. 11:22 sur France Culture en 2011,
  211. 11:23 donc c'était il y a 14 ans.
  212. 11:24 Vous m'avez fait ça ?
  213. 11:26 Oui, il y a 14 ans.
  214. 11:27 Vous avez pris un coup de vieux, vous, depuis.
  215. 11:28 C'est incroyable.
  216. 11:29 Aujourd'hui, vous êtes un oracle de l'IA qui dégénère,
  217. 11:31 mais en réalité, ça fait près de 15 ans
  218. 11:32 que vous dites la même chose.
  219. 11:33 Pourquoi personne ne vous a écouté ?
  220. 11:35 Alors, on m'écoute.
  221. 11:38 Vous savez que vous m'avez interrompu,
  222. 11:39 j'étais en plein fil.
  223. 11:41 Mais on m'écoute, on m'écoute.
  224. 11:44 Mais vous savez, qu'est-ce que c'est qu'un philosophe
  225. 11:46 par rapport à la puissance industrielle
  226. 11:48 et à la capitalisation, par exemple,
  227. 11:49 boursière de NIFDIA ?
  228. 11:50 Vous savez qu'il fait les puces d'IA
  229. 11:51 de 5 000 milliards de dollars.
  230. 11:53 Qu'est-ce que je pèse, moi ?
  231. 11:54 Rien, rien.
  232. 11:55 Il n'empêche, il n'empêche
  233. 11:57 que notre compréhension de l'IA,
  234. 11:59 et on parle des IA génératives,
  235. 12:01 c'est généralement des gens qui sont jugés partis.
  236. 12:04 Mais c'est une inconséquence dans l'expertise.
  237. 12:06 Par exemple, si on veut comprendre la cigarette,
  238. 12:08 est-ce qu'on va interroger M. Marlboro,
  239. 12:09 qui n'existe pas, M. Marlboro,
  240. 12:11 est-ce que c'est lui qu'on va interroger ?
  241. 12:12 Mais non, c'est des cancérologues
  242. 12:14 qu'il faut interroger.
  243. 12:15 C'est eux qu'il faut interroger.
  244. 12:16 C'est pour ça que quand il y a eu le sommet de Paris
  245. 12:19 organisé par Emmanuel Macron sur l'IA,
  246. 12:22 moi, je me suis dit qu'il n'y avait que des gens de la Tech
  247. 12:25 qui allaient nous promettre des merveilleux lendemains.
  248. 12:26 – Ce n'était pas eux qui fallait.
  249. 12:27 – Ce n'était pas eux qui fallait,
  250. 12:28 c'était interdit au public.
  251. 12:29 Il y avait une centaine de chefs d'État
  252. 12:31 qui annonçaient cesser de rivaliser d'investissement
  253. 12:36 et tout ce monde-là nous chantait des merveilleux lendemains
  254. 12:39 à venir et au futur.
  255. 12:41 C'est-à-dire que ce n'est pas engageant,
  256. 12:41 vous dites qu'il va faire beau dans deux ans,
  257. 12:43 personne ne viendra vous interroger,
  258. 12:44 parce que c'est toujours comme ça,
  259. 12:45 il y a toujours l'horizon de promesse.
  260. 12:47 Et moi, je me suis dit, je suis à Paris,
  261. 12:48 je suis Français, pays de Beaumarchais,
  262. 12:51 d'Émile Zola, de Charles Péguy,
  263. 12:53 de Paul Valéry, d'Albert Camus,
  264. 12:55 et au nom de toutes mes recherches
  265. 12:57 que je mène depuis une quinzaine d'années,
  266. 12:58 je me suis dit, je ne peux pas rester les bras croisés.
  267. 13:00 Et on a monté un contre-sommet.
  268. 13:01 Et vous avez dit, qu'est-ce qu'on peut faire ?
  269. 13:03 Et qu'est-ce qui s'est passé dans ce contre-sommet
  270. 13:05 qui était une première mondiale ?
  271. 13:06 On a invité des gens issus de l'administration publique,
  272. 13:12 du monde de l'entreprise, du monde du journalisme,
  273. 13:14 des spécialistes du climat et de l'écologie,
  274. 13:19 du monde de la culture.
  275. 13:20 C'était extraordinaire,
  276. 13:22 c'est-à-dire qu'on a vu les conséquences concrètes,
  277. 13:27 elles sont très importantes,
  278. 13:28 notamment dans le monde de la culture.
  279. 13:31 Par exemple, les réalisateurs de films d'animation
  280. 13:33 dont on sait qu'ils vivent dans des situations très précaires,
  281. 13:35 maintenant Café France Télévisions,
  282. 13:37 avec de l'argent public, en tout cas la redevance,
  283. 13:39 eh bien, ils vont commencer à faire des films d'animation
  284. 13:42 avec des IA génératives.
  285. 13:43 Il y a eu une mobilisation.
  286. 13:45 Je crois que l'heure est à la mobilisation.
  287. 13:46 Sinon, c'est tous les métiers à haute compétence cognitive,
  288. 13:49 notamment, qui vont disparaître,
  289. 13:51 et notamment les métiers de la culture.
  290. 13:53 Et est-ce que c'est ça ce monde qu'on veut ?
  291. 13:55 C'est-à-dire que des systèmes
  292. 13:56 qui fassent tout du matin au soir
  293. 13:57 jusqu'à nous faire notre petite série,
  294. 13:59 notre petite fiction, notre petite musique,
  295. 14:02 où l'autre est évacué, l'artiste est évacué.
  296. 14:04 Non, il n'est pas possible de rester les mains croisées
  297. 14:06 relativement à tout cela.