TikTok : La lutte d'un collectif contre l'algorithme
Đăng nhập để chuyển ngôn ngữ phụ đề, điều chỉnh tốc độ và thay đổi cỡ chữ & màu phụ đề.
Des parents, dont la fille s'est suicidée après avoir été exposée à des contenus néfastes sur TikTok, rejoignent le collectif Algos Victima pour lutter contre l'algorithme de la plateforme et ses effets sur la santé mentale des jeunes.
- 0:00 Au lendemain du suicide de Charlize, 15 ans, ses parents découvrent le contenu qu'elle voyait sur TikTok.
- 0:07 Je vais me foutre en l'air, donc en se jetant sous un train.
- 0:10 Ça c'est un mouchoir rempli de sang avec des lames de rasoir.
- 0:13 Jusqu'à sa dernière publication.
- 0:15 Ça marquait en fait POV, POV, la nuit porte-conseil. Moi elle m'a conseillé de prendre un tabouret et une corde.
- 0:21 Delphine et Jérémie savaient que leur fille était harcelée au collège.
- 0:25 Malgré un suivi médical, elle s'est peu à peu renfermée sur elle-même, souvent sur son téléphone.
- 0:30 Ses parents accusent l'algorithme de TikTok de l'avoir confortée dans son mal-être.
- 0:35 Plus elle regardait en fait des vidéos sur l'anorexie, plus ça dérivait sur l'automutilation.
- 0:43 L'étape d'après c'était des tutos sur comment mettre fin à ses jours.
- 0:47 Face à l'algorithme, les parents de Charlize se sont sentis impuissants.
- 0:51 Comme Stéphanie, dont la fille Marie s'est donné la mort dans les mêmes circonstances.
- 0:55 L'an passé, plusieurs parents de victimes ont assigné TikTok en justice pour incitation au suicide.
- 1:00 Ils font partie du collectif Algos Victima.
- 1:05 On s'est vite rendu compte que de nombreux parents vivaient l'horreur dans leur foyer, sans oser en parler, sans oser mettre des mots dessus.
- 1:13 Et donc très vite je me suis rendu compte qu'il y avait un besoin que ces parents puissent se réunir.
- 1:20 Certains d'entre eux l'étaient aujourd'hui, dans ce café parisien, à quelques jours des discussions à l'Assemblée nationale
- 1:26 d'une proposition de loi visant à interdire les réseaux sociaux aux moins de 15 ans.
- 1:30 Les réseaux sociaux sont mal modérés, très mal modérés.
- 1:33 Et qu'il y a énormément de contenu néfaste qui va avoir un impact fort sur la qualité, leur santé mentale.
- 1:38 Ce qu'ils peuvent y voir n'est vraiment pas bon pour eux.
- 1:41 TikTok n'a pas fait de déclaration récente concernant son algorithme,
- 1:44 mais assuré en 2023 avoir supprimé 4 millions de vidéos, enfreignant ses règles.
- 0:00 The day after 15-year-old Charlize's suicide, her parents discovered the content she was viewing on TikTok.
- 0:07 I'm going to kill myself, by throwing myself under a train.
- 0:10 That's a tissue full of blood with razor blades.
- 0:13 Up until her last post.
- 0:15 It actually said POV, POV, the night brings counsel. For me, it advised me to take a stool and a rope.
- 0:21 Delphine and Jérémie knew their daughter was being bullied at school.
- 0:25 Despite medical follow-up, she gradually withdrew into herself, often on her phone.
- 0:30 Her parents accuse TikTok's algorithm of having reinforced her distress.
- 0:35 The more she watched videos about anorexia, the more it drifted towards self-harm.
- 0:43 The next step was tutorials on how to end her life.
- 0:47 Faced with the algorithm, Charlize's parents felt helpless.
- 0:51 Like Stéphanie, whose daughter Marie took her own life under the same circumstances.
- 0:55 Last year, several parents of victims sued TikTok for incitement to suicide.
- 1:00 They are part of the Algos Victima collective.
- 1:05 We quickly realized that many parents were experiencing horror in their homes, without daring to talk about it, without daring to put words to it.
- 1:13 And so very quickly I realized there was a need for these parents to be able to gather.
- 1:20 Some of them were today, in this Parisian café, just days before discussions in the National Assembly
- 1:26 of a bill aiming to ban social media for those under 15.
- 1:30 Social media networks are poorly moderated, very poorly moderated.
- 1:33 And that there is a lot of harmful content that will have a strong impact on their mental health.
- 1:38 What they can see there is really not good for them.
- 1:41 TikTok has not made a recent statement regarding its algorithm,
- 1:44 but stated in 2023 that it had removed 4 million videos violating its rules.
- 0:00 15歳のシャルリーズが自殺した翌日、両親は彼女がTikTokで見ていたコンテンツを発見しました。
- 0:07 私は自殺するつもり、電車に飛び込んで。
- 0:10 これは血まみれのティッシュとカミソリの刃です。
- 0:13 彼女の最後の投稿まで。
- 0:15 それには「POV、POV、夜は助言をもたらす。私には、スツールとロープを取るように助言した」と書かれていました。
- 0:21 デルフィーヌとジェレミーは、娘がいじめられていることを知っていました。
- 0:25 医療的なケアを受けていたにもかかわらず、彼女は徐々に心を閉ざし、よく携帯電話を見ていました。
- 0:30 彼女の両親は、TikTokのアルゴリズムが彼女の苦しみを助長したと非難しています。
- 0:35 彼女が拒食症に関する動画を見れば見るほど、それは自傷行為へとエスカレートしていきました。
- 0:43 次の段階は、自殺の方法に関するチュートリアルでした。
- 0:47 アルゴリズムを前にして、シャルリーズの両親は無力感を感じました。
- 0:51 娘のマリーが同じ状況で命を絶ったステファニーも同様です。
- 0:55 昨年、複数の被害者の親が、自殺幇助の疑いでTikTokを提訴しました。
- 1:00 彼らは「Algos Victima」という団体の一員です。
- 1:05 多くの親が家庭で恐ろしい経験をしていても、それを口に出したり、言葉にしたりすることをためらっていることにすぐに気づきました。
- 1:13 そして、これらの親たちが集まる必要性があることにすぐに気づきました。
- 1:20 彼らの一部は今日、このパリのカフェに集まっていました。国民議会での議論が数日後に迫っています。
- 1:26 15歳未満のソーシャルメディア利用を禁止する法案についてです。
- 1:30 ソーシャルメディアは適切に管理されていません、非常に不適切です。
- 1:33 そして、彼らの精神衛生に強い影響を与える有害なコンテンツが非常に多く存在します。
- 1:38 彼らが見るものは、彼らにとって本当に良くありません。
- 1:41 TikTokは、そのアルゴリズムに関して最近声明を発表していませんが、
- 1:44 2023年には、規約に違反する400万本の動画を削除したと保証しています。
- 0:00 15세 샬리즈의 자살 다음 날, 그녀의 부모는 딸이 틱톡에서 보던 콘텐츠를 발견합니다.
- 0:07 나는 내 인생을 끝낼 거야, 즉 기차에 몸을 던져서.
- 0:10 이건 면도날이 들어있는 피 묻은 손수건이에요.
- 0:13 그녀의 마지막 게시물까지요.
- 0:15 사실 POV, POV, 밤은 조언을 가져다준다고 적혀 있었어요. 저에게는 의자와 밧줄을 가져가라고 조언했죠.
- 0:21 델핀과 제레미는 딸이 중학교에서 괴롭힘을 당하고 있다는 것을 알고 있었습니다.
- 0:25 의학적 치료에도 불구하고, 그녀는 점차 자신을 고립시켰고, 종종 휴대폰만 들여다봤습니다.
- 0:30 그녀의 부모는 틱톡의 알고리즘이 딸의 불행한 상태를 더욱 부추겼다고 비난합니다.
- 0:35 사실 그녀가 거식증에 대한 영상을 더 많이 볼수록, 그것은 자해로 이어졌습니다.
- 0:43 다음 단계는 어떻게 삶을 끝낼지에 대한 튜토리얼이었습니다.
- 0:47 알고리즘 앞에서 샬리즈의 부모는 무력감을 느꼈습니다.
- 0:51 딸 마리도 같은 상황에서 스스로 목숨을 끊은 스테파니처럼요.
- 0:55 작년에 여러 피해자 부모들이 틱톡을 자살 방조 혐의로 고소했습니다.
- 1:00 그들은 '알고스 빅티마' 단체의 일원입니다.
- 1:05 우리는 많은 부모들이 감히 말하지 못하고, 감히 표현하지 못한 채 집에서 끔찍한 일을 겪고 있다는 것을 금방 깨달았습니다.
- 1:13 그래서 저는 이 부모들이 함께 모일 필요가 있다는 것을 아주 빨리 깨달았습니다.
- 1:20 그들 중 일부는 오늘 이 파리 카페에 모였습니다. 국회에서 논의가 시작되기 며칠 전이었죠.
- 1:26 15세 미만 청소년의 소셜 미디어 사용을 금지하는 법안 발의에 대한 논의입니다.
- 1:30 소셜 미디어는 제대로 관리되지 않고 있습니다, 아주 형편없이 관리되고 있어요.
- 1:33 그리고 그들의 삶의 질과 정신 건강에 큰 영향을 미칠 해로운 콘텐츠가 엄청나게 많습니다.
- 1:38 그들이 거기서 볼 수 있는 것은 그들에게 정말 좋지 않습니다.
- 1:41 틱톡은 자사 알고리즘에 대해 최근 성명을 발표하지 않았지만,
- 1:44 2023년에 자사 규정을 위반한 400만 개의 동영상을 삭제했다고 밝혔습니다.
- 0:00 Ngày sau vụ tự tử của Charlize, 15 tuổi, cha mẹ cô bé đã phát hiện ra nội dung mà cô bé xem trên TikTok.
- 0:07 Con sẽ tự kết liễu đời mình, bằng cách lao vào tàu hỏa.
- 0:10 Đây là một chiếc khăn tay dính đầy máu cùng với những lưỡi dao cạo.
- 0:13 Cho đến bài đăng cuối cùng của cô bé.
- 0:15 Nó thực sự ghi là POV, POV, đêm mang lại lời khuyên. Với tôi, nó khuyên tôi nên lấy một chiếc ghế đẩu và một sợi dây.
- 0:21 Delphine và Jérémie biết rằng con gái họ bị bắt nạt ở trường cấp hai.
- 0:25 Mặc dù được theo dõi y tế, cô bé dần dần khép mình lại, thường xuyên dán mắt vào điện thoại.
- 0:30 Cha mẹ cô bé cáo buộc thuật toán của TikTok đã củng cố sự bất ổn trong tâm lý của cô bé.
- 0:35 Càng xem các video về chứng biếng ăn, cô bé càng chuyển sang tự làm hại bản thân.
- 0:43 Bước tiếp theo là các hướng dẫn về cách kết thúc cuộc đời.
- 0:47 Đối mặt với thuật toán, cha mẹ của Charlize cảm thấy bất lực.
- 0:51 Giống như Stéphanie, người có con gái Marie đã tự tử trong hoàn cảnh tương tự.
- 0:55 Năm ngoái, một số phụ huynh của các nạn nhân đã kiện TikTok ra tòa vì tội xúi giục tự tử.
- 1:00 Họ là thành viên của nhóm Algos Victima.
- 1:05 Chúng tôi nhanh chóng nhận ra rằng nhiều bậc cha mẹ đang sống trong nỗi kinh hoàng tại nhà, không dám nói ra, không dám gọi tên nó.
- 1:13 Và vì vậy, rất nhanh chóng tôi nhận ra rằng có một nhu cầu để những bậc cha mẹ này có thể tập hợp lại.
- 1:20 Một số người trong số họ đã có mặt hôm nay, tại quán cà phê Paris này, vài ngày trước các cuộc thảo luận tại Quốc hội
- 1:26 về một dự luật nhằm cấm mạng xã hội đối với trẻ em dưới 15 tuổi.
- 1:30 Các mạng xã hội được kiểm duyệt kém, rất kém.
- 1:33 Và có rất nhiều nội dung độc hại sẽ có tác động mạnh mẽ đến chất lượng, sức khỏe tinh thần của họ.
- 1:38 Những gì họ có thể thấy ở đó thực sự không tốt cho họ.
- 1:41 TikTok chưa đưa ra tuyên bố gần đây nào về thuật toán của mình,
- 1:44 nhưng đã đảm bảo vào năm 2023 rằng họ đã xóa 4 triệu video vi phạm quy tắc của mình.
Ce reportage explore les conséquences tragiques de l'exposition des adolescents à des contenus néfastes sur TikTok, en se concentrant sur le cas de Charlize, 15 ans, qui s'est suicidée. Ses parents ont découvert que son fil TikTok était rempli de vidéos sur l'anorexie, l'automutilation et même des tutoriels sur la manière de mettre fin à ses jours, accusant l'algorithme de la plateforme d'avoir amplifié son mal-être. Le reportage met en lumière la détresse de ces parents qui se sont sentis impuissants face à l'influence de l'algorithme. L'histoire de Charlize n'est pas isolée ; Stéphanie, dont la fille Marie s'est également suicidée dans des circonstances similaires, témoigne de la même horreur. Ces parents, ainsi que d'autres victimes, se sont regroupés au sein du collectif "Algos Victima". Ce collectif a intenté une action en justice contre TikTok pour incitation au suicide, soulignant la nécessité pour les parents de se réunir et de partager leurs expériences pour faire face à ce problème. L'objectif est de sensibiliser et de lutter contre les dangers des réseaux sociaux. Le reportage s'inscrit dans un contexte législatif actuel, mentionnant les discussions à l'Assemblée nationale concernant une proposition de loi visant à interdire les réseaux sociaux aux moins de 15 ans. Les intervenants soulignent la mauvaise modération des plateformes et l'impact dévastateur des contenus néfastes sur la santé mentale des jeunes. Bien que TikTok ait déclaré en 2023 avoir supprimé des millions de vidéos enfreignant ses règles, la question de la responsabilité de son algorithme dans la diffusion de contenus dangereux reste centrale. Ce reportage met en évidence l'urgence d'une meilleure régulation des réseaux sociaux pour protéger les adolescents.
Đồng bộ phụ đề
Phụ đề bị lệch so với âm thanh? Chỉnh thời điểm tại đây:
Âm = phụ đề sớm hơn, dương = trễ hơn. Lưu trên thiết bị này, riêng cho từng video và từng đoạn.
Báo cáo lỗi
Cho chúng tôi biết vấn đề. Chúng tôi xem xét mọi báo cáo.
0 bình luận
Hãy là người đầu tiên bình luận.