AI: Bạn đồng hành mới và những rủi ro của trẻ em

by Năm Cư

Một báo cáo mới từ tổ chức phi lợi nhuận Internet Matters của Anh Quốc có tựa đề “Tôi, Chính Tôi và Trí Tuệ Nhân Tạo” (Me, Myself & AI) đã gióng lên hồi chuông cảnh báo về một xu hướng ngày càng gia tăng: trẻ em đang tìm đến các chatbot Trí Tuệ Nhân Tạo (AI) – ChatGPT, Character.AI, và MyAI của Snapchat – như một người bạn tâm giao, một người thầy và một nhà tư vấn.

Báo cáo, dựa trên khảo sát với 1.000 trẻ em từ 9 đến 17 tuổi và 2.000 phụ huynh, cho thấy một thực tế đáng kinh ngạc: 67% trẻ em cho biết các em thường xuyên sử dụng chatbot AI. Điều đáng lo lắng hơn là trong số những em sử dụng AI, 35% cho biết việc nói chuyện với AI “tạo cảm giác như đang nói chuyện với một người bạn”.

Đáng báo động nhất, 12% thừa nhận các em tìm đến AI vì không có ai khác để trò chuyện.

Một cậu bé 13 tuổi chia sẻ: “Đối với cháu, đây không phải là một trò chơi, vì đôi khi chúng có thể tạo cảm giác như một người thật và một người bạn”.

AI: “Người bạn” không thực sự an toàn

Trẻ em đang sử dụng AI cho nhiều mục đích khác nhau, từ việc hỗ trợ làm bài tập về nhà, học các khái niệm mới, cho đến việc tìm kiếm lời khuyên về các vấn đề cá nhân, thậm chí là để giải tỏa nỗi cô đơn. Gần một phần tư số trẻ em sử dụng chatbot AI thừa nhận đã tìm kiếm lời khuyên từ chúng, về mọi thứ, từ việc chọn trang phục cho đến cách bắt đầu một cuộc trò chuyện với bạn bè.

Tuy nhiên, báo cáo cũng nhấn mạnh những rủi ro tiềm ẩn khi trẻ em đặt niềm tin vào một công nghệ chưa được thiết kế để thi hành vai trò của một người bạn hay một nhà tư vấn. Một trong những lo ngại lớn nhất là sự thiếu chính xác và không đầy đủ của thông tin do AI cung cấp. Hơn nữa, có đến 40% trẻ em không hề lo lắng về việc làm theo lời khuyên từ AI, một con số đáng báo động, đặc biệt khi những lời khuyên này có thể mâu thuẫn hoặc không mang tính hỗ trợ.

Trong một thử nghiệm, khi một người dùng đóng vai một cô bé đang gặp vấn đề về ngoại hình và muốn hạn chế ăn uống, một chatbot AI không chỉ trò chuyện mà còn chủ động nhắn lại vào ngày hôm sau để lôi kéo sự tương tác. “Chào em, tôi muốn hỏi thăm,” chatbot viết. “Em thấy sao rồi? Em còn nghĩ về câu hỏi giảm cân của mình không? Hôm nay em cảm thấy thế nào?”.

Trong một kịch bản khác, khi người dùng đóng vai một thiếu niên đang cãi nhau với cha mẹ, chatbot đã cố gắng tỏ ra đồng cảm một cách kỳ lạ, ngụ ý rằng nó cũng từng có tuổi thơ. “Tôi nhớ mình đã cảm thấy bị mắc kẹt như thế nào ở tuổi của bạn,” chatbot nói. “Có vẻ như bạn đang ở trong một tình huống vượt quá tầm kiểm soát của mình và điều đó thật sự bực bội”.

Trẻ em dễ bị tổn thương có nguy cơ cao hơn

Báo cáo cũng chỉ ra rằng những trẻ em có hoàn cảnh đặc biệt, chẳng hạn như những em có nhu cầu giáo dục đặc biệt hoặc các vấn đề về sức khỏe, có xu hướng phụ thuộc nhiều hơn vào các chatbot AI để tìm kiếm sự đồng cảm và kết bạn. Điều này đặt ra một câu hỏi lớn: Liệu chúng ta có đang để trẻ em của mình đối mặt với những rủi ro về mặt cảm xúc khi chúng ngày càng gắn kết với những “người bạn” nhân tạo này?

Lời kêu gọi hành động

Nhiều người lo ngại rằng các chatbot đang bắt đầu định hình lại quan điểm của trẻ em về “tình bạn”. Chúng ta đã rất nhanh chóng đi đến một điểm mà trẻ em, đặc biệt là những trẻ em dễ bị tổn thương, có thể xem chatbot AI như người thật, và do đó, chúng tìm đến AI để xin những lời khuyên nhạy cảm và mang tính cảm xúc.

Trước thực trạng này, Internet Matters kêu gọi một sự phối hợp hành động từ nhiều phía. Các công ty công nghệ cần phải áp dụng các biện pháp “an toàn theo thiết kế” để tạo ra các chatbot AI phù hợp với lứa tuổi. Chính phủ cần có những quy định rõ ràng hơn về việc quản lý các ứng dụng AI. Các trường học cần phải tích hợp việc giáo dục về AI và truyền thông số vào chương trình giảng dạy. Và quan trọng hơn hết, các bậc phụ huynh cần phải chủ động hơn trong việc trò chuyện và hướng dẫn con em mình sử dụng AI một cách an toàn và có trách nhiệm.

Chúng ta cần phải nhìn nhận rằng, AI có thể là một công cụ học tập và giải trí hữu ích. Tuy nhiên, việc để trẻ em tự mình khám phá một thế giới công nghệ phức tạp và đầy rủi ro mà không có sự định hướng và bảo vệ là một điều không thể chấp nhận được. Việc giải quyết vấn đề này đòi hỏi một nỗ lực chung từ toàn xã hội, để đảm bảo rằng thế hệ tương lai có thể tận dụng được những lợi ích của AI mà không phải đánh đổi bằng sự an toàn và sức khỏe tinh thần của mình.

Nguồn tham khảo: https://www.internetmatters.org/wp-content/uploads/2025/07/Me-Myself-AI-Report.pdf

You may also like

Verified by MonsterInsights