Nguyên nhân khiến bong bóng AI có thể vỡ tung

by Năm Cư

Một bài phân tích trên tờ BBC Science Focus đăng ngày 27/12/2025 cho thấy các nhà đầu tư lớn đang rút vốn khỏi Nvidia, báo hiệu những rạn nứt trong niềm tin vào trí tuệ nhân tạo.

Đầu tiên, Peter Thiel, tỷ phú công nghệ nổi tiếng, vừa bán toàn bộ cổ phần trị giá 100 triệu đô la (76 triệu bảng Anh) của quỹ mình tại Nvidia – công ty sản xuất chip giá trị nhất thế giới và là trái tim của cơn sốt trí tuệ nhân tạo (AI).

Ngay sau đó, Michael Burry – nhà đầu tư lừng danh được biết đến qua bộ phim The Big Short vì đã tiên đoán cuộc khủng hoảng tài chính năm 2008 – cũng đã đặt cược gần 200 triệu đô la (152 triệu bảng Anh) chống lại nhà sản xuất chip này.

Tại sao hai nhà đầu tư tầm cỡ lại quay lưng với một công ty có giá cổ phiếu tăng gấp 15 lần trong năm năm qua?

Câu trả lời không chỉ nằm ở Nvidia. Vấn đề nằm ở chính nền tảng kỹ thuật mà ngành công nghiệp trị giá hàng ngàn tỷ đô la này đang dựa vào. Nhiều nhà nghiên cứu và nhà đầu tư bắt đầu nghi ngờ rằng động lực phát triển đáng kinh ngạc của AI đang dựa trên một giả thuyết kỹ thuật có thể không còn đúng trong tương lai.

Nói cách khác, một “bong bóng” AI có thể đang hình thành và nó có nguy cơ vỡ tung bởi một khiếm khuyết chết người đang ẩn giấu ngay trước mắt chúng ta.

Để hiểu chuyện gì đang xảy ra với nền kinh tế toàn cầu, trước tiên chúng ta cần hiểu AI thực chất là gì.

Sự bùng nổ hiện tại của công nghệ AI dựa trên làn sóng “học sâu” (deep learning), một phương pháp tạo ra các hệ thống máy tính thông minh sử dụng “mạng lưới thần kinh nhân tạo”.

Hãy tưởng tượng hệ thống này giống như một mạng lưới các điểm nối (các nơ-ron nhân tạo) liên kết với nhau. Chúng phân tích thông tin và truyền nó đến các điểm nối khác. Các mô hình học sâu xếp chồng nhiều lớp các điểm nối này lên nhau.

Kết quả là chúng ta có những mô hình rất giỏi trong việc phỏng đoán. Các Mô hình Ngôn ngữ Lớn (LLM) như ChatGPT của OpenAI, Gemini của Google hay Claude của Anthropic hoạt động dựa trên nguyên tắc này. Chúng được huấn luyện trên lượng văn bản khổng lồ để trở nên thành thạo trong việc dự đoán từ tiếp theo trong một câu.

Gary Marcus, một tiếng nói dẫn đầu trong cộng đồng hoài nghi về AI, so sánh: “Chúng giống như chức năng tự động điền từ (autocomplete) trên điện thoại của bạn vậy. Bạn gõ một cái gì đó, và nó đoán xem cái gì sẽ xuất hiện tiếp theo.”

Trong nhiều năm, Thung lũng Silicon đã tin vào một câu thần chú đơn giản: làm cho các mô hình lớn hơn, chúng sẽ thông minh hơn. Họ thực hiện điều này bằng cách tăng kích thước mô hình, tăng dữ liệu huấn luyện và tăng sức mạnh tính toán (compute).

Ban đầu, điều này đúng. Nhưng giờ đây, các vết nứt đang xuất hiện.

Ba giới hạn lớn nhất của AI hiện nay

Mặc dù các mô hình ngày nay lớn hơn gấp hàng chục lần so với vài năm trước, nhưng chúng không thông minh hơn gấp 10 lần theo hầu hết các thước đo. Gary Marcus chỉ ra rằng cốt lõi của các hệ thống này vẫn chỉ là “những cỗ máy thống kê khổng lồ”. Chúng học các mối tương quan chứ không thực sự hiểu biết về thế giới như con người.

Điều này dẫn đến ba thất bại căn bản:

  1. Ảo giác (Hallucinations)
    AI thường xuyên bịa đặt thông tin. Vì chúng hoạt động dựa trên xác suất thống kê chứ không phải sự thật, chúng có thể tự tin đưa ra những điều hoàn toàn sai.
    Ví dụ, diễn viên Harry Shearer từng phát hiện một tiểu sử do AI viết nói rằng ông là người Anh. Điều này sai hoàn toàn. AI đã đoán như vậy chỉ vì nó thấy nhiều diễn viên lồng tiếng khác trong dữ liệu của nó là người Anh, và nó gán ghép đặc điểm đó cho ông. Nó không hề có khái niệm thực tế về việc “Harry Shearer là ai”.
  2. Vấn đề ngoại lệ (The outlier problem)
    Khi AI gặp những tình huống chưa từng thấy trong dữ liệu huấn luyện, nó có thể thất bại thảm hại.
    Hãy xem xét xe tự lái. Chúng có thể nhận ra các xe khác đang di chuyển bình thường. Nhưng nếu gặp một chiếc xe tải bị lật nằm ngang chắn hai làn đường – một hình ảnh hiếm gặp – hệ thống có thể không nhận ra đó là vật cản nguy hiểm. Hậu quả của sai lầm này có thể rất đắt giá.
  3. Giới hạn dữ liệu
    Các công ty AI đang cạn kiệt nguồn dữ liệu phẩm chất tốt để huấn luyện máy. Elon Musk từng nhận định rằng tổng lượng kiến thức của con người trên internet đã bị khai thác hết để huấn luyện AI vào khoảng năm ngoái. Chúng ta không có thêm “10 cái internet nữa” để dạy cho máy móc.

Cái giá phải trả và hướng đi mới

Chi phí để duy trì cuộc đua này là khổng lồ. Việc huấn luyện các mô hình tiêu tốn lượng điện năng tương đương với hàng trăm ngôi nhà dùng trong cả năm. Goldman Sachs ước tính một truy vấn ChatGPT tốn điện gấp 10 lần một lần tìm kiếm trên Google.

Tuy nhiên, Goldman Sachs cũng thận trọng cho rằng chúng ta chưa hẳn đã ở trong bong bóng, vì các công ty lớn như Google hay Microsoft vẫn đang kiếm ra tiền. Nhưng lợi nhuận này có thể đến từ đâu nếu công nghệ chững lại? Gary Marcus lo ngại về “chủ nghĩa tư bản giám sát” (surveillance capitalism), nơi dữ liệu cá nhân của người dùng trở thành nguyên liệu thô để khai thác và bán quảng cáo, tương tự như cách mạng xã hội hoạt động.

Vậy tương lai nằm ở đâu?

Nhiều chuyên gia, bao gồm cả Marcus, tin rằng giải pháp là AI Thần kinh – Ký hiệu (Neuro-symbolic AI). Đây là sự kết hợp giữa khả năng nhận diện mẫu của mạng thần kinh (neural networks) và tư duy logic, dựa trên quy tắc của phần mềm cổ điển.

Hệ thống AlphaFold2 của Google DeepMind, vừa giành giải Nobel Hóa học năm 2024, là minh chứng rõ ràng nhất. Nó kết hợp cả hai phương pháp để dự đoán cấu trúc protein, tạo ra những đột phá khoa học thực sự mà không bịa đặt thông tin.

Dù Trí tuệ Nhân tạo Tổng quát (AGI) có thể chưa xuất hiện vào năm 2027 như nhiều người mong đợi, nhưng việc thay đổi phương pháp tiếp cận từ “chỉ cần làm to hơn” sang “kết hợp thông minh hơn” có thể là chìa khóa để ngành công nghệ này phát triển bền vững, thay vì vỡ tan như một bong bóng xà phòng.

Tham khảo: BBC Science Focus

You may also like

Verified by MonsterInsights