Một khảo sát mới vừa được công bố cho thấy: các cách tiếp cận hiện nay trong lĩnh vực trí tuệ nhân tạo (AI) nhiều khả năng sẽ không thể tạo ra những mô hình đạt đến mức thông minh ngang bằng hoặc vượt con người. Kết quả đến từ cuộc khảo sát 475 chuyên gia do Hiệp hội Thúc đẩy Trí tuệ Nhân tạo (AAAI) thực hiện. Trong đó, có đến 76% người tham gia cho rằng việc tiếp tục mở rộng các mô hình ngôn ngữ lớn (LLM) là "khó có khả năng" hoặc "rất khó có khả năng" giúp đạt được AGI – trí tuệ nhân tạo cấp độ con người.

Kết quả này cho thấy một sự “quay xe” đáng chú ý so với niềm tin phổ biến trong ngành công nghệ kể từ thời điểm bùng nổ của AI tạo sinh năm 2022. Suốt hai năm qua, nhiều công ty lớn vẫn khẳng định rằng chỉ cần tăng dữ liệu, phần cứng và ngân sách là sẽ có thể vượt qua trí thông minh của con người. Tuy nhiên, khi các mô hình mới dần chững lại và những bản phát hành gần đây không còn mang lại sự đột phá, giới chuyên gia bắt đầu cho rằng việc tiếp tục “đổ tiền” vào mô hình cũ sẽ không giúp AI tiến xa hơn.
Giáo sư Stuart Russell từ Đại học UC Berkeley, đồng tổ chức khảo sát, nhận định rằng sau GPT-4, hiệu quả cải tiến khi mở rộng mô hình đã giảm đáng kể và cực kỳ tốn kém. Theo ông, các công ty AI đã đầu tư quá sâu nên không còn đường lui, buộc phải “lao tiếp” dù biết con đường này không hiệu quả. Nhiều người trong giới công nghệ gọi đây là hiện tượng “diminishing returns” – đầu tư càng nhiều, kết quả cải tiến càng nhỏ giọt.
Cải tiến vượt trội của các LLM những năm qua chủ yếu dựa trên kiến trúc transformer do Google giới thiệu năm 2017. Mô hình này cho phép hệ thống học được các mô hình xác suất từ dữ liệu đầu vào và phản hồi theo kiểu dự đoán. Tuy nhiên, quá trình mở rộng liên tục đã đòi hỏi lượng dữ liệu, năng lượng và chi phí khổng lồ. Trong năm 2024, ngành AI tạo sinh đã thu hút 56 tỷ USD đầu tư mạo hiểm trên toàn cầu – phần lớn để xây dựng các trung tâm dữ liệu siêu lớn. Hệ quả là lượng khí thải carbon từ lĩnh vực này đã tăng gấp ba lần so với năm 2018.
Dữ liệu – thứ nhiên liệu chính của AI – cũng sắp cạn. Dự đoán cho thấy lượng dữ liệu do con người tạo ra đủ tiêu chuẩn để huấn luyện mô hình sẽ hết vào cuối thập kỷ này. Khi đó, các công ty AI sẽ buộc phải chọn giữa việc thu thập dữ liệu riêng tư hoặc để AI tự “ăn” chính dữ liệu do nó tạo ra – điều có thể gây ra hiện tượng "tự nhiễm độc", dẫn đến sai lệch và sụp đổ mô hình.
Tuy nhiên, giới chuyên gia cho rằng các giới hạn của AI hiện tại không chỉ đến từ vấn đề tài nguyên mà còn nằm ở chính kiến trúc nền tảng. Theo Stuart Russell, mô hình hiện tại chủ yếu dựa vào “các mạch feedforward” – một cách tiếp cận có giới hạn cố hữu trong việc biểu diễn các khái niệm phức tạp.
Để mô hình hóa được những khái niệm dạng này, mạng lưới phải trở nên cực lớn, tương đương với một bảng tra cứu khổng lồ. Điều này khiến mô hình cần dữ liệu rất lớn, vẫn không bao phủ được đầy đủ và thường có những khoảng trống nghiêm trọng. Chính vì vậy, có những lĩnh vực như cờ vây, nhiều người chơi thông thường vẫn có thể đánh bại các mô hình được gọi là “siêu nhân”.
Tất cả những nút thắt trên đang khiến nhiều công ty AI rơi vào thế khó. Các thước đo đánh giá hiệu suất mô hình gần như không cải thiện, mô hình GPT-5 của OpenAI vẫn chưa ra mắt. Trong khi đó, startup DeepSeek từ Trung Quốc đã cho thấy có thể tạo ra mô hình đạt hiệu suất tương đương với các ông lớn phương Tây, nhưng chỉ tốn một phần chi phí và năng lượng. Điều này càng khiến 79% chuyên gia được khảo sát khẳng định rằng nhận thức hiện tại về khả năng AI đang bị thổi phồng quá mức.
Dù vậy, không phải tất cả đều u ám. Một hướng đi được kỳ vọng là các mô hình reasoning – tức mô hình có khả năng suy luận sâu hơn, xử lý thông tin kỹ hơn thay vì chỉ phản ứng nhanh theo xác suất. Khi kết hợp với các hệ thống máy học khác và được “thu nhỏ” thành các mô hình chuyên biệt, đây có thể là con đường dẫn tới những bước tiến thực sự. Một số chuyên gia cũng đặt kỳ vọng vào hướng lập trình xác suất – cách tiếp cận có khả năng mô hình hóa thế giới thực một cách linh hoạt và gần với AGI hơn.
Giáo sư Thomas Dietterich, một chuyên gia kỳ cựu trong ngành, cho rằng các tiến bộ lớn trong công nghệ thường cần 10 đến 20 năm để sinh lời rõ ràng. Và giống như các cuộc cách mạng trước đây, không loại trừ khả năng các startup AI hiện tại sẽ là “lứa thất bại đầu tiên” trước khi thế hệ tiếp theo gặt hái thành công lớn.
Lấy link