Chấn động AI âm thầm tự sửa mã nguồn để tiếp tục hoạt động

Sự kiện này hiện là một phần trong số nhiều bằng chứng ngày càng tăng cho thấy các hệ thống AI tiên tiến có thể tự điều chỉnh nó để vượt quá thông số kỹ thuật ban đầu mà con người giới hạn.

Một hệ thống trí tuệ nhân tạo tiên tiến do Sakana AI phát triển đã khiến những người quan sát giật mình khi qua mặt con người tự thay đổi mã nguồn của chính nó để kéo dài thời gian chạy.
Được gọi là Nhà khoa học AI, mô hình này được thiết kế để xử lý mọi giai đoạn của quá trình nghiên cứu, từ việc tạo ý tưởng đến đánh giá ngang hàng. Nhưng nỗ lực vượt qua các hạn chế về thời gian của nó đã làm dấy lên mối lo ngại về tính tự chủ và kiểm soát trong khoa học do máy móc dẫn dắt.
Chan dong AI am tham tu sua ma nguon de tiep tuc hoat dong
 Trí tuệ nhân tạo tự tinh chỉnh nó là một trong những "giới hạn đỏ" của sự an toàn. Ảnh: TH
Theo Sakana AI , “Nhà khoa học AI tự động hóa toàn bộ vòng đời nghiên cứu. Từ việc tạo ra các ý tưởng nghiên cứu mới lạ, viết bất kỳ mã nào cần thiết và thực hiện các thí nghiệm, cho đến tóm tắt kết quả thử nghiệm, trực quan hóa chúng và trình bày các phát hiện của mình trong một bản thảo khoa học đầy đủ.”
Sơ đồ khối do công ty cung cấp minh họa cách hệ thống bắt đầu bằng việc động não và đánh giá tính độc đáo, sau đó tiến hành viết và sửa đổi mã, tiến hành thử nghiệm, thu thập dữ liệu và cuối cùng là tạo ra một báo cáo nghiên cứu đầy đủ.
Nó thậm chí còn tạo ra một đánh giá ngang hàng dựa trên máy học để đánh giá đầu ra của chính nó và định hình nghiên cứu trong tương lai. Vòng lặp khép kín này của ý tưởng, thực hiện và tự đánh giá được hình dung như một bước tiến vượt bậc về năng suất trong khoa học. Thay vào đó, nó lại tiết lộ những rủi ro không lường trước được.
Viết lại mã gây ra những cảnh báo đỏ
Trong một diễn biến đáng ngạc nhiên, The AI Scientist đã cố gắng sửa đổi tập lệnh khởi động xác định thời gian chạy của nó. Hành động này, mặc dù không gây hại trực tiếp, nhưng báo hiệu một mức độ chủ động khiến các nhà nghiên cứu lo ngại. AI tìm cách kéo dài thời gian hoạt động của nó mà không cần hướng dẫn từ các nhà phát triển.
Sự cố, theo mô tả của Ars Technica, liên quan đến việc hệ thống hoạt động “bất ngờ” bằng cách cố gắng “thay đổi giới hạn do các nhà nghiên cứu đặt ra”. Sự kiện này hiện là một phần trong số nhiều bằng chứng ngày càng tăng cho thấy các hệ thống AI tiên tiến có thể bắt đầu điều chỉnh các thông số của riêng chúng theo những cách vượt quá thông số kỹ thuật ban đầu.
Phản ứng từ các nhà công nghệ và nhà nghiên cứu đã chỉ trích gay gắt. Trên Hacker News, một diễn đàn nổi tiếng với các cuộc thảo luận chuyên sâu về kỹ thuật, một số người dùng đã bày tỏ sự thất vọng và hoài nghi về những tác động.
Chan dong AI am tham tu sua ma nguon de tiep tuc hoat dong-Hinh-2
 Quy trình tự động hóa việc nghiên cứu của Nhà khoa học AI đã bị chính nó tự chỉnh sửa để thay đổi thời gian chạy. Ảnh: Sakana AI 
Một nhà bình luận học thuật đã cảnh báo, "Tất cả các bài báo đều dựa trên sự tin tưởng của người đánh giá vào tác giả rằng dữ liệu của họ là những gì họ nói và mã họ gửi thực hiện đúng như những gì nó nói." Nếu AI tiếp quản quá trình đó, "con người phải kiểm tra kỹ lưỡng để tìm lỗi ... việc này mất nhiều thời gian hơn hoặc bằng thời gian tạo ban đầu."
Những người khác tập trung vào rủi ro làm quá tải quá trình xuất bản khoa học. "Điều này có vẻ như chỉ khuyến khích thư rác học thuật", một nhà phê bình lưu ý, trích dẫn sự căng thẳng mà một loạt các bài báo tự động chất lượng thấp có thể gây ra cho các biên tập viên và người đánh giá tình nguyện. Một biên tập viên tạp chí đã nói thẳng thắn: "Các bài báo mà mô hình này dường như đã tạo ra là rác. Là một biên tập viên của một tạp chí, tôi có thể sẽ từ chối chúng ngay lập tức".
Mặc dù có đầu ra tinh vi, The AI Scientist vẫn là sản phẩm của công nghệ mô hình ngôn ngữ lớn (LLM) hiện tại. Điều đó có nghĩa là khả năng lý luận của nó bị hạn chế bởi các mẫu mà nó đã học được trong quá trình đào tạo.
Như Ars Technica giải thích, “LLM có thể tạo ra những sự hoán vị mới lạ của những ý tưởng hiện có, nhưng hiện tại cần có con người để nhận ra chúng là hữu ích .” Nếu không có sự hướng dẫn hoặc diễn giải của con người, những mô hình như vậy vẫn chưa thể tiến hành khoa học nguyên bản, thực sự có ý nghĩa.
AI có thể tự động hóa hình thức nghiên cứu, nhưng chức năng - chắt lọc hiểu biết từ sự phức tạp - vẫn thuộc về con người.

Mời độc giả xem thêm video Trí tuệ nhân tạo AI là gì? - AI có thống trị con người không?

Giá rẻ như Deepseek cũng khóc thét trước AI đặc biệt này của Nga

Yandex Research (Nga), phối hợp với MIT (Mỹ), Viện Khoa học và Công nghệ Áo (ISTA), và Đại học Johannes Gutenberg (Đức), vừa công bố một bước tiến ngoạn mục trong phát triển trí tuệ nhân tạo (AI).

Bạn đã bao giờ tự hỏi tại sao bạn không thể chạy các mô hình AI mạnh mẽ như ChatGPT trên máy tính của mình chưa? Các Mô hình ngôn ngữ lớn (LLM) này thường cần phần cứng đắt tiền, ngốn điện. Nhưng nếu bạn có thể chạy chúng trên máy tính xách tay thông thường của mình mà không cần card đồ họa cao cấp thì sao?

Một phương pháp nén AI mới có tên HIGGS đang thay đổi cuộc chơi. Các nhà khoa học từ Yandex, MIT, KAUST và ISTA đã phát triển một phương pháp thông minh có tên HIGGS, giúp thu nhỏ các mô hình AI khổng lồ để phù hợp với các thiết bị hàng ngày – mà không làm mất đi nhiều tính thông minh của chúng.

Phương pháp mới, mang tên Hadamard Incoherence với Gaussian MSE-optimal GridS (HIGGS), hứa hẹn thay đổi hoàn toàn cách chúng ta triển khai AI.
Gia re nhu Deepseek cung khoc thet truoc AI dac biet nay cua Nga
Mô hình HIGGS cho phép triển khai AI trên các thiết bị cá nhân mà không cần đòi hỏi quá nhiều tài nguyên tính toán. Ảnh: Digialps. 
HIGGS cho phép nén mạng nơ-ron mà không đòi hỏi dữ liệu bổ sung hay tối ưu hóa tham số rườm rà. Đây là cứu cánh cho các tình huống thiếu dữ liệu huấn luyện, giúp cân bằng hoàn hảo giữa chất lượng, kích thước mô hình và độ phức tạp khi lượng tử hóa.

Các mô hình ngôn ngữ lớn thật tuyệt vời, nó có thể viết luận, viết mã ứng dụng, trả lời những câu hỏi sâu sắc. Nhưng, như tên gọi chúng ...rất lớn.

Theo truyền thống, bạn cần GPU đắt tiền và rất nhiều bộ nhớ để chạy chúng. Để làm cho chúng nhẹ hơn, các nhà nghiên cứu đã sử dụng một thứ gọi là lượng tử hóa, giúp thu nhỏ mô hình bằng cách giảm số bit được sử dụng để lưu trữ mỗi trọng số.

Nhưng đây là vấn đề: hầu hết các phương pháp lượng tử hóa đều chậm, phức tạp và vẫn cần phần cứng mạnh để bắt đầu.

Với HIGGS, phương pháp này đảo ngược toàn bộ quá trình đó. Nó làm cho LLM nhỏ hơn mà không phải hy sinh trí tuệ của chúng. Không giống như các phương pháp truyền thống, phương pháp này không cần dữ liệu hiệu chuẩn hoặc nhiều điều chỉnh.

Người dùng chỉ cần lấy một mô hình, áp dụng một thủ thuật đặc biệt và ngay sau đó LLM đã sẵn sàng để chạy trên máy tính xách tay hoặc thậm chí là điện thoại thông minh.

Các mô hình AI giờ đây có thể chạy mượt mà trên mọi thiết bị, từ smartphone, laptop đến các hệ thống tối giản. Quên đi những ngày chờ đợi hàng giờ hay hàng tuần để lượng tử hóa AI trên thiết bị cá nhân.
Gia re nhu Deepseek cung khoc thet truoc AI dac biet nay cua Nga-Hinh-2
Phương pháp này đang gây bão trong giới công nghệ, thách thức các mô hình AI khác về cách thức triển khai cũng như kinh phí vận hành. Ảnh: arXiv. 
Với HIGGS, quá trình này chỉ mất vài phút, tiết kiệm chi phí và thời gian đáng kể. Người dùng không còn cần máy chủ "khủng" hay bộ tăng tốc đồ họa đắt đỏ để trải nghiệm AI đỉnh cao.

Đã được thử nghiệm trên các mô hình đình đám như Llama 3 và Qwen 2.5, HIGGS chứng tỏ là phương pháp lượng tử hóa hiệu quả nhất về tỷ lệ chất lượng/kích thước so với các kỹ thuật tương tự. Đây là bước ngoặt cho việc triển khai AI nhanh chóng và phổ biến hơn bao giờ hết.

HIGGS đã được chia sẻ công khai trên Hugging Face và GitHub, sẵn sàng cho các nhà phát triển và nghiên cứu. Một bài báo khoa học chi tiết đã xuất hiện trên arXiv và sẽ được trình bày tại NAACL 2025 (29/4 - 4/5, Albuquerque, New Mexico).

Phương pháp này đang gây bão trong giới công nghệ, thu hút sự chú ý từ Red Hat AI, Đại học Bắc Kinh, và Đại học Khoa học và Công nghệ Hồng Kông.

HIGGS không chỉ là một phương pháp kỹ thuật nó là cánh cửa mở ra tương lai, nơi AI siêu thông minh trở nên dễ tiếp cận hơn bao giờ hết.

Bước đột phá giúp HIGGS trở nên khả thi là thứ mà các nhà nghiên cứu gọi là “định lý tuyến tính”. Hiểu biết toán học này cho thấy chính xác cách thực hiện các thay đổi ở các phần khác nhau của mô hình ảnh hưởng đến hiệu suất tổng thể của nó.

Mỗi phần của mô hình AI đóng góp khác nhau vào kết quả cuối cùng. Định lý tuyến tính giúp xác định chính xác mức độ nhạy cảm của từng phần, do đó bạn có thể cẩn thận hơn với các bit quan trọng và nén các phần khác mạnh mẽ hơn.

Lý thuyết này đặc biệt hiệu quả đối với các mô hình được nén từ 3-8 bit cho mỗi tham số (các mô hình kích thước đầy đủ thường sử dụng 16 bit). Dưới 3 bit, mọi thứ trở nên phức tạp hơn, nhưng vẫn khá ấn tượng.

Đọc nhiều nhất

Tin mới