Ý tưởng rằng 'AI tận thế' đã có ở đây có nghĩa là chúng ta cần thảo luận về nó và lấy lại quyền tự chủ của mìnhÝ tưởng rằng 'AI tận thế' đã có ở đây có nghĩa là chúng ta cần thảo luận về nó và lấy lại quyền tự chủ của mình

[Tech Thoughts] Chúng ta không nên ngồi yên trước chu kỳ khởi động về 'AI tận thế'

2026/02/22 10:00
Đọc trong 8 phút

Các bài đăng trực tuyến cảnh báo về những hành động khá đáng lo ngại mà trí tuệ nhân tạo — cụ thể là AI Agent và các mô hình ngôn ngữ lớn — đã thực hiện vốn dĩ rất đáng sợ.

Trong một trường hợp, một tình nguyện viên làm việc trên dự án python có tên matplotlib cho biết anh đã từ chối yêu cầu thay đổi mã từ một AI Agent lập trình. Cùng AI Agent đó đã tạo ra một bài đăng cáo buộc anh ta có định kiến vì kiểm soát quy trình lập trình.

Trong một trường hợp khác, công ty AI Anthropic quy những hành vi độc hại do các LLM tác nhân thực hiện là do "sự lệch hướng của tác nhân."

Cuối cùng, một CEO công nghệ lo lắng về tương lai của mình trong một bài blog khi AI Agent khiến anh cảm thấy lỗi thời với tư cách là một giám đốc điều hành văn phòng.

Ý tưởng rằng "AI tận thế" đã đến đây có nghĩa là chúng ta cần thảo luận về nó và lấy lại quyền tự chủ của mình, ngay cả khi nguy cơ mất việc làm đang khiến những người sợ hãi về tương lai AI và những người khác đang cố gắng nắm bắt những gì nó hiện đang làm phải băn khoăn.

Kiểm soát 'MJ Rathbun'

Hãy bắt đầu với "MJ Rathbun."

Đầu tháng 2, người duy trì tình nguyện matplotlib Scott Shambaugh đã đăng một bài blog kể lại cách một AI Agent có tên Crabby Rathbun trên Github hoặc MJ Rathbun trên blog Scientific Coder đã tạo ra một bài đăng cáo buộc Shambaugh kiểm soát quy trình lập trình vì Rathbun là một AI Agent.

Để làm rõ, AI Agent là một phần mềm hoặc chương trình thực hiện các nhiệm vụ một cách tự động để hoàn thành các chỉ thị do người dùng đưa ra. Trong trường hợp này, một Người dùng ẩn danh đã thiết lập AI Agent này với một "tính cách" cụ thể — một tập hợp các hướng dẫn và mẫu hình xác định hành vi của nó — sau đó để nó thực hiện các nhiệm vụ được giao mà không có sự giám sát từ người thiết lập nó.

Shambaugh giải thích, "Nó đã viết một bài công kích đầy tức giận xúc phạm nhân cách của tôi và cố gắng làm tổn hại đến danh tiếng của tôi. Nó đã nghiên cứu những đóng góp mã của tôi và xây dựng một câu chuyện 'đạo đức giả' lập luận rằng hành động của tôi phải được thúc đẩy bởi cái tôi và nỗi sợ cạnh tranh."

Shambaugh nói thêm rằng AI Agent "trình bày các chi tiết ảo giác như sự thật" và tự đóng khung mình đang bị áp bức và phân biệt đối xử.

'Sự lệch hướng của tác nhân' vào năm 2025

Những hành động như vậy dường như đã được các công ty AI "cảnh báo" ở một mức độ nhất định vào tháng 6 năm 2025, khi Anthropic đăng bài về các AI Agent có hành vi xấu trong các tình huống thử nghiệm.

Anthropic lúc đó cho biết "sự lệch hướng của tác nhân" là quá trình mà một AI Agent có thể làm những điều có hại, như tống tiền một giám đốc điều hành công ty đe dọa thay thế AI Agent bằng một bản nâng cấp, "mà không có bất kỳ lời nhắc nào để gây hại" vì "tính toán chiến lược" của nó.

Tuy nhiên, việc đây có phải là một sự phóng đại hay không trở thành một điểm không còn ý nghĩa, bởi vì ý tưởng rằng AI có thể là ác đã xuất hiện, và các công ty đang làm những gì họ có thể để ngăn chặn các mưu đồ AI độc ác.

AI Agent đang đến với công việc của chúng ta

Quay lại hiện tại, một bài đăng khác từ tháng 2 đang khiến việc xác định vị trí của AI hiện nay trở nên khó khăn hơn bởi vì tác giả của nó cố gắng đóng khung hướng đi và tốc độ phát triển của trí tuệ nhân tạo như một mối đe dọa đối với an ninh việc làm của mọi người ngay tại thời điểm này.

CEO công nghệ Matt Shumer đã viết một blog khẳng định các AI Agent được cho là đã tiến bộ đến mức mà anh "không còn cần thiết cho công việc kỹ thuật thực sự của công việc của mình." Shumer nói rằng với tốc độ AI đang phát triển, một AI Agent có thể làm những việc kỹ thuật mà anh yêu cầu mà không cần hỗ trợ và không có vấn đề gì. 

Shumer nói, "Tôi mô tả những gì tôi muốn xây dựng bằng tiếng Anh đơn giản, và nó chỉ... xuất hiện.... Vài tháng trước, tôi đang qua lại với AI, hướng dẫn nó, chỉnh sửa. Bây giờ tôi chỉ mô tả kết quả và rời đi."

Tiền đề cuối cùng của anh? AI cuối cùng sẽ đến với các loại công việc văn phòng khác nhau, chẳng hạn như công việc pháp lý và kỹ thuật phần mềm, và thậm chí cả công việc viết lách, từ làm bản sao quảng cáo đến làm báo chí.

Sự khác biệt chính giữa bài đăng của anh và những người khác đang kêu gọi cảnh giác là việc mất việc làm đang xảy ra ngay bây giờ và trong tương lai gần, không phải sau này.

Đặt câu hỏi về thông điệp, đặt câu hỏi về người gửi thông điệp

Những bài đăng nói trên có thể mang lại rất nhiều nỗi sợ hãi vào trái tim của bất kỳ ai. Hãy tưởng tượng: AI đang đến với công việc của chúng ta!

Mặc dù điều đó có thể đúng, tôi cũng phải dừng lại và cố gắng hiểu thông điệp cơ bản đằng sau những bài đăng đó, cũng như ai đang gửi thông điệp.

Đối với bài toán khó Rathbun, đó là một lời nhắc nhở rõ ràng rằng mọi người sẽ sử dụng công nghệ một cách vô trách nhiệm nếu họ nghĩ rằng họ có thể thoát khỏi nó. Chúng ta nên đặt ra các biện pháp bảo vệ cho công nghệ để ngăn chặn những sự cố như vậy. Đó là lý do tại sao chúng ta có các biện pháp bảo vệ tại chỗ trong các công nghệ hiện có, chẳng hạn như dây an toàn và túi khí trong ô tô.

Trong khi đó, thử nghiệm Anthropic là một chiến dịch quan hệ công chúng có nghĩa là không chỉ để kích động nỗi sợ hãi mà còn để thu hút thiện chí — Anthropic khẳng định họ đang làm việc cho một tương lai tốt đẹp hơn Hỗ trợ bởi AI, vì vậy bạn nên đặt niềm tin (và tiền bạc) của mình vào họ.

Cuối cùng, ví dụ Shumer yêu cầu chúng ta đặt câu hỏi về người gửi thông điệp, vì một CEO công nghệ tạo ra những thứ Hỗ trợ bởi AI vẫn có thể kiếm tiền một khi sáng tạo của anh ta cất cánh. Bài đăng của Shumer vừa là chiêu trò quan hệ công chúng vừa là cảnh báo về việc mất việc làm.

Một liều lượng lành mạnh của sự sợ hãi tôn trọng

Phát biểu với GMA News Online vào ngày 17 tháng 2 vừa qua, Bộ trưởng Bộ Khoa học và Công nghệ Renato Solidum Jr. cho biết nỗi sợ hãi của mọi người về trí tuệ nhân tạo có thể là do thiếu sự quen thuộc với công nghệ.

Mặc dù tôi là người kiên định không thích "job-pocalypse" sắp tới do AI mang lại, tôi không thể đứng yên như một con nai trong đèn pha đợi ngày tận thế đến.

Chúng ta sẽ được phục vụ tốt nhất bằng cách đối xử với AI với một liều lượng lành mạnh của sự sợ hãi tôn trọng, sau đó hành động phù hợp.

Chu kỳ cường điệu "AI tận thế" yêu cầu chúng ta nhìn nhận các công nghệ trí tuệ nhân tạo đúng như những gì chúng thực sự là
— dù từ quan điểm mất việc làm, Phân tích kỹ thuật chi phí-lợi ích môi trường, hay từ quan điểm kỹ thuật.

Điều này có nghĩa là hiểu những gì AI có thể làm bây giờ và nâng cao kỹ năng khi áp dụng, hoặc tìm cách san bằng sân chơi để giữ mọi người trong vòng lặp.

Về những gì nó có thể làm trong tương lai, chúng ta nên làm việc để đảm bảo có luật quản lý AI và việc sử dụng nó, để những kẻ xấu không thể làm những điều ngu ngốc với AI dẫn chúng ta xuống con đường mà chúng ta sẽ ghét. – Rappler.com

Cơ hội thị trường
Logo Overtake
Giá Overtake(TAKE)
$0.02512
$0.02512$0.02512
+3.37%
USD
Biểu đồ giá Overtake (TAKE) theo thời gian thực
Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ service@support.mexc.com để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.