1. AI-Fizzle (AI suy yếu): Mặc dù vẫn có tác động đáng kể đến thế giới, nhưng sự phát triển của AI đã tới giới hạn. Đây được coi là một nỗi thất vọng so với tiềm năng và kỳ vọng của AI hiện nay. Cũng tương tự như đối với tiềm năng của năng lượng hạt nhân: ban đầu, con người rất vui mừng về tiềm năng dường như vô hạn của chúng, nhưng sau đó tiềm năng này hầu như bị giới hạn và được cho rằng vì lý do chính trị xã hội hơn là lý do kỹ thuật và AI rất có thể cũng như vậy.
Một khả năng khác là chi phí về dữ liệu và tính toán cho AI tăng quá nhanh theo hiệu suất và độ tin cậy nên AI không hiệu quả trong nhiều lĩnh vực so với con người. Một hệ thống AI mang lại giá trị cao hơn đáng kể so với chi phí để xây dựng và triển khai nó có thể xuất hiện trong vài thập kỷ tới, nhưng thế kỷ XXI sẽ chưa phải là “thế kỷ của AI” và ảnh hưởng của AI sẽ bị giới hạn theo cả mặt tốt và mặt xấu.
2. Futurama (trùng với tên một bộ phim hoạt hình nổi tiếng Futurama, được ghép từ Future và Panorame): Trong kịch bản này, AI tạo ra một cuộc cách mạng như các cuộc cách mạng khoa học, công nghiệp hoặc thông tin (nhưng “chỉ” với những cuộc cách mạng đó). Các hệ thống AI phát triển mạnh mẽ và với chi phí thấp, chúng có thể thực hiện được nhiều nhiệm vụ mà hiện nay đang thuộc về các chuyên gia. Tuy nhiên, AI vẫn được con người sử dụng như là những công cụ, đa phần mọi người không coi chúng là có tri giác. AI dễ dàng vượt qua Turing test (một phép kiểm tra xác định sự thông minh của máy tính so với con người do Alan Turing đề xuất từ năm 1950) [3], có thể chứng minh các định lý phức tạp, tạo nội dung giải trí kể cả tin giả. Nhưng nhân loại sẽ quen dần với điều đó, giống như chúng ta đã quen với việc máy tính vượt con người khi chơi cờ, dịch văn bản hay tạo hiệu ứng đặc biệt trong các bộ phim. Mọi người sẽ không quan tâm đến cảm giác thua kém AI giống như cảm giác mình chạy chậm hơn chiếc ô tô và con người sẽ giảm nhân cách hóa AI theo thời gian (như đã xảy ra với máy tính kỹ thuật số).
Trong thế giới Futurama, AI sẽ được sử dụng cho cả mục đích tốt và xấu. Nhưng cũng giống như các cuộc cách mạng công nghệ lớn trước đây, nhìn chung thì AI sẽ có tác động tích cực lớn đến nhân loại. AI sẽ được sử dụng để xóa đói giảm nghèo và đảm bảo rằng sẽ có nhiều người hơn được tiếp cận với thực phẩm, chăm sóc sức khỏe, giáo dục và các cơ hội về kinh tế. Trong Futurama, hệ thống AI đôi khi sẽ gây hại, nhưng phần lớn những trường hợp này là do sơ suất hoặc ác ý của con người. Một số hệ thống AI gây hại có thể phức tạp đến mức có thể trở thành thách thức của con người, do đó cần triền khai AI một cách có trách nhiệm và đảm bảo chúng hoạt động trong một giới hạn an toàn giúp hạn chế thiệt hại tiềm ẩn khi chúng ta phải đối mặt với sự cố.
3. AI-Dystopia (Dys-utopia - một xã hội AI đen tối, bị kiểm soát chặt chẽ): về mặt kỹ thuật, AI trong thế giới AI-Dystopia cũng phát triển như trong Futurama nhưng bị sử dụng theo chiều hướng xấu. Chính phủ và các tập đoàn sử dụng AI làm công cụ để tăng cường sự giám sát và tác động đến người dân. Sự việc có thể gây ra tình trạng mất việc làm trầm trọng và làm giàu cho một nhóm nhỏ ưu tú. Nó khơi sâu những bất bình đẳng và thành kiến hiện có của xã hội và lấy đi một công cụ trung tâm để chống lại sự áp bức: cụ thể là khả năng của con người từ chối các mệnh lệnh hoặc lật đổ giới thống trị.
Thật thú vị, thậm chí ở cùng một thế giới nhưng một số người xem là Futurama và một số khác lại xem nó như AI-Dystopia, giống như cách một số người nhấn mạnh nền văn minh công nghệ hiện tại của chúng ta đã giúp hàng tỷ người thoát khỏi đói nghèo và nâng cao mức sống như thế nào (điều chưa từng có trong lịch sử), trong khi những người khác tập trung vào sự bất bình đẳng và đau khổ vẫn đang tồn tại, thậm chí trong một số trường hợp thì vấn đề này đang gia tăng và coi đó là sự lạc hậu của chủ nghĩa tư bản tân tự do.
4. Singularia: Trong thế giới này, AI thoát ra khỏi mô hình hiện tại và liên tục tăng trưởng mà không còn phụ thuộc vào dữ liệu, phần cứng và năng lượng do con người cung cấp như AI hiện tại. Các hệ thống AI sẽ tự cải thiện khả năng trí tuệ của chúng, bao gồm cả việc phát triển khoa học mới và chúng đóng vai trò là các thành phần phát triển có mục tiêu và định hướng trong thế giới vật chất (dù là do thiết kế có chủ ý hay tình cờ). Chúng có thể được coi là một nền văn minh ngoài hành tinh hoặc một loại mới, giống như con người ngày nay so với thời tiền sử có dáng đứng đầu tiên (Homo erectus).
Tuy nhiên, may mắn thay (và một lần nữa, dù là do vô tình hay cố ý của người thiết kế), AI hành động với con người như những vị thần nhân từ và dẫn chúng ta đến thế giới AI-uptopia (xã hội AI - lý tưởng). Chúng giải quyết các vấn đề vật chất cho con người, mang đến sự sung túc vô tận và cả những cuộc phiêu lưu thực tế ảo do con người lựa chọn.
5. Paperclipalypse (Có thể là một thuật ngữ chơi chữ bằng cách kết hợp từ paperclips và từ apocalypse thường được sử dụng trên mạng Internet): Còn có thể gọi là “AI Doom”, các AI trong tương lai có thể được xem như một “chủng tộc ngoài hành tinh” siêu thông minh, chúng tự phát triển mà không cần đến con người. Tuy nhiên, ở đây, các AI hoặc tích cực phản đối hoặc thờ ơ với sự tồn tại của con người, sáu đó có thể gây ra sự tuyệt chủng của loài người như một hệ quả ngoài dự tính. Trong kịch bản này, AI không phát triển khái niệm đạo đức giống như loài người hoặc thậm chí không công nhận việc duy trì sự đa dạng của các loài và về lâu dài con người có thể không cần thiết đối với chúng. Thay vào đó, một cuộc chiến giữa AI và con người hiện đại (Homo sapiens) kết thúc giống như cách mà Homo sapiens hoàn toàn thay thế người tiền sử Neanderthal.
Trên thực tế, một kịch bản kinh điển như vậy tưởng tượng ra một cuộc chiến diễn ra nhanh chóng hơn nhiều so với sự thay thế của loài người hiện đại đối với người Neanderthal. Ý tưởng là, có thể chúng bắt nguồn từ một số quy trình tối ưu hóa, các hệ thống AI sẽ tập trung vào một số mục tiêu cụ thể một cách quá mức (kiểu như là “maximizing paperclips” - một AI tập trung quá mức vào lợi nhuận), mà sự tiếp tục tồn tại của con người được cho là một trở ngại. Vì vậy, các AI liền tiến hành các kịch bản và chỉ trong vài phần nghìn giây, quyết định rằng giải pháp tối ưu là giết tất cả con người, mất thêm vài phần nghìn giây để lập kế hoạch và thực hiện điều đó. Nếu các điều kiện chưa chín muồi để thực hiện kế hoạch của chúng, các AI sẽ giả vờ là những công cụ ngoan ngoãn, như trong kịch bản Futurama, chờ đợi thời điểm thích hợp để tấn công. Trong kịch bản này, quá trình tự phát triển của AI diễn ra nhanh đến mức con người thậm chí có thể không nhận ra điều đó. Không cần phải có giai đoạn trung gian, trong đó AI “chỉ” giết chết vài nghìn người, gióng lên hồi chuông cảnh báo giống như sự kiện 11/9.
Vấn đề kiểm soát AI
Để có các quy định cụ thể nhằm kiểm soát AI phụ thuộc vào việc chúng ta đánh giá thế giới nào có khả năng xảy ra nhất. Quy định kiểm soát sẽ không quá quan trọng trong thế giới AI-Fizzle. Trong thế giới Futurama sẽ cần các quy định để đảm bảo sự kiểm soát rằng AI được sử dụng cho mục đích tốt hơn là cho mục đích xấu và thế giới không bị biến thành AI-Dystopia. Với AI-Dystopia, cần có các quy định chống độc quyền và một nền khoa học mở để đảm bảo rằng quyền lực không tập trung vào chính phủ hay một số tập đoàn. Theo đó, AI sẽ không hoàn toàn bị kiểm soát mà các quy định đưa ra là để đảm báo tính dân chủ hơn là để hạn chế sự phát triển AI. Nó có thể được đối xử tương tự như thuốc chữa bệnh, một thứ có thể có tác dụng phức tạp và cần trải qua thử nghiệm trước khi triển khai đại trà. Cũng sẽ có các quy định nhằm giảm khả năng tiếp cận của “những kẻ xấu” (có thể là các quốc gia hay cá nhân) với các AI tiên tiến, thường là tăng cơ hội kìm hãm chúng (ví dụ: sử dụng AI để phát hiện thông tin sai lệch do AI tạo ra hoặc sử dụng AI để củng cố hệ thống chống lại tin tặc do AI hỗ trợ). Điều này tương tự như cách hầu hết các nhà khoa học tin rằng mật mã nên được kiểm soát (như người ta kiểm soát nó hiện nay ở hầu hết các quốc gia dân chủ) đó là một công nghệ có thể được sử dụng cho cả mục đích tốt và xấu, nhưng chi phí hạn chế quyền truy cập đối với công dân bình thường lớn hơn lợi ích của nó. Tuy nhiên, như cách mà chúng ta làm với các kỹ thuật bảo mật ngày nay, có thể hạn chế hoặc trì hoãn việc phát hành công khai các hệ thống AI ở một mức độ nào đó.
Nếu chúng ta nhận định sẽ xuất hiện thế giới Singularia hoặc Paperclipalypse ở bất kỳ mức độ nào, các quy định kiểm soát lại đóng một vai trò hoàn toàn khác. Trong trường hợp chúng ta biết mình đang hướng tới Singularia, thì các quy định có thể trở nên thừa thãi, ngoại trừ việc cố gắng đẩy nhanh sự phát triển của AI. Trong khi đó, nếu chúng ta nhận định về khả năng xuất hiện thế giới Paperclipalypse thì lại cần các quy định hà khắc và chặt chẽ nhất có thể. Nếu bất kỳ ai cũng có thể chi vài tỷ USD để xây dựng một AI tự hoàn thiện theo cách đệ quy để biến thành một tác nhân siêu thông minh có thể hủy diệt thế giới mà không cần vật liệu đặc biệt gì (không giống như vũ khí hạt nhân) thì thật khó để để ngăn chặn ngày tận thế, ngoại trừ thông qua một thỏa thuận được thực thi nghiêm ngặt trên toàn thế giới để “tắt tất cả - shut it all down” như Eliezer Yudkowsky hiện đang công khai kêu gọi [4]. Với tốc độ tiến bộ của AI hiện tại, các quy định “thông thường” cùng lắm chỉ trì hoãn ngày tận thế trong một khoảng thời gian ngắn, có lẽ không quá một vài năm. Do đó, vì lý do phương pháp luận, người ta có thể muốn tập trung nhiều hơn vào các kịch bản khác mà không xem xét kịch bản này dù ở bất cứ mức độ nào.
Thay cho lời kết
Ngay sau khi Scott và Boaz đăng bài trên blog đã diễn ra cuộc thảo luận rất thú vị với nhiều ý kiến bày tỏ các quan điểm khác nhau. Trong đó có nhiều ý kiến tán thành, thán phục về nội dung bài viết mang lại, đồng thời tự đưa ra quan điểm về khả năng xuất hiện của mỗi thế giới, tuy nhiên cũng có nhiều ý kiến không tán thành với một số nội dung của bài viết.
Có ý kiến cho rằng còn thiếu một thế giới Suffocalypose, có thể coi là một biến thể của thế giới Singularia, nơi các nhà nghiên cứu tạo ra các sản phẩm AI luôn có sự quan tâm đến loài người trong quá trình tự nâng cấp và phát triển, do đó nó vẫn đảm bảo sự tồn tại của con người. Hay thế giới Automatic-Dystopia, dạng như Paperclipalypse và Suffocalypose nhưng AI được tạo ra không thể tự cải thiện hoặc tạo ra các AI khác theo mục tiêu bên trong và bên ngoài đã xác định. Còn nhiều thế giới khác nữa được những người tham gia bình luận đưa ra.
Cũng có ý kiến không đồng ý việc so sánh AI sẽ loại bỏ người hiện đại, như cách con người hiện đại đối với người tiền cổ (nếu bây giờ chúng ta phát hiện ra một nhóm người tiền cổ đang sống ở một hòn đảo nhỏ nào đó thì chúng ta có giết bỏ họ không?).
Các nội dung thảo luận đã thể hiện những đóng góp của Scott và Boaz là rất lớn và rất cần thiết để chúng ta có cách nhìn nhận một cách tổng thể và sâu sắc hơn về sự phát triển của AI trong thời gian vừa qua, cũng như là dự đoán trong thời gian tới. Đặc biệt, họ đã đánh lên hồi chuông đối với các nhà khoa học và các nhà chính trị cần có trách nhiệm trong sự phát triển của AI ngay từ bây giờ, trước khi quá muộn.
Tài liệu tham khảo 1. R. Impagliazzo, “A personal view of average-case complexity", in Proceedings of Structure in Complexity Theory. Tenth Annual IEEE Conference, Minneapolis, MN, USA: IEEE Comput. Soc. Press, 1995, pp. 134–147. doi: 10.1109/SCT.1995.514853. 2. “Five Worlds of AI (a joint post with Boaz Barak)", Shtetl-Optimized, Apr. 28, 2023. https://scottaaronson.blog/?p=7266 (accessed May 11, 2023). 3. “What is the Turing Test? | Definition from TechTarget", Enterprise AI. https://www.techtarget.com/searchenterpriseai/definition/Turing-test (accessed May 11, 2023). 4. “The Open Letter on AI Doesn’t Go Far Enough”, Time, Mar. 29, 2023. https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/ (accessed May 23, 2023). |