"AI 2027" trong mắt Vitalik: Liệu siêu AI có thực sự hủy diệt loài người?
Ethereum đang trên đà phát triển, nhưng Vitalik có vẻ lo ngại hơn về mối đe dọa từ siêu AI.
Tiêu đề gốc: Phản hồi của tôi về AI 2027
Tác giả gốc: Vitalik Buterin
Bản dịch gốc: Luffy, Foresight News
Vào tháng 4 năm nay, Daniel Kokotajlo, Scott Alexander và những người khác đã công bố báo cáo "AI 2027", trong đó mô tả "dự đoán tốt nhất của chúng tôi về tác động của AI siêu phàm trong 5 năm tới". Họ dự đoán rằng đến năm 2027, AI siêu phàm sẽ ra đời, và tương lai của toàn bộ nền văn minh nhân loại sẽ phụ thuộc vào sự phát triển của AI tương tự AI: Đến năm 2030, chúng ta sẽ hoặc mở ra một xã hội lý tưởng (theo quan điểm của Hoa Kỳ) hoặc đi đến sự hủy diệt hoàn toàn (theo quan điểm của toàn thể nhân loại).
Trong những tháng tiếp theo, rất nhiều phản hồi với các ý kiến khác nhau về khả năng xảy ra kịch bản này đã xuất hiện. Trong số các phản hồi quan trọng, hầu hết đều tập trung vào vấn đề "dòng thời gian quá nhanh": Liệu sự tiến bộ của AI có thực sự tiếp tục tăng tốc hay thậm chí tăng cường như Kokotajlo và cộng sự tuyên bố? Cuộc tranh luận này đã diễn ra trong cộng đồng AI trong nhiều năm, với nhiều người hoài nghi rằng AI siêu phàm sẽ đến nhanh như vậy. Trong những năm gần đây, khoảng thời gian AI có thể hoàn thành nhiệm vụ một cách tự động đã tăng gấp đôi sau mỗi bảy tháng. Nếu xu hướng này tiếp tục, phải đến giữa những năm 2030, AI mới có thể tự động hoàn thành các nhiệm vụ tương đương với toàn bộ sự nghiệp của con người. Tốc độ đó vẫn nhanh, nhưng sẽ là sau năm 2027.
Những người có quan điểm về dòng thời gian dài hơn có xu hướng lập luận rằng có một sự khác biệt cơ bản giữa "nội suy/so khớp mẫu" (điều mà các mô hình ngôn ngữ lớn hiện đang làm) và "ngoại suy/suy nghĩ ban đầu thực sự" (điều mà chỉ con người mới có thể làm được). Việc tự động hóa cái sau có thể yêu cầu các công nghệ mà chúng ta chưa có hoặc thậm chí chưa thể bắt đầu sử dụng. Có lẽ chúng ta chỉ đang lặp lại sai lầm đã mắc phải khi áp dụng máy tính hàng loạt: giả định sai lầm rằng, vì chúng ta đã nhanh chóng tự động hóa một loại nhận thức quan trọng, nên mọi thứ khác sẽ sớm theo sau.
Bài viết này sẽ không đề cập trực tiếp đến cuộc tranh luận về mốc thời gian, cũng như cuộc tranh luận (rất quan trọng) về việc liệu siêu AI có nguy hiểm theo mặc định hay không. Nhưng để nói rõ, cá nhân tôi nghĩ rằng mốc thời gian dài hơn năm 2027, và mốc thời gian càng dài thì những lập luận tôi đưa ra trong bài viết này càng thuyết phục. Nhìn chung, bài viết này sẽ đưa ra một lời phê bình từ một góc độ khác:
Kịch bản AI 2027 ngầm giả định rằng năng lực của AI hàng đầu (Đặc vụ-5 và Consensus-1 tiếp theo) sẽ nhanh chóng tăng lên đến sức mạnh kinh tế và hủy diệt ngang hàng thần thánh, trong khi năng lực (kinh tế và phòng thủ) của tất cả những AI khác sẽ vẫn trì trệ phần lớn. Điều này mâu thuẫn với tuyên bố của kịch bản rằng ngay cả trong thế giới bi quan, đến năm 2029, chúng ta có khả năng chữa khỏi ung thư, làm chậm quá trình lão hóa và thậm chí tải lên tâm trí của mình.
Một số biện pháp đối phó mà tôi sẽ mô tả trong bài viết này có thể khiến bạn thấy khả thi về mặt kỹ thuật, nhưng lại không thực tế để triển khai trong thế giới thực trong thời gian tới. Phần lớn, tôi đồng ý. Tuy nhiên, kịch bản AI 2027 không dựa trên thế giới thực ngày nay, mà giả định rằng trong 4 năm nữa (hoặc bất kỳ mốc thời gian nào có thể mang đến sự hủy diệt), công nghệ sẽ phát triển đến mức con người có khả năng vượt trội hơn nhiều so với hiện tại. Vậy hãy cùng khám phá: điều gì sẽ xảy ra nếu không chỉ một bên sở hữu siêu năng lực AI, mà cả hai bên đều sở hữu?
Tận thế sinh học không hề đơn giản
Hãy cùng xem xét kỹ hơn về kịch bản "chủng tộc" (kịch bản mà tất cả mọi người đều chết vì Hoa Kỳ quá ám ảnh với việc đánh bại Trung Quốc và phớt lờ sự an toàn của con người). Đây là những gì xảy ra nếu tất cả mọi người đều chết:
“Trong khoảng ba tháng, Consensus-1 đã mở rộng ra khắp nhân loại, biến đồng cỏ và cánh đồng băng thành nhà máy và tấm pin mặt trời. Cuối cùng, nó quyết định rằng những con người còn lại quá phiền toái: Vào giữa năm 2030, AI đã tung ra hàng chục vũ khí sinh học âm thầm phát tán vào các thành phố lớn, cho phép chúng âm thầm lây nhiễm cho hầu hết mọi người, sau đó kích hoạt các tác động gây chết người bằng cách phun hóa chất. Hầu hết đều chết trong vòng vài giờ; số ít người sống sót (chẳng hạn như những người ứng phó ngày tận thế trong boongke và thủy thủ trên tàu ngầm) đã bị máy bay không người lái tiêu diệt. Robot đã quét não của các nạn nhân và lưu trữ các bản sao trong bộ nhớ để nghiên cứu hoặc hồi sinh trong tương lai.”
Hãy cùng phân tích kịch bản này. Ngay cả bây giờ, vẫn có những công nghệ đang được phát triển khiến cho "chiến thắng sạch sẽ" này của AI trở nên ít thực tế hơn:
· Hệ thống lọc không khí, thông gió và đèn UV có thể làm giảm đáng kể tốc độ lây truyền các bệnh qua không khí
· Hai công nghệ phát hiện thụ động thời gian thực: phát hiện thụ động tình trạng nhiễm trùng ở người và thông báo trong vòng vài giờ, và phát hiện nhanh các chuỗi vi-rút mới chưa biết trong môi trường
· Nhiều phương pháp tăng cường và kích hoạt hệ thống miễn dịch hiệu quả hơn, an toàn hơn, phổ biến hơn và dễ sản xuất tại địa phương hơn so với vắc-xin vương miện mới, cho phép cơ thể con người chống lại các dịch bệnh tự nhiên và nhân tạo. Loài người đã tiến hóa trong một môi trường mà dân số toàn cầu chỉ có 8 triệu người và phần lớn thời gian ở ngoài trời, vì vậy, theo trực giác, chúng ta có thể dễ dàng thích nghi với thế giới ngày càng đầy rẫy hiểm nguy ngày nay.
Kết hợp lại, những phương pháp này có thể giảm hệ số sinh sản cơ bản (R 0) của các bệnh lây truyền qua đường không khí xuống 10-20 lần (ví dụ: lọc không khí tốt hơn làm giảm khả năng lây truyền xuống 4 lần, cách ly ngay lập tức những người bị nhiễm bệnh làm giảm hệ số này xuống 3 lần, và tăng cường miễn dịch đường hô hấp đơn giản làm giảm hệ số này xuống 1,5 lần), hoặc thậm chí hơn thế nữa. Điều đó đủ để khiến tất cả các bệnh lây truyền qua đường không khí hiện có, bao gồm cả bệnh sởi, không thể hoạt động được, và vẫn còn xa mới đạt được mức tối ưu về mặt lý thuyết.
Ý tưởng cho rằng một loại vũ khí sinh học lây lan âm thầm có thể lây nhiễm cho toàn bộ dân số thế giới mà không gây ra báo động sẽ trở nên vô cùng đáng ngờ nếu giải trình tự virus theo thời gian thực được phổ biến rộng rãi để phát hiện sớm. Điều đáng chú ý là ngay cả những phương pháp tiên tiến như thả nhiều loại dịch bệnh và hóa chất nguy hiểm chỉ có thể được phát hiện khi kết hợp với nhau cũng có thể được phát hiện.
Hãy nhớ rằng, chúng ta đang nói về những giả định của AI 2027: nanobot và quả cầu Dyson được liệt kê là "công nghệ mới nổi" vào năm 2030. Điều này đồng nghĩa với việc hiệu quả sẽ tăng lên đáng kể, khiến việc triển khai rộng rãi các biện pháp đối phó nói trên trở nên đáng mong đợi hơn. Mặc dù ngày nay, vào năm 2025, con người vẫn chậm chạp và trì trệ, và một lượng lớn các dịch vụ công vẫn dựa vào giấy tờ. Nếu AI mạnh nhất thế giới có thể biến rừng và cánh đồng thành nhà máy và trang trại năng lượng mặt trời vào năm 2030, thì AI mạnh thứ hai thế giới cũng có thể lắp đặt một số lượng lớn cảm biến, đèn và bộ lọc trong các tòa nhà của chúng ta vào năm 2030.
Nhưng hãy đưa AI 2027 tiến thêm một bước nữa và đi vào khoa học viễn tưởng thuần túy:
· Lọc không khí vi mô bên trong cơ thể (mũi, miệng, phổi);
· Các quy trình tự động từ phát hiện mầm bệnh mới đến tinh chỉnh hệ thống miễn dịch để chống lại mầm bệnh đó, với ứng dụng ngay lập tức;
· Nếu khả thi với việc "tải lên tâm trí", chỉ cần thay thế toàn bộ cơ thể bằng robot Tesla Optimus hoặc Unitree;
· Nhiều công nghệ sản xuất mới (có khả năng sẽ được tối ưu hóa siêu việt trong nền kinh tế robot) sẽ cho phép sản xuất tại địa phương nhiều thiết bị bảo hộ hơn hiện tại, mà không cần dựa vào chuỗi cung ứng toàn cầu.
Trong một thế giới mà ung thư và lão hóa sẽ được chữa khỏi vào tháng 1 năm 2029, và khi tiến bộ công nghệ tiếp tục tăng tốc, thật khó tin rằng đến giữa những năm 2030, chúng ta sẽ không có thiết bị đeo được có thể in sinh học và tiêm các chất theo thời gian thực để bảo vệ cơ thể con người khỏi bất kỳ bệnh nhiễm trùng (và chất độc nào).
Các lập luận về phòng thủ sinh học nêu trên không bao gồm "cuộc sống phản chiếu" và "máy bay không người lái sát thủ có kích thước bằng muỗi" (mà kịch bản AI 2027 dự đoán sẽ bắt đầu xuất hiện vào năm 2029). Nhưng những phương tiện này không thể đạt được "chiến thắng sạch sẽ" đột ngột được mô tả trong AI 2027, và theo trực giác, các biện pháp phòng thủ đối xứng chống lại chúng dễ dàng hơn nhiều.
Do đó, không có khả năng vũ khí sinh học thực sự sẽ hủy diệt hoàn toàn loài người theo cách được mô tả trong kịch bản AI 2027. Tất nhiên, tất cả các kết quả mà tôi mô tả đều không phải là một "chiến thắng sạch sẽ" cho nhân loại. Bất kể chúng ta làm gì (ngoại trừ việc có lẽ "tải ý thức lên robot"), chiến tranh sinh học AI toàn diện vẫn sẽ cực kỳ nguy hiểm. Tuy nhiên, không nhất thiết phải đạt đến tiêu chuẩn "chiến thắng hoàn toàn cho nhân loại": miễn là cuộc tấn công có khả năng thất bại một phần cao, nó sẽ đủ để tạo ra một sự răn đe mạnh mẽ đối với AI đã chiếm vị trí thống trị trên thế giới và ngăn chặn nó thực hiện bất kỳ cuộc tấn công nào. Tất nhiên, lộ trình phát triển AI càng dài, khả năng phòng thủ như vậy sẽ càng hiệu quả.
Còn việc kết hợp vũ khí sinh học với các phương tiện tấn công khác thì sao?
Để các biện pháp đối phó trên thành công, ba điều kiện tiên quyết phải được đáp ứng:
· An ninh vật lý của thế giới (bao gồm an ninh sinh học và chống máy bay không người lái) được quản lý bởi chính quyền địa phương (con người hoặc AI), và không phải tất cả đều là con rối của Consensus-1 (tên của AI cuối cùng kiểm soát thế giới và hủy diệt loài người trong kịch bản "AI 2027");
· Consensus-1 không thể hack vào hệ thống phòng thủ của các quốc gia khác (hoặc các thành phố, các khu vực an toàn khác) và ngay lập tức khiến chúng trở nên vô hiệu;
· Consensus-1 không kiểm soát miền thông tin toàn cầu đến mức không ai muốn cố gắng tự vệ.
Theo trực giác, kết quả của tiền đề (1) có thể đi đến hai thái cực. Ngày nay, một số lực lượng cảnh sát được tập trung hóa cao độ và có hệ thống chỉ huy quốc gia mạnh mẽ, trong khi những lực lượng khác được bản địa hóa. Nếu an ninh vật lý phải nhanh chóng chuyển đổi để thích ứng với nhu cầu của kỷ nguyên AI, bối cảnh sẽ được thiết lập lại hoàn toàn và kết quả mới sẽ phụ thuộc vào những lựa chọn được đưa ra trong vài năm tới. Các chính phủ có thể lười biếng và dựa vào Palantir, hoặc họ có thể chọn kết hợp phát triển cục bộ và công nghệ nguồn mở. Ở đây, tôi nghĩ chúng ta cần đưa ra lựa chọn đúng đắn.
Nhiều cuộc thảo luận bi quan về các chủ đề này cho rằng (2) và (3) là vô vọng. Vì vậy, hãy phân tích chi tiết hai điểm này.
Sự kết thúc của an ninh mạng còn lâu mới đến
Công chúng và các chuyên gia thường tin rằng an ninh mạng thực sự là không thể và điều tốt nhất chúng ta có thể làm là nhanh chóng vá các lỗ hổng sau khi chúng được phát hiện và ngăn chặn những kẻ tấn công mạng bằng cách tích trữ các lỗ hổng đã phát hiện. Có lẽ điều tốt nhất chúng ta có thể làm là một kịch bản theo phong cách Battlestar Galactica, trong đó hầu hết các tàu vũ trụ của con người đều bị tê liệt cùng lúc bởi cuộc tấn công mạng của người Cylon, và số tàu vũ trụ còn lại sống sót vì chúng không sử dụng bất kỳ công nghệ mạng nào. Tôi không đồng ý. Thay vào đó, tôi tin rằng "đích đến" của an ninh mạng có lợi cho bên phòng thủ, và chúng ta có thể đạt được đích đến này với sự phát triển công nghệ nhanh chóng được giả định bởi "AI 2027".
Một cách để hiểu điều này là sử dụng một kỹ thuật ưa thích của các nhà nghiên cứu AI: ngoại suy các xu hướng. Dưới đây là một đường xu hướng dựa trên khảo sát GPT Deep Dive, giả định các kỹ thuật bảo mật hàng đầu, về tỷ lệ lỗ hổng bảo mật trên một nghìn dòng mã theo thời gian.
Ngoài ra, chúng ta đã thấy những tiến bộ đáng kể trong việc phát triển và người tiêu dùng áp dụng hộp cát và các kỹ thuật khác để cô lập và giảm thiểu các cơ sở mã đáng tin cậy. Trong ngắn hạn, các công cụ phát hiện lỗ hổng bảo mật siêu thông minh độc quyền của kẻ tấn công sẽ tìm ra một số lượng lớn các lỗ hổng. Nhưng nếu các tác nhân cực kỳ thông minh dùng để tìm lỗ hổng hoặc xác minh mã chính thức được công khai, thì trạng thái cân bằng cuối cùng tự nhiên sẽ là các nhà phát triển phần mềm tìm ra tất cả các lỗ hổng thông qua các quy trình tích hợp liên tục trước khi phát hành mã.
Tôi có thể thấy hai lý do thuyết phục tại sao ngay cả trong thế giới này, các lỗ hổng sẽ không bị loại bỏ hoàn toàn:
· Lỗi phát sinh từ sự phức tạp của chính ý định con người, vì vậy khó khăn chính nằm ở việc xây dựng các mô hình ý định đủ chính xác, chứ không phải ở bản thân mã;
· Đối với các thành phần không quan trọng về an toàn, chúng ta có thể tiếp tục xu hướng trong công nghệ tiêu dùng là viết nhiều mã hơn để thực hiện nhiều tác vụ hơn (hoặc giảm ngân sách phát triển), thay vì thực hiện cùng một lượng tác vụ với các tiêu chuẩn an toàn ngày càng cao.
Tuy nhiên, không có danh mục nào trong số này áp dụng cho các tình huống như "kẻ tấn công có thể truy cập root vào các hệ thống duy trì sự sống của chúng ta không?", đó là cốt lõi của cuộc thảo luận của chúng ta.
Tôi thừa nhận rằng quan điểm của tôi lạc quan hơn quan điểm chính thống của những người thông minh trong lĩnh vực an ninh mạng hiện nay. Nhưng ngay cả khi bạn không đồng ý với tôi trong bối cảnh thế giới ngày nay, điều đáng nhớ là kịch bản AI 2027 giả định sự tồn tại của siêu trí tuệ. Ít nhất, nếu "100 triệu bản sao của một siêu trí tuệ suy nghĩ với tốc độ gấp 2.400 lần tốc độ của con người" không giúp chúng ta có được mã không có những lỗi như thế này, thì chúng ta chắc chắn nên đánh giá lại liệu siêu trí tuệ có mạnh mẽ như các tác giả tưởng tượng hay không.
Đến một lúc nào đó, chúng ta cần nâng cao đáng kể tiêu chuẩn không chỉ về bảo mật phần mềm mà còn cả bảo mật phần cứng. IRIS là một nỗ lực hiện tại nhằm cải thiện khả năng xác minh phần cứng. Chúng ta có thể sử dụng IRIS làm điểm khởi đầu hoặc tạo ra công nghệ tốt hơn. Trên thực tế, điều này có thể liên quan đến cách tiếp cận "sửa chữa bằng cách xây dựng": các quy trình sản xuất phần cứng cho các thành phần chính được thiết kế có chủ đích với các bước xác minh cụ thể. Đây là những nhiệm vụ mà tự động hóa AI có thể đơn giản hóa rất nhiều.
Sự kết thúc của siêu thuyết phục còn lâu mới đến
Như đã đề cập trước đó, một kịch bản khác mà việc tăng cường đáng kể khả năng phòng thủ vẫn có thể không giúp ích là nếu AI thuyết phục đủ số người rằng không cần phải phòng thủ trước mối đe dọa của AI siêu thông minh, và bất kỳ ai cố gắng tìm cách bảo vệ bản thân hoặc cộng đồng của họ đều là tội phạm.
Tôi từ lâu đã lập luận rằng có hai điều sẽ cải thiện khả năng chống lại siêu thuyết phục của chúng ta:
· Một hệ sinh thái thông tin ít đồng nhất hơn.Có thể nói rằng chúng ta đang bước vào kỷ nguyên hậu Twitter, khi internet ngày càng phân mảnh. Đó là một điều tốt (mặc dù sự phân mảnh khá lộn xộn), và chúng ta cần thêm thông tin đa cực nói chung.
· AI phòng thủ.Cá nhân cần được trang bị AI do địa phương quản lý, trung thành rõ ràng để cân bằng các mô hình đen tối và các mối đe dọa mà họ nhìn thấy trên internet. Đã có những chương trình thí điểm rải rác về những ý tưởng này (như ứng dụng "kiểm tra tin nhắn" của Đài Loan, có khả năng quét cục bộ trên điện thoại), và có những thị trường tự nhiên để thử nghiệm thêm những ý tưởng này (như bảo vệ mọi người khỏi lừa đảo), nhưng cần nhiều nỗ lực hơn nữa trong lĩnh vực này.
Từ trên xuống dưới: Kiểm tra URL, kiểm tra địa chỉ tiền điện tử, kiểm tra tin đồn. Các ứng dụng như vậy có thể trở nên cá nhân hóa hơn, tự chủ hơn và mạnh mẽ hơn.
Cuộc chiến không nên là những siêu thuyết phục siêu thông minh chống lại bạn, mà là những siêu thuyết phục siêu thông minh chống lại bạn cộng với một trình phân tích yếu hơn một chút nhưng vẫn siêu thông minh hoạt động cho bạn.
Đây là điều nên xảy ra. Nhưng liệu nó có thực sự xảy ra không? Việc đạt được công nghệ phòng thủ thông tin rộng rãi trong thời gian ngắn theo kịch bản AI 2027 là một mục tiêu rất khó khăn. Nhưng có thể lập luận rằng những cột mốc khiêm tốn hơn sẽ đủ. Nếu việc ra quyết định tập thể là quan trọng nhất và, như trong kịch bản AI 2027, tất cả các sự kiện quan trọng đều diễn ra trong một chu kỳ bầu cử duy nhất, thì nói một cách nghiêm túc, điều quan trọng là phải cung cấp công nghệ phòng thủ thông tin tốt cho những người ra quyết định trực tiếp (chính trị gia, công chức, lập trình viên ở một số công ty và những người chơi khác). Điều này tương đối dễ thực hiện trong ngắn hạn và theo kinh nghiệm của tôi, nhiều người trong số những người này đã thoải mái khi nói chuyện với nhiều AI để giúp họ đưa ra quyết định.
Ý nghĩa
Trong thế giới AI 2027, người ta cho rằng kết luận đã được dự đoán trước là AI siêu thông minh sẽ có thể dễ dàng và nhanh chóng xóa sổ phần còn lại của nhân loại, vì vậy điều duy nhất chúng ta có thể làm là cố gắng đảm bảo rằng AI dẫn đầu là nhân từ. Theo tôi, thực tế phức tạp hơn nhiều: câu trả lời cho câu hỏi liệu AI hàng đầu có đủ mạnh để dễ dàng xóa sổ phần còn lại của nhân loại (và các AI khác) hay không vẫn còn rất gây tranh cãi, và có những hành động chúng ta có thể thực hiện để tác động đến kết quả đó.
Nếu những lập luận này là đúng, thì ý nghĩa của chúng đối với chính sách hiện nay đôi khi giống với "học thuyết an toàn AI chính thống" và đôi khi khác:
Việc trì hoãn sự phát triển của AI siêu thông minh vẫn là một điều tốt. AI siêu thông minh an toàn hơn trong 10 năm so với 3 năm, và thậm chí an toàn hơn trong 30 năm. Cho nền văn minh thêm thời gian để chuẩn bị là điều tốt.
Làm thế nào để thực hiện điều này là một câu hỏi khó. Tôi nghĩ rằng việc bác bỏ lệnh cấm 10 năm được đề xuất đối với quy định về AI ở cấp tiểu bang tại Hoa Kỳ nhìn chung là một điều tốt, nhưng đặc biệt là sau thất bại của các đề xuất ban đầu như SB-1047, thì việc đi tiếp theo sẽ trở nên khó khăn hơn. Tôi nghĩ cách ít xâm phạm nhất và mạnh mẽ nhất để làm chậm sự phát triển của AI rủi ro cao có thể liên quan đến một số loại hiệp ước điều chỉnh phần cứng tiên tiến nhất. Nhiều kỹ thuật an ninh mạng phần cứng cần thiết để đạt được khả năng phòng thủ hiệu quả cũng có thể giúp xác nhận các hiệp ước phần cứng quốc tế, do đó, thậm chí còn có sự tương tác lẫn nhau.
Tuy nhiên, cần lưu ý rằng tôi cho rằng nguồn rủi ro chính là các tác nhân liên quan đến quân sự, những người sẽ thúc đẩy mạnh mẽ việc miễn trừ khỏi các hiệp ước như vậy; điều này không bao giờ nên được cho phép, và nếu cuối cùng họ được miễn trừ, thì việc phát triển AI chỉ do quân đội thúc đẩy có thể làm tăng rủi ro.
Những nỗ lực phối hợp giúp AI có nhiều khả năng làm điều tốt và ít khả năng làm điều xấu vẫn có lợi. Ngoại lệ chính (và sẽ luôn như vậy) là khi những nỗ lực phối hợp cuối cùng phát triển thành những năng lực được cải thiện.
Các quy định tăng cường tính minh bạch trong các phòng thí nghiệm AI vẫn có lợi. Việc khuyến khích các phòng thí nghiệm AI hành xử đúng mực sẽ giảm thiểu rủi ro, và tính minh bạch là một cách tốt để đạt được điều đó.
Tâm lý "nguồn mở là xấu" trở nên rủi ro hơn. Nhiều người phản đối AI nguồn mở với lý do rằng phòng thủ là không thực tế và triển vọng tươi sáng duy nhất là những người tốt với AI tốt đạt được siêu trí tuệ và bất kỳ khả năng đặc biệt nguy hiểm nào trước những người kém thiện chí hơn. Nhưng lập luận trong bài viết này lại vẽ nên một bức tranh khác: phòng thủ là không thực tế chính xác vì một bên đã đi trước quá xa khiến những bên khác không theo kịp. Sự lan tỏa công nghệ trở nên quan trọng để duy trì sự cân bằng quyền lực. Nhưng đồng thời, tôi sẽ không bao giờ cho rằng việc đẩy nhanh sự phát triển của các năng lực AI tiên tiến là điều tốt chỉ vì nó được thực hiện trong mã nguồn mở.
Tư duy "chúng ta phải đánh bại Trung Quốc" trong các phòng thí nghiệm của Hoa Kỳ trở nên rủi ro hơn vì những lý do tương tự. Nếu bá quyền không phải là một vùng đệm an ninh mà là một nguồn rủi ro, thì điều này càng bác bỏ lập luận (thật không may là quá phổ biến) rằng "những người có thiện chí nên tham gia các phòng thí nghiệm AI hàng đầu để giúp họ giành chiến thắng nhanh hơn".
Các sáng kiến như "AI công cộng" cần được hỗ trợ nhiều hơn,để đảm bảo rằng các năng lực AI được phân phối rộng rãi và rằng các tác nhân cơ sở hạ tầng có các công cụ để nhanh chóng áp dụng các năng lực AI mới theo một số cách được mô tả trong bài viết này.
Công nghệ quốc phòng nên phản ánh triết lý "trang bị vũ khí cho cừu" hơn là triết lý "săn tất cả sói". Các cuộc thảo luận về giả thuyết thế giới mong manh thường cho rằng giải pháp duy nhất là một cường quốc bá quyền duy trì giám sát toàn cầu để ngăn chặn bất kỳ mối đe dọa tiềm tàng nào xuất hiện. Nhưng trong một thế giới phi bá quyền, đây không phải là một cách tiếp cận khả thi, và các cơ chế phòng thủ từ trên xuống có thể dễ dàng bị AI mạnh mẽ lật đổ và biến thành các công cụ tấn công. Do đó, cần đạt được trách nhiệm phòng thủ lớn hơn thông qua nỗ lực giảm thiểu sự mong manh của thế giới.
Những lập luận trên chỉ mang tính suy đoán, và không nên hành động dựa trên giả định rằng chúng gần như chắc chắn. Nhưng câu chuyện về AI 2027 cũng mang tính suy đoán, và chúng ta nên tránh hành động dựa trên giả định rằng "các chi tiết cụ thể của nó gần như chắc chắn".
Tôi đặc biệt lo ngại về một giả định phổ biến: rằng việc thiết lập quyền bá chủ AI, đảm bảo nó "liên minh" và "chiến thắng trong cuộc cạnh tranh" là con đường duy nhất để tiến về phía trước. Theo quan điểm của tôi, chiến lược này có thể làm suy yếu an ninh của chúng ta - đặc biệt nếu bá quyền gắn chặt với các ứng dụng quân sự, điều này sẽ làm giảm đáng kể hiệu quả của nhiều chiến lược liên minh. Một khi AI bá quyền lệch lạc, nhân loại sẽ mất hết mọi phương tiện kiểm soát và cân bằng.
Trong kịch bản AI 2027, thành công của nhân loại phụ thuộc vào việc Hoa Kỳ lựa chọn an toàn thay vì hủy diệt vào thời điểm quan trọng - tự nguyện làm chậm tiến trình phát triển của AI và đảm bảo rằng các quá trình suy nghĩ bên trong của Đặc vụ 5 có thể được con người diễn giải. Tuy nhiên, thành công vẫn chưa chắc chắn, và vẫn chưa rõ nhân loại sẽ thoát khỏi bờ vực sinh tồn phụ thuộc vào một bộ não siêu thông minh duy nhất như thế nào. Bất kể AI phát triển như thế nào trong 5-10 năm tới, điều đáng ghi nhận là "giảm thiểu tính dễ bị tổn thương của thế giới là khả thi" và đầu tư nhiều năng lượng hơn để đạt được mục tiêu này với công nghệ mới nhất của nhân loại.
Xin chân thành cảm ơn các tình nguyện viên của Balvi vì phản hồi và đánh giá của họ.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Các cặp giao dịch ký quỹ spot mới — LA/USDT
AINUSDT hiện đã mở giao dịch futures và bot giao dịch
Bitget phát hành Báo cáo Định giá Quỹ Bảo Vệ tháng 06/2025
TANSSIUSDT hiện đã mở giao dịch futures và bot giao dịch
Thịnh hành
ThêmGiá tiền điện tử
Thêm








