Doom vs Boom: Cuộc chiến bảo vệ tương lai của AI theo luật California

Jun 24 2024
Đây là tất cả những gì bạn cần biết về dự luật AI mới của California và cuộc chiến nhằm tăng tốc hoặc làm chậm AI đang tràn vào chính trị.

Một dự luật của California nhằm cố gắng điều chỉnh các mô hình AI biên giới lớn đang tạo ra sự bế tắc nghiêm trọng về tương lai của AI. Trong nhiều năm, AI đã được chia thành “tăng tốc” và “giảm tốc” . Người tăng tốc muốn AI phát triển nhanh chóng - di chuyển nhanh và phá vỡ mọi thứ - trong khi người giảm tốc muốn AI phát triển chậm lại vì lợi ích của nhân loại. Cuộc chiến trở thành tâm điểm chú ý của cả nước khi hội đồng quản trị của OpenAI sa thải Sam Altman trong thời gian ngắn , nhiều người trong số họ đã tách khỏi công ty khởi nghiệp vì lý do an toàn AI. Bây giờ một dự luật của California đang biến cuộc chiến này thành chính trị.

cách đọc được đề nghị

AI tuần này: Thảm họa TOS lớn của Zoom
Mọi người sẽ phải lòng chiếc GPT-4 Omni quyến rũ
OpenAI cho biết Sora sẽ ra mắt vào năm 2024 và video khỏa thân không có gì đáng bàn

cách đọc được đề nghị

AI tuần này: Thảm họa TOS lớn của Zoom
Mọi người sẽ phải lòng chiếc GPT-4 Omni quyến rũ
OpenAI cho biết Sora sẽ ra mắt vào năm 2024 và video khỏa thân không có gì đáng bàn
Bạn gái AI không phải ai cũng xấu | AI đã được mở khóa
Chia sẻ
phụ đề
  • Tắt
  • Tiếng Anh
Chia sẻ video này
Facebook Twitter Email
Liên kết Reddit
Bạn gái AI không phải ai cũng xấu | AI đã được mở khóa

SB 1047 là gì?

SB 1047 là dự luật của tiểu bang California nhằm yêu cầu các nhà cung cấp mô hình AI lớn – như Meta, OpenAI, Anthropic và Mistral – phải chịu trách nhiệm về những nguy cơ thảm khốc tiềm tàng của hệ thống AI của họ. Dự luật do Thượng nghị sĩ bang Scott Wiener soạn thảo, đã được Thượng viện California thông qua vào tháng 5 và đã vượt qua một trở ngại lớn khác để trở thành luật trong tuần này.

Nội dung liên quan

Có vẻ như các chính phủ muốn để hoạt động giám sát AI hoạt động tự do
Google, Microsoft cung cấp 10 triệu USD để bảo vệ thế giới khỏi AI

Nội dung liên quan

Có vẻ như các chính phủ muốn để hoạt động giám sát AI hoạt động tự do
Google, Microsoft cung cấp 10 triệu USD để bảo vệ thế giới khỏi AI

Tại sao tôi nên quan tâm?

Chà, nó có thể trở thành quy định thực sự về AI đầu tiên ở Hoa Kỳ với bất kỳ chiếc răng nào, và nó đang diễn ra ở California, nơi có tất cả các công ty AI lớn.

Wiener mô tả dự luật này đặt ra “các tiêu chuẩn an toàn thông thường, rõ ràng, có thể dự đoán được cho các nhà phát triển hệ thống AI lớn nhất và mạnh mẽ nhất”. Tuy nhiên, không phải ai cũng nhìn thấy nó theo cách đó. Nhiều người ở Thung lũng Silicon đang gióng lên hồi chuông cảnh báo rằng luật này sẽ giết chết kỷ nguyên AI trước khi nó bắt đầu.

SB 1047 thực sự làm gì?

SB 1047 yêu cầu các nhà cung cấp mô hình AI phải chịu trách nhiệm về bất kỳ “tác hại thảm khốc” nào, mặc dù vẫn chưa rõ đó là gì. Tuy nhiên, điều đó rất quan trọng vì Thung lũng Silicon trong lịch sử thường trốn tránh hầu hết trách nhiệm về những tác hại của nó. Dự luật trao quyền cho Bộ trưởng Tư pháp California thực hiện hành động pháp lý chống lại các công ty này nếu một trong những mô hình AI của họ gây tổn hại nghiêm trọng cho người dân California.

SB 1047 cũng bao gồm điều khoản “tắt máy”, yêu cầu các công ty AI tạo ra một công tắc tắt cho mô hình AI trong trường hợp khẩn cấp.

Dự luật cũng thành lập “Bộ phận Mô hình Biên giới” trong Bộ Công nghệ của California. Nhóm đó sẽ quản lý các nhà cung cấp mô hình AI hàng đầu này và thực thi các tiêu chuẩn an toàn mà mỗi công ty sẽ phải tuân thủ. Nếu các doanh nghiệp không tuân thủ Ban, họ có thể bị kiện và phải đối mặt với các hình phạt dân sự.

Ai ủng hộ dự luật này?

Ngoài Thượng nghị sĩ Wiener, hai nhà nghiên cứu AI nổi tiếng đôi khi được gọi là “Bố già của AI”, Geoffrey Hinton và Yoshua Bengio, cũng ghi tên mình vào dự luật này. Hai người này đã rất nổi bật trong việc đưa ra những lời cảnh báo về sự nguy hiểm của AI.

Nhìn rộng hơn, dự luật này phù hợp với quan điểm giảm tốc, vốn tin rằng AI có khả năng kết liễu loài người tương đối cao và cần được quản lý như vậy. Hầu hết những người này là nhà nghiên cứu AI và không tích cực cố gắng thương mại hóa sản phẩm AI vì bạn biết đấy, họ nghĩ rằng nó có thể hủy diệt loài người.

Dự luật được tài trợ bởi Trung tâm An toàn AI, do Dan Hendrycks đứng đầu. Nhóm của ông đã xuất bản một bức thư ngỏ vào tháng 5 năm 2023 nói rằng nguy cơ tuyệt chủng loài người của AI cần được xem xét nghiêm túc như chiến tranh hạt nhân hoặc đại dịch. Nó được ký bởi Sam Altman, Bill Gates, Grimes và nhiều nhân vật công nghệ có ảnh hưởng. Họ là một nhóm có ảnh hưởng và là người đóng vai trò quan trọng trong việc thúc đẩy dự luật này.

Vào tháng 3 năm 2023, Decel đã kêu gọi “tạm dừng” tất cả hoạt động phát triển AI để triển khai cơ sở hạ tầng an toàn. Mặc dù nghe có vẻ cực đoan nhưng có rất nhiều người thông minh trong cộng đồng AI thực sự tin rằng AI có thể hủy diệt loài người. Ý tưởng của họ là nếu có bất kỳ khả năng nào về việc AI sẽ hủy diệt loài người, có lẽ chúng ta nên quản lý nó một cách nghiêm ngặt để đề phòng.

Điều đó có ý nghĩa. Vậy Ai Chống Lại SB 1047?

Nếu bạn sử dụng X, có cảm giác như mọi người ở Thung lũng Silicon đều chống lại SB 1047. Các nhà đầu tư mạo hiểm, nhà sáng lập công ty khởi nghiệp, nhà nghiên cứu AI và lãnh đạo cộng đồng AI nguồn mở ghét dự luật này. Nói chung, tôi sẽ phân loại những người này là accel, hoặc ít nhất, đó là nơi họ giải quyết vấn đề này. Nhiều người trong số họ làm việc trong lĩnh vực AI, nhưng một số cũng là nhà nghiên cứu.

Ý kiến ​​chung là SB 1047 có thể buộc các nhà cung cấp mô hình AI như Meta và Mistral thu nhỏ lại hoặc dừng hoàn toàn các nỗ lực nguồn mở của họ. Dự luật này buộc họ phải chịu trách nhiệm về những tác nhân xấu sử dụng mô hình AI của họ và các công ty này có thể không đảm nhận trách nhiệm đó do gặp khó khăn trong việc đưa ra các hạn chế đối với AI tổng hợp và tính chất mở của sản phẩm.

Anjney Midha, Đối tác chung của A16Z và Giám đốc Hội đồng quản trị Mistral, cho biết trong một cuộc phỏng vấn với Gizmodo: “Nó sẽ hoàn toàn tiêu diệt, đè bẹp và làm chậm hệ sinh thái khởi nghiệp nguồn mở”. “Dự luật này giống như việc cố gắng hạn chế tiến độ của máy in, thay vì tập trung vào vị trí cần đạt được, đó là công dụng của máy in.”

Ion Stoica, Giáo sư Khoa học Máy tính của Berkeley và chủ tịch điều hành của Databricks, cho biết: “Nguồn mở là hy vọng tốt nhất của chúng tôi để luôn dẫn đầu bằng cách tập hợp các thử nghiệm an toàn minh bạch cho các mô hình mới nổi, thay vì để một số công ty hùng mạnh kiểm soát AI một cách bí mật”. phỏng vấn.

Midha và Stoica không phải là những người duy nhất coi quy định về AI là sự tồn tại của ngành. AI nguồn mở đã hỗ trợ bối cảnh khởi nghiệp thịnh vượng nhất ở Thung lũng Silicon trong nhiều năm. Những người phản đối SB 1047 nói rằng dự luật sẽ mang lại lợi ích cho những công ty đương nhiệm đang đóng cửa của Big Tech thay vì hệ sinh thái mở, thịnh vượng đó.`

Jeremy Nixon, người sáng lập AGI House, nơi đóng vai trò là trung tâm cho các cuộc thi hackathon AI nguồn mở của Thung lũng Silicon, cho biết: “Tôi thực sự coi đây là một cách để hạn chế sự phát triển AI nguồn mở, như một phần của chiến lược rộng hơn nhằm làm chậm AI”. “Dự luật bắt nguồn từ một cộng đồng rất quan tâm đến việc tạm dừng AI nói chung.”

Điều này nghe có vẻ thực sự kỹ thuật. Các nhà lập pháp có thể có được tất cả điều này chặt chẽ?

Nó hoàn toàn mang tính kỹ thuật và điều đó đã tạo ra một số vấn đề. SB 1047 chỉ áp dụng cho các mẫu biên giới “lớn”, nhưng lớn là lớn như thế nào? Dự luật định nghĩa nó là các mô hình AI được đào tạo trên 10^26 FLOPS, một lượng sức mạnh tính toán cụ thể và rất lớn theo tiêu chuẩn ngày nay. Vấn đề là AI đang phát triển rất nhanh và các mô hình tiên tiến nhất từ ​​năm 2023 trông rất nhỏ bé so với tiêu chuẩn của năm 2024. Việc cắm cờ trên cát không có tác dụng tốt đối với một cánh đồng đang chuyển động nhanh như vậy.

Cũng không rõ liệu có thể ngăn chặn hoàn toàn các hệ thống AI hoạt động sai hay không. Sự thật là chúng ta không biết nhiều về cách thức hoạt động của LLM và các mô hình AI hàng đầu hiện nay từ OpenAI, Anthropic và Google luôn bị bẻ khóa. Đó là lý do tại sao một số nhà nghiên cứu cho rằng các cơ quan quản lý nên tập trung vào những kẻ xấu chứ không phải những nhà cung cấp mô hình.

Ravid Shwartz Ziv, Trợ lý Giáo sư nghiên cứu AI tại NYU cùng với Yann Lecunn, cho biết trong một cuộc phỏng vấn: “Với AI, bạn cần điều chỉnh trường hợp sử dụng, hành động chứ không phải bản thân các mô hình. “Các nhà nghiên cứu giỏi nhất trên thế giới có thể dành vô số thời gian cho một mô hình AI và mọi người vẫn có thể bẻ khóa nó.”

Một phần kỹ thuật khác của dự luật này liên quan đến các mô hình AI nguồn mở. Nếu một công ty khởi nghiệp sử dụng Llama 3 của Meta, một trong những mô hình AI nguồn mở phổ biến nhất và tinh chỉnh nó thành một thứ gì đó hoàn toàn khác, liệu Meta có còn chịu trách nhiệm về mô hình AI đó không? Theo dự luật này, có vẻ như Meta chắc chắn có thể phải chịu trách nhiệm, nhưng những người phản đối dự luật cho rằng đây là cách tiếp cận không công bằng và không đúng đắn.

Câu hỏi nhanh: AI có thực sự tự do ngôn luận không?

Không rõ. Nhiều người trong cộng đồng AI coi AI nguồn mở là một dạng tự do ngôn luận (đó là lý do tại sao Midha gọi nó là báo in). Tiền đề là mã bên dưới mô hình AI là một dạng biểu thức và đầu ra của mô hình cũng là biểu thức. Trong lịch sử, mã đã nằm trong Bản sửa đổi thứ nhất trong một số trường hợp.

Ba giáo sư luật đã lập luận trong một bài báo của Lawfare rằng các mô hình AI không hẳn là tự do ngôn luận. Đầu tiên, họ nói rằng các trọng số tạo nên mô hình AI không phải do con người viết ra mà được tạo ra thông qua các hoạt động học máy rộng lớn. Con người thậm chí hầu như không thể đọc được chúng.

Đối với kết quả đầu ra của các mô hình AI biên giới, các hệ thống này hơi khác một chút so với các thuật toán truyền thông xã hội, vốn được coi là nằm trong Bản sửa đổi thứ nhất trong quá khứ. Các mô hình AI không đưa ra quan điểm chính xác, chúng nói lên rất nhiều điều. Vì lý do đó, các giáo sư luật này cho biết SB 1047 có thể không ảnh hưởng đến Tu chính án thứ nhất.

Vì vậy, tiếp theo là gì?

Dự luật đang chạy đua tới một cuộc bỏ phiếu nhanh chóng vào tháng 8 để gửi dự luật đến bàn làm việc của Thống đốc Gavin Newsom. Cần phải giải quyết thêm một số trở ngại quan trọng nữa để đạt được điều đó, và thậm chí sau đó, Newsom có ​​thể không ký thỏa thuận do áp lực từ Thung lũng Silicon. Một tập đoàn thương mại công nghệ lớn vừa gửi cho Newsom một lá thư yêu cầu ông không ký SB 1047.

Tuy nhiên, Newsom có ​​thể muốn tạo tiền lệ cho quốc gia về AI. Nếu SB 1047 có hiệu lực, nó có thể thay đổi hoàn toàn cục diện AI ở Mỹ.