Doom vs Boom: การต่อสู้เพื่อประดิษฐานอนาคตของ AI ไว้ในกฎหมายแคลิฟอร์เนีย

Jun 24 2024
นี่คือทุกสิ่งที่คุณจำเป็นต้องรู้เกี่ยวกับร่างกฎหมาย AI ฉบับใหม่ของแคลิฟอร์เนีย และการต่อสู้เพื่อเร่งความเร็วหรือชะลอการทำงานของ AI ที่แพร่กระจายเข้าสู่การเมือง

ร่างกฎหมายของรัฐแคลิฟอร์เนียที่พยายามควบคุมโมเดล AI ชายแดนขนาดใหญ่กำลังสร้างความขัดแย้งอย่างมากต่ออนาคตของ AI หลายปีที่ผ่านมา AI ถูกแบ่งออกเป็น“accel” และ “decel ” กลุ่ม Accels ต้องการให้ AI ก้าวหน้าอย่างรวดเร็ว – เคลื่อนที่อย่างรวดเร็วและทำลายสิ่งต่าง ๆ – ในขณะที่กลุ่ม Deces ต้องการให้การพัฒนา AI ช้าลงเพื่อประโยชน์ของมนุษยชาติ การต่อสู้กลายเป็นจุดสนใจระดับชาติ เมื่อคณะกรรมการของ OpenAI ขับไล่ Sam Altman ออกไปในช่วงสั้นๆ ซึ่ง หลายคนแยกตัวออกจากสตาร์ทอัพ ในนามของความปลอดภัยของ AI ขณะนี้ร่างกฎหมายของรัฐแคลิฟอร์เนียกำลังทำให้การต่อสู้ครั้งนี้เป็นเรื่องการเมือง

แนะนำให้อ่าน

AI ในสัปดาห์นี้: ภัยพิบัติ TOS ครั้งใหญ่ของ Zoom
ผู้คนจะต้องหลงรัก Flirty GPT-4 Omni
OpenAI กล่าวว่า Sora จะเปิดตัวในปี 2024 และวิดีโอเปลือยจะไม่อยู่นอกโต๊ะ

แนะนำให้อ่าน

AI ในสัปดาห์นี้: ภัยพิบัติ TOS ครั้งใหญ่ของ Zoom
ผู้คนจะต้องหลงรัก Flirty GPT-4 Omni
OpenAI กล่าวว่า Sora จะเปิดตัวในปี 2024 และวิดีโอเปลือยจะไม่อยู่นอกโต๊ะ
แฟน AI ไม่ได้แย่ไปซะหมด | ปลดล็อค AI แล้ว
แบ่งปัน
คำบรรยาย
  • ปิด
  • ภาษาอังกฤษ
แบ่งปันวิดีโอนี้
เฟซบุ๊กทวิตเตอร์อีเมล์
ลิงค์เรดดิท
แฟน AI ไม่ได้แย่ไปซะหมด | ปลดล็อค AI แล้ว

เอสบี 1047 คืออะไร?

SB 1047เป็นร่างกฎหมายของรัฐแคลิฟอร์เนียที่จะกำหนดให้ผู้ให้บริการโมเดล AI รายใหญ่ เช่น Meta, OpenAI, Anthropic และ Mistral ต้องรับผิดชอบต่ออันตรายที่อาจเกิดขึ้นจากระบบ AI ของตน ร่างกฎหมายดังกล่าวเขียนโดยสก็อตต์ วีเนอร์ วุฒิสมาชิกแห่งรัฐ ผ่านการผ่านวุฒิสภาของรัฐแคลิฟอร์เนียเมื่อเดือนพฤษภาคม และช่วยขจัดอุปสรรคสำคัญอีกประการหนึ่งในการบังคับใช้กฎหมายในสัปดาห์นี้

เนื้อหาที่เกี่ยวข้อง

ดูเหมือนว่ารัฐบาลต้องการให้การเฝ้าระวัง AI ทำงานอย่างดุเดือด
Google และ Microsoft เสนอเงิน 10 ล้านเหรียญสหรัฐเพื่อปกป้องโลกจาก AI

เนื้อหาที่เกี่ยวข้อง

ดูเหมือนว่ารัฐบาลต้องการให้การเฝ้าระวัง AI ทำงานอย่างดุเดือด
Google และ Microsoft เสนอเงิน 10 ล้านเหรียญสหรัฐเพื่อปกป้องโลกจาก AI

ทำไมฉันต้องสนใจ?

มันอาจจะกลายเป็นกฎข้อบังคับด้าน AI ที่แท้จริงฉบับแรกในสหรัฐอเมริกาที่มีฟันเฟืองก็ได้ และมันกำลังเกิดขึ้นในแคลิฟอร์เนีย ที่ซึ่งบริษัท AI รายใหญ่ทั้งหมดตั้งอยู่

Wiener อธิบายว่าการเรียกเก็บเงินดังกล่าวเป็นการกำหนด "มาตรฐานความปลอดภัยที่ชัดเจน คาดเดาได้ และสามัญสำนึกสำหรับนักพัฒนาระบบ AI ที่ใหญ่ที่สุดและทรงพลังที่สุด" ไม่ใช่ทุกคนที่เห็นมันแบบนั้น หลายคนใน Silicon Valley กำลังส่งสัญญาณเตือนภัยว่ากฎหมายนี้จะทำลายยุค AI ก่อนที่จะเริ่มต้น

SB 1047 ทำอะไรได้จริง?

SB 1047 ทำให้ผู้ให้บริการโมเดล AI ต้องรับผิดชอบต่อ "ความเสียหายร้ายแรง" แม้ว่าจะยังไม่ชัดเจนว่าสิ่งเหล่านั้นคืออะไร อย่างไรก็ตาม นั่นถือเป็นเรื่องใหญ่ เนื่องจากในอดีต Silicon Valley หลบเลี่ยงความรับผิดชอบส่วนใหญ่ต่อความเสียหายที่เกิดขึ้น ร่างกฎหมายดังกล่าวให้อำนาจอัยการสูงสุดของรัฐแคลิฟอร์เนียในการดำเนินคดีทางกฎหมายกับบริษัทเหล่านี้ หากหนึ่งในโมเดล AI ของพวกเขาก่อให้เกิดอันตรายร้ายแรงต่อชาวแคลิฟอร์เนีย

SB 1047 ยังมีข้อกำหนด "การปิดระบบ" ซึ่งกำหนดให้บริษัท AI ต้องสร้าง Kill Switch สำหรับโมเดล AI ในกรณีฉุกเฉินอย่างมีประสิทธิภาพ

ร่างกฎหมายดังกล่าวยังสร้าง "แผนกโมเดลชายแดน" ภายในแผนกเทคโนโลยีของรัฐแคลิฟอร์เนียด้วย กลุ่มนั้นจะควบคุมผู้ให้บริการโมเดล AI ระดับแนวหน้าเหล่านี้ และบังคับใช้มาตรฐานความปลอดภัยที่แต่ละบริษัทจะต้องปฏิบัติตาม หากธุรกิจไม่ปฏิบัติตามแผนก พวกเขาอาจถูกฟ้องร้องและถูกลงโทษทางแพ่ง

ใครสนับสนุนร่างกฎหมายนี้?

นอกจากวุฒิสมาชิก Wiener แล้ว นักวิจัยด้าน AI ที่มีชื่อเสียงสองคนซึ่งบางครั้งเรียกว่า “เจ้าพ่อแห่ง AI” Geoffrey Hinton และ Yoshua Bengio ได้ใส่ชื่อของพวกเขาในร่างกฎหมายนี้ ทั้งสองคนนี้มีความโดดเด่นอย่างมากในการออกคำเตือนเกี่ยวกับอันตรายของ AI

ร่างกฎหมายนี้สอดคล้องกับมุมมองของ Decel ซึ่งเชื่อว่า AI มีความเป็นไปได้ค่อนข้างสูงที่จะยุติมนุษยชาติ และควรได้รับการควบคุมเช่นนี้ คนเหล่านี้ส่วนใหญ่เป็นนักวิจัยด้าน AI และไม่ได้พยายามขายสินค้า AI อย่างจริงจัง เนื่องจากพวกเขาคิดว่ามันอาจจะยุติมนุษยชาติ

ร่างกฎหมายนี้ได้รับการสนับสนุนจากศูนย์ความปลอดภัย AI ซึ่งนำโดย Dan Hendrycks กลุ่มของเขาตีพิมพ์จดหมายเปิดผนึกเมื่อเดือนพฤษภาคม พ.ศ. 2566โดยระบุว่าความเสี่ยงของ AI ต่อการสูญพันธุ์ของมนุษย์ควรได้รับการพิจารณาอย่างจริงจังพอๆ กับสงครามนิวเคลียร์หรือโรคระบาด ลงนามโดย Sam Altman, Bill Gates, Grimes และผู้ทรงอิทธิพลด้านเทคโนโลยีอีกมากมาย พวกเขาเป็นกลุ่มที่มีอิทธิพลและเป็นผู้เล่นหลักในการส่งเสริมร่างกฎหมายนี้

ในเดือนมีนาคม 2023 Decels เรียกร้องให้"หยุด" การพัฒนา AI ทั้งหมด เพื่อใช้โครงสร้างพื้นฐานด้านความปลอดภัย แม้ว่าจะฟังดูสุดโต่ง แต่ก็มีคนฉลาดจำนวนมากในชุมชน AI ที่เชื่ออย่างแท้จริงว่า AI สามารถยุติมนุษยชาติได้ แนวคิดของพวกเขาคือหากมีความเป็นไปได้ที่ AI จะยุติมนุษยชาติ เราควรควบคุมมันอย่างเคร่งครัด เผื่อไว้

นั่นสมเหตุสมผลแล้ว แล้วใครล่ะที่ต่อต้าน SB 1047?

หากคุณอยู่ใน X รู้สึกเหมือนว่าทุกคนใน Silicon Valley ต่อต้าน SB 1047 ผู้ร่วมทุน ผู้ก่อตั้งสตาร์ทอัพ นักวิจัย AI และผู้นำของชุมชน AI แบบโอเพ่นซอร์สเกลียดร่างกฎหมายนี้ โดยทั่วไปฉันจะจัดหมวดหมู่คนเหล่านี้เป็นกลุ่มช่วยเหลือหรืออย่างน้อยนั่นคือจุดที่พวกเขาพูดถึงปัญหานี้ หลายคนอยู่ในธุรกิจของ AI แต่บางคนก็เป็นนักวิจัยด้วยเช่นกัน

ความรู้สึกโดยทั่วไปคือ SB 1047 สามารถบังคับให้ผู้ให้บริการโมเดล AI เช่น Meta และ Mistral ลดขนาดหรือหยุดความพยายามของโอเพ่นซอร์สโดยสิ้นเชิง ร่างกฎหมายนี้กำหนดให้พวกเขารับผิดชอบต่อนักแสดงที่ไม่ดีที่ใช้โมเดล AI ของตน และบริษัทเหล่านี้อาจไม่รับผิดชอบดังกล่าว เนื่องจากความยากลำบากในการจำกัดข้อจำกัดเกี่ยวกับ generative AI และลักษณะที่เปิดกว้างของผลิตภัณฑ์

Anjney Midha หุ้นส่วนทั่วไปของ A16Z และผู้อำนวยการคณะกรรมการ Mistral กล่าวในการให้สัมภาษณ์กับ Gizmodo ว่า "มันจะฆ่า บดขยี้ และชะลอระบบนิเวศสตาร์ทอัพโอเพ่นซอร์สอย่างสมบูรณ์" “ร่างกฎหมายนี้คล้ายกับการพยายามจำกัดความคืบหน้าของแท่นพิมพ์ ซึ่งตรงข้ามกับการมุ่งเน้นไปที่ตำแหน่งที่ควรจะเป็น ซึ่งเป็นการใช้แท่นพิมพ์”

“โอเพ่นซอร์สเป็นความหวังที่ดีที่สุดของเราที่จะก้าวนำหน้าด้วยการรวบรวมการทดสอบความปลอดภัยที่โปร่งใสสำหรับโมเดลเกิดใหม่ แทนที่จะปล่อยให้บริษัทที่ทรงพลังเพียงไม่กี่แห่งควบคุม AI อย่างเป็นความลับ” Ion Stoica ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ของ Berkeley และประธานกรรมการบริหารของ Databricks กล่าวใน สัมภาษณ์.

Midha และ Stoica ไม่ใช่คนเดียวที่มองว่ากฎระเบียบด้าน AI มีอยู่จริงสำหรับอุตสาหกรรม AI แบบโอเพ่นซอร์สได้ขับเคลื่อนฉากสตาร์ทอัพใน Silicon Valley ที่เจริญรุ่งเรืองที่สุดในรอบหลายปี ฝ่ายตรงข้ามของ SB 1047 กล่าวว่าร่างกฎหมายดังกล่าวจะเป็นประโยชน์ต่อผู้ครอบครองตลาดที่ปิดกิจการของ Big Tech แทนที่จะเป็นระบบนิเวศแบบเปิดที่เจริญรุ่งเรือง

“ฉันเห็นว่านี่เป็นหนทางหนึ่งที่จะขัดขวางการพัฒนา AI แบบโอเพ่นซอร์สแบบคอขวด ซึ่งเป็นส่วนหนึ่งของกลยุทธ์ที่กว้างขึ้นในการชะลอการทำงานของ AI” Jeremy Nixon ผู้สร้าง AGI House ซึ่งทำหน้าที่เป็นศูนย์กลางสำหรับแฮ็กกาธอน AI แบบโอเพ่นซอร์สของ Silicon Valley กล่าว “ร่างกฎหมายดังกล่าวเกิดจากชุมชนที่สนใจอย่างมากในการหยุด AI โดยทั่วไป”

ฟังดูเป็นเทคนิคจริงๆ ฝ่ายนิติบัญญัติสามารถรับเรื่องทั้งหมดนี้ได้หรือไม่?

มันเป็นเรื่องทางเทคนิคอย่างแน่นอน และนั่นทำให้เกิดปัญหาบางอย่าง SB 1047 ใช้กับรุ่นชายแดน "ใหญ่" เท่านั้น แต่จะใหญ่แค่ไหน? ร่างกฎหมายดังกล่าวให้คำจำกัดความว่าเป็นโมเดล AI ที่ได้รับการฝึกบน 10^26 FLOPS ซึ่งเป็นพลังการประมวลผลจำนวนเฉพาะและมีจำนวนมากตามมาตรฐานปัจจุบัน ปัญหาคือ AI เติบโตอย่างรวดเร็ว และโมเดลที่ล้ำสมัยในปี 2023 ดูเล็กเมื่อเทียบกับมาตรฐานของปี 2024 การปักธงบนพื้นทรายไม่เหมาะกับสนามที่เคลื่อนที่เร็วขนาดนี้

ยังไม่ชัดเจนว่าจะสามารถป้องกันระบบ AI ไม่ให้ทำงานผิดปกติได้อย่างเต็มที่หรือไม่ ความจริงก็คือ เราไม่รู้มากนักเกี่ยวกับวิธีการทำงานของ LLM และโมเดล AI ชั้นนำในปัจจุบันจาก OpenAI, Anthropic และ Google ก็ถูกเจลเบรคอยู่ตลอดเวลา นั่นเป็นสาเหตุที่นักวิจัยบางคนบอกว่าหน่วยงานกำกับดูแลควรมุ่งเน้นไปที่ผู้ไม่ประสงค์ดี ไม่ใช่ผู้ให้บริการต้นแบบ

“ด้วย AI คุณต้องควบคุมกรณีการใช้งาน การดำเนินการ ไม่ใช่ตัวแบบ” Ravid Shwartz Ziv ผู้ช่วยศาสตราจารย์ที่ศึกษา AI ที่ NYU ร่วมกับ Yann Lecunn กล่าวในการให้สัมภาษณ์ “นักวิจัยที่เก่งที่สุดในโลกสามารถใช้เวลาอย่างไม่มีที่สิ้นสุดกับโมเดล AI และผู้คนยังสามารถเจลเบรคมันได้”

ส่วนทางเทคนิคอีกประการหนึ่งของร่างกฎหมายนี้เกี่ยวข้องกับโมเดล AI แบบโอเพ่นซอร์ส หากสตาร์ทอัพใช้ Llama 3 ของ Meta ซึ่งเป็นหนึ่งในโมเดล AI แบบโอเพ่นซอร์สที่ได้รับความนิยมมากที่สุด และปรับแต่งให้แตกต่างไปจากเดิมอย่างสิ้นเชิง Meta จะยังคงรับผิดชอบโมเดล AI นั้นหรือไม่ ภายใต้ร่างกฎหมายนี้ ดูเหมือนว่า Meta จะต้องรับผิดชอบอย่างแน่นอน แต่ฝ่ายตรงข้ามของร่างกฎหมายนี้พบว่าสิ่งนี้ไม่ยุติธรรมและไม่ใช่แนวทางที่ถูกต้อง

คำถามด่วนๆ: AI มีอิสระในการพูดจริงหรือ?

ไม่ชัดเจน. หลายๆ คนในชุมชน AI มองว่า AI แบบโอเพ่นซอร์สเป็นเสมือนเสรีภาพในการพูด (นั่นคือสาเหตุที่ Midha เรียกสิ่งนี้ว่าแท่นพิมพ์) หลักฐานก็คือโค้ดที่เป็นรากฐานของโมเดล AI นั้นเป็นรูปแบบของการแสดงออก และผลลัพธ์ของแบบจำลองก็เป็นการแสดงออกด้วยเช่นกัน ในอดีตรหัสตกอยู่ภายใต้การแก้ไขครั้งแรกในหลายกรณี

อาจารย์กฎหมายสามคนโต้แย้งในบทความ Lawfareว่าโมเดล AI ไม่ใช่เสรีภาพในการพูดอย่างแท้จริง ประการแรก พวกเขากล่าวว่าน้ำหนักที่ประกอบขึ้นเป็นโมเดล AI ไม่ได้ถูกเขียนโดยมนุษย์ แต่สร้างขึ้นผ่านการดำเนินการเรียนรู้ของเครื่องจักรจำนวนมหาศาล มนุษย์แทบจะไม่สามารถอ่านมันได้เลย

สำหรับผลลัพธ์ของโมเดล AI ระดับแนวหน้า ระบบเหล่านี้แตกต่างเล็กน้อยจากอัลกอริธึมโซเชียลมีเดีย ซึ่งในอดีตถือว่าอยู่ภายใต้การแก้ไขครั้งแรก โมเดล AI ไม่ได้มีมุมมองที่แน่นอน แต่พูดได้หลายอย่าง ด้วยเหตุผลดังกล่าว อาจารย์กฎหมายเหล่านี้จึงกล่าวว่า SB 1047 อาจไม่กระทบต่อการแก้ไขครั้งแรก

แล้วอะไรต่อไป?

ร่างกฎหมายดังกล่าวกำลังเร่งไปสู่การลงคะแนนเสียงในเดือนสิงหาคมที่ใกล้เข้ามาอย่างรวดเร็ว ซึ่งจะส่งร่างกฎหมายดังกล่าวไปที่โต๊ะของผู้ว่าการรัฐกาวิน นิวซัม จะต้องเคลียร์อุปสรรคสำคัญอีกสองสามอย่างเพื่อไปให้ถึงจุดนั้น และถึงอย่างนั้น Newsom ก็อาจไม่ลงนามในสัญญาเนื่องจากแรงกดดันจาก Silicon Valley กลุ่มการค้าเทคโนโลยีรายใหญ่เพิ่งส่งจดหมายถึงนิวซัมโดยบอกเขาไม่ให้ลงนาม SB 1047

อย่างไรก็ตาม Newsom อาจต้องการสร้างแบบอย่างให้กับประเทศในด้าน AI หาก SB 1047 มีผลบังคับใช้ ก็อาจเปลี่ยนแปลงภูมิทัศน์ของ AI ในอเมริกาไปอย่างสิ้นเชิง