โอบรับสิ่งที่ไม่รู้จัก: ความสำคัญของการสำรวจด้วย AI แม้จะมีความเสี่ยงก็ตาม

เมื่อเร็ว ๆ นี้ การอภิปรายเกี่ยวกับปัญญาประดิษฐ์ (AI) และผลกระทบต่อสังคมได้รับแรงผลักดันที่สำคัญ โดยเฉพาะอย่างยิ่ง Elon Musk ผู้ประกอบการได้แสดงความระมัดระวังโดยระบุในการให้สัมภาษณ์ว่า AI มีศักยภาพในการ "ทำลายล้างอารยธรรม" สิ่งนี้ทำให้บางคนโต้แย้งว่าควรหยุดการพัฒนา AI ต่อไปจนกว่าเราจะเข้าใจกลไกของมันอย่างถ่องแท้
เหตุการณ์หนึ่งที่กระตุ้นความหวาดกลัวนี้เกิดขึ้นที่ Google เมื่อระบบ AI แสดงความคล่องแคล่วในภาษาที่ไม่ได้เรียนรู้ ซึ่งแสดงให้เห็นถึงธรรมชาติอันน่าฉงนของกระบวนการเรียนรู้ของ AI ซึ่งมักเรียกกันว่า "กล่องดำ" แม้ว่าเหตุการณ์ดังกล่าวอาจกระตุ้นให้บางคนหยุดการพัฒนา AI แต่สิ่งสำคัญคือต้องตระหนักถึงความสำคัญของการสำรวจอย่างต่อเนื่องแม้ว่าจะไม่ทราบก็ตาม
การโต้เถียงเพื่อหยุดการวิจัย AI เนื่องจากการขาดความเข้าใจนั้นคล้ายกับการหยุดการสำรวจอวกาศเนื่องจากความเข้าใจที่จำกัดของเราเกี่ยวกับจักรวาล จิตใจของมนุษย์ยังคงเป็นปริศนา แต่มนุษยชาติก็ยังไม่หยุดที่จะก้าวหน้าหรือสำรวจสิ่งที่ไม่รู้จัก
การเปรียบเทียบที่เหมาะสมสามารถใช้กับคีตามีนเป็นยากล่อมประสาทอย่างรวดเร็ว แม้ว่ากลไกการออกฤทธิ์ที่แม่นยำยังคงไม่แน่นอน แต่ก็มีการใช้อย่างประสบความสำเร็จในทางการแพทย์ [3] สิ่งสำคัญคือต้องยอมรับความเสี่ยงและความไม่แน่นอนที่เกี่ยวข้องกับนวัตกรรมใด ๆ แต่การหยุดการสำรวจเนื่องจากความกลัวในสิ่งที่ไม่รู้จักจะขัดขวางความก้าวหน้าทางสังคม
ดังที่ Niccolo Machiavelli เคยกล่าวไว้ว่า “ไม่เคยมีสิ่งใดประสบความสำเร็จโดยปราศจากอันตราย” ด้วยการยอมรับสิ่งที่ไม่รู้จักและสำรวจศักยภาพของ AI อย่างต่อเนื่อง เราสามารถเข้าใจความสามารถและข้อจำกัดของมันได้ดีขึ้น ส่งเสริมแนวทางที่มีข้อมูลและมีความรับผิดชอบมากขึ้นในการพัฒนาและนำไปใช้
อ้างอิง:
Clare Duffy และ Ramishah Maruf, (2023) Elon Musk เตือน AI อาจทำให้เกิด 'การทำลายอารยธรรม' แม้ว่าเขาจะลงทุนกับมันก็ตาม ธุรกิจของ CNN [บทความ]
สามารถดูได้ที่:https://edition.cnn.com/2023/04/17/tech/elon-musk-ai-warning-tucker-carlson/index.html#:~:text=%E2%80%9CAI%20is%20more%20dangerous%20than,in%20his%20interview%20with%20Tucker
(เข้าถึงเมื่อ 07 พ.ค. 2566)
Sundar Pichai, Scot Pelley, James Manyika (2023) , ปัญญาประดิษฐ์ก้าวหน้าเร็วเกินไปหรือไม่? สิ่งที่ผู้นำด้าน AI ของ Google พูด — 60 MINUTES NEWSMAKERS [บทสัมภาษณ์]
สามารถดูได้ที่:https://www.cbsnews.com/news/google-artificial-intelligence-future-60-minutes-transcript-2023-04-16/
(เข้าถึงเมื่อ 07 พ.ค. 2566)
Zanos, P. และ Gould, TD (2018) กลไกการออกฤทธิ์ของคีตามีนในฐานะยากล่อมประสาท จิตเวชศาสตร์ระดับโมเลกุล 23(4), 801–811.https://doi.org/10.1038/mp.2017.255
(เข้าถึงเมื่อ 07 พ.ค. 2566)