สงครามความคิด: AI เพื่อช่วยเหลือมนุษย์หรือเป็นภัยคุกคาม?
การอภิปรายเรื่องปัญญาประดิษฐ์: จะช่วยหรือทำลายมนุษยชาติ?
การอภิปรายออนไลน์ที่จัดโดยองค์กรไม่แสวงหาผลกำไร Humanity+ ได้แสดงให้เห็นถึงความขัดแย้งลึกซึ้งระหว่างผู้เชี่ยวชาญเทคโนโลยีและทรานส์ฮิวแมนิสต์เกี่ยวกับการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) ว่าจะช่วยมนุษยชาติหรืออาจเป็นภัยต่อการอยู่รอดหรือไม่ ในงานนี้มีผู้ร่วมอภิปรายเช่น Eliezer Yudkowsky ซึ่งเป็นหนึ่งในกลุ่มที่มีความกังวลกับ AI มากที่สุด เขาได้ให้การเห็นว่าควรหยุดการพัฒนา AI ขั้นสูงไปก่อน
Yudkowsky เตือนเกี่ยวกับความไม่ปลอดภัยของระบบ AI ปัจจุบันที่เป็น “กล่องดำ” ซึ่งกระบวนการตัดสินใจภายในไม่สามารถเข้าใจหรือควบคุมได้ เขากล่าวว่า "Anything black box is probably going to end up with remarkably similar problems to the current technology" และต่อมาเขาแสดงความเห็นว่ามนุษยชาติจึงต้องออกห่างจากรูปแบบปัจจุบันของ AI
ในอีกด้านหนึ่ง Max More ได้กล่าวว่าการชะลอ AGI อาจจะทำให้มนุษยพลาดโอกาสในการต่อสู้กับความชราและป้องกันมหันตภัยระยะยาว “Most importantly to me, is AGI could help us to prevent the extinction of every person who’s living due to aging” More กล่าวไว้ ทั้งนี้ เขาเตือนว่าการระมัดระวังมากเกินไปอาจทำให้รัฐบาลนำไปสู่การควบคุมอย่างเข้มข้นเพื่อหยุดการพัฒนา AI ทั่วโลก
Anders Sandberg ชี้ให้เห็นว่า AI อาจสามารถสร้างความปลอดภัยบางส่วนที่เพียงพอได้ ในขณะที่ Natasha Vita‑More ได้วิจารณ์แนวคิดเรื่องความสอดคล้องของ AI กล่าวว่าเป็นการคิดแบบสมบูรณ์ที่ขัดแย้ง “The alignment notion is a Pollyanna scheme”
ความขัดแย้งนี้ยังรวมถึงการอภิปรายว่าการรวมตัวระหว่างมนุษย์และเครื่องจักรอาจช่วยลดความเสี่ยงจาก AGI ได้หรือไม่ ความคิดนี้ได้รับการเสนอโดย Elon Musk ในอดีต แม้ว่า Yudkowsky จะปฏิเสธความคิดนี้ว่าเป็นการ "trying to merge with your toaster oven"
Source: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end
Tags: #AvareumNews #AI #AGI #Transhumanism #Futurism
This newsletter is produced with assistance from OpenAI's ChatGPT-4o. All analyses are reviewed and verified by our research team.