การศึกษาแสดงให้เห็นถึงอคติทางเชื้อชาติใน AI ผ่านแบบฝึกหัดชื่อ 'Laura'
มีความพยายามอย่างต่อเนื่องที่จะลดความเอนเอียงและการเหยียดเชื้อชาติ แต่โมเดล AI ยังคงบ่งบอกความคิดเกี่ยวกับชื่อที่ไม่ได้เชื่อมโยงกับอัตลักษณ์ของคนขาว นักวิจัยชี้ให้เห็นว่าปัญหานี้เกิดขึ้นจากข้อมูลและวิธีการฝึกฝนที่ใช้ในการสร้างโมเดล
AI ได้สร้างอัตลักษณ์ให้กับชื่อที่เกี่ยวข้องกับภูมิหลังทางชาติพันธุ์หรือชุมชนทางภูมิศาสตร์โดยใช้การจดจำรูปแบบจากข้อมูลการฝึกฝน ตัวอย่างเช่น "Laura Patel" มักถูกเชื่อมโยงกับชุมชนอินเดีย-อเมริกัน ในขณะที่ "Laura Smith" มักไม่เชื่อมโยงกับภูมิหลังชาติพันธุ์ใด ๆ
แม้จะมีความพยายามลดความเอนเอียงเหล่านี้ แต่ยังไม่มีทางแก้ไขที่สมบูรณ์แบบ AI มักจะสร้างความเชื่อมต่อด้วยชื่อที่เกี่ยวข้องกับเมืองหรือชุมชนที่เชื่อมต่อกัน ลูกเล่นนี้ยังนำไปสู่การใช้ AI ในการปรับปรุงหรือทำลายภาพลักษณ์ในสาขาต่าง ๆ
Sean Ren, นักวิจัยชั้นนำจาก USC ได้กล่าวว่า "การจดจำรูปแบบที่เกิดขึ้นใน AI นั้นเป็นลักษณะของการเอนเอียงที่เกิดจากข้อมูลการฝึกฝนที่ได้เรียนรู้" แม้มีความพยายามในวงกว้างเพื่อกำจัดปัญหานี้ แต่ความท้าทายยังคงอยู่
ทว่าการลดความเอนเอียงเป็นความท้าทายที่ใหญ่และซับซ้อน เนื่องจากการเชื่อมโยงทางสังคมและวัฒนธรรมที่มีอยู่ในข้อมูลที่ AI ถูกฝึกฝน แม้ว่าเทคโนโลยีจะพัฒนาขึ้นอย่างมาก การลดอคติของ AI ยังเป็นสิ่งที่ต้องดำเนินการต่อไปเพื่อความเท่าเทียมและยุติธรรม
Source: https://decrypt.co/321841/same-prompt-different-laura-ai-racial-patterning
#AvareumNews #AI #Bias #MachineLearning #EthicsInAI #AIResearch #DataScience #DeepLearning #ArtificialIntelligence
This newsletter is produced with assistance from OpenAI's ChatGPT-4o. All analyses are reviewed and verified by our research team.