OpenAI สร้างผลิตภัณฑ์ Cybersecurity ขั้นสูง เข้าถึงได้เฉพาะองค์กรที่ไว้ใจได้
OpenAI กำลังเตรียมพัฒนาผลิตภัณฑ์ด้านความปลอดภัยทางไซเบอร์ขั้นสูง พร้อมการเข้าถึงแบบ 'Trusted Access' เท่านั้น บริษัทได้ร่วมงานกับ Anthropic ในการจำกัดการเข้าถึง AI ด้านความปลอดภัยที่ทรงพลัง โดยจะปล่อยให้แค่บางองค์กรที่ผ่านการคัดเลือกเท่านั้น ทั้ง OpenAI และ Anthropic ตัดสินใจว่าโมเดล AI ระดับสูงสุดนั้นมีความเสี่ยงเกินกว่าที่จะปล่อยให้เข้าถึงได้ทั่วไปในตลาด
ในรายงานจาก Axios OpenAI กำลังสร้างผลิตภัณฑ์ความปลอดภัยไซเบอร์ใหม่ที่มีแผนจะเปิดตัวผ่านโปรแกรม ‘Trusted Access for Cyber’ ซึ่งได้ประกาศครั้งแรกในเดือนกุมภาพันธ์ โปรแกรมนี้ถูกออกแบบมาเพื่อเป็นการจำหน่ายที่มีการควบคุมโดยให้ผลิตภัณฑ์บางอย่างอยู่ในมือของผู้ปฏิบัติงานด้านความปลอดภัยเท่านั้น นอกจากนั้น OpenAI ยังสนับสนุนการเข้าถึงโดยให้เครดิต API มูลค่า 10 ล้านดอลลาร์
ข่าวนี้เกิดขึ้นท่ามกลางความกังวลของผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ที่ว่า AI ที่มีประสิทธิภาพมากจะครอบงำระบบที่มีอยู่ในปัจจุบัน ก่อนหน้านี้ในสัปดาห์เดียวกัน Anthropic เองก็เกิดความกลัวกับผลิตภัณฑ์ของตัวเอง, Claude Mythos กล่าวถึงผลิตภัณฑ์ AI ที่มีประสิทธิภาพสูงที่สุดของบริษัท Anthropic ซึ่งสามารถระบุช่องโหว่ด้านความปลอดภัยที่ยังไม่รู้จักในระบบปฏิบัติการและเบราว์เซอร์หลักทั้งหมด ซึ่งทำให้ต้องระงับการปล่อยให้เข้าถึงทั่วไป
การตัดสินใจนี้สะท้อนถึงความพยายามที่จะห่างออกจากกระแสการกำกับดูแล พื้นที่ช่วยให้ OpenAI อยู่ในตำแหน่งที่เป็นฝ่ายรับผิดชอบ Anthropic ได้เห็นความเข้มงวดของหน่วยงานของรัฐบาลที่มีต่อความปลอดภัยของ AI และเสริมว่าผลลัพธ์ของการทดลองใหม่ไม่ได้แสดงให้เห็นเพียงความเสี่ยงที่เกี่ยวข้องกับรุ่น AI ใหม่ๆ แต่ยังเกี่ยวกับระดับของการตัดสินใจที่ซับซ้อนและไม่ชัดเจนยิ่งขึ้น
แนวโน้มที่เกิดขึ้นในอุตสาหกรรม AI ระดับสูงสุดคือผลิตภัณฑ์ที่มีประสิทธิภาพสูงสุดจะไม่เข้าไปร่วมในตลาดทั่วไป แต่จะถูกแจกจ่ายเหมือนงานวิจัยที่เป็นความลับให้กับองค์กรที่มีโครงสร้างพื้นฐานและมีเจตนาที่จะใช้มันอย่างรับผิดชอบ
Source: https://decrypt.co/363858/openai-cyber-model-anthropic-mythos
#AvareumNews #OpenAI #CyberSecurity #AI #TrustedAccess
This newsletter is produced with assistance from OpenAI's ChatGPT-4o. All analyses are reviewed and verified by our research team.