ET 17:21

OpenAI แสวงหาชิป AI Inference ทางเลือกแทน NVIDIA ติดต่อ AMD, Cerebras และ Groq

แหล่งข่าวหลายรายเปิดเผยกับสำนักข่าวรอยเตอร์เมื่อวันที่ 2 กุมภาพันธ์ 2026 ว่า OpenAI ได้ประเมินชิป AI inference จาก AMD, Cerebras และ Groq อย่างเงียบๆ ตั้งแต่ปีที่แล้ว เพื่อหาทางเลือกแทน NVIDIA เนื่องจากไม่พอใจกับความหน่วง (latency) ในการตอบสนอง โดยเฉพาะในงานพัฒนาซอฟต์แวร์และการผสานระบบ

การเปลี่ยนแปลงนี้สะท้อนให้เห็นว่า OpenAI ให้ความสำคัญกับกระบวนการ inference—ซึ่งเป็นการสร้างคำตอบแบบเรียลไทม์จากโมเดล AI ที่ผ่านการฝึกมา—ในฐานะจุดคอขวดด้านประสิทธิภาพ แม้ NVIDIA จะครองตลาดฮาร์ดแวร์สำหรับการเทรน AI แต่ GPU ของบริษัทต้องพึ่งพาหน่วยความจำภายนอก ทำให้มี latency สูงกว่าสถาปัตยกรรมที่ใช้ SRAM ในตัว เช่น ของ Cerebras OpenAI วางแผนจะโยกภาระงาน inference ประมาณ 10% ไปยังฮาร์ดแวร์ที่ไม่ใช่ NVIDIA อย่างไรก็ตาม บริษัทยืนยันว่าคลัสเตอร์ inference ส่วนใหญ่ยังคงใช้ NVIDIA ขณะเดียวกัน การเจรจาลงทุนระหว่าง NVIDIA กับ OpenAI ยังดำเนินต่อ แม้ข้อตกลงมูลค่า 1 หมื่นล้านดอลลาร์สหรัฐฯ จะยังไม่เกิดขึ้นจริง CEO ของ NVIDIA เจนสัน หวง ปฏิเสธว่าไม่มีความตึงเครียดใดๆ และย้ำว่าชิปของ NVIDIA ให้สมรรถนะและต้นทุนที่ดีกว่าสำหรับ inference ระดับใหญ่

EditorTan Wei Jie