
โมเดลแบบเปิดกว้างให้การเข้าถึงพารามิเตอร์โมเดลที่ผ่านการฝึกอบรมทำให้องค์กรสามารถเรียกใช้และปรับแต่ง AI ในพื้นที่ แต่แตกต่างจากซอฟต์แวร์โอเพนซอร์ซแบบดั้งเดิมโดยไม่จำเป็นต้องรวมรหัสการฝึกอบรมหรือชุดข้อมูลดั้งเดิม
สถาปัตยกรรมที่ออกแบบมาเพื่อประสิทธิภาพขององค์กร
แบบจำลองใช้ประโยชน์จากสถาปัตยกรรมผสม (MOE) เพื่อเพิ่มประสิทธิภาพการคำนวณ GPT-OSS-120B เปิดใช้งานพารามิเตอร์ 5.1 พันล้านต่อโทเค็นจากพารามิเตอร์ทั้งหมด 117 พันล้านพารามิเตอร์ในขณะที่ GPT-OSS-20B เปิดใช้งาน 3.6 พันล้านจากฐานพารามิเตอร์ 21 พันล้าน ทั้งสองสนับสนุนหน้าต่างบริบท 128,000 Token และได้รับการปล่อยตัวภายใต้ใบอนุญาต Apache 2.0 ทำให้การใช้งานเชิงพาณิชย์และการปรับแต่งไม่ จำกัด
รุ่นนี้มีให้ดาวน์โหลดบน Hugging Face และมีปริมาณที่เกิดขึ้นในรูปแบบ MXFP4 ตามคำสั่ง บริษัท ได้ร่วมมือกับแพลตฟอร์มการปรับใช้รวมถึง Azure, AWS, Hugging Face, VLLM, Ollama, Fireworks, AI, Databricks และ Vercel เพื่อให้แน่ใจว่าเข้าถึงได้กว้าง
