![translation](https://cdn.durumis.com/common/trans.png)
นี่คือโพสต์ที่แปลด้วย AI
เปิดตัว OpenELM ของ Apple / Phi-3 ของ MS / Llama 3 ของ Meta
- ภาษาที่เขียน: ภาษาเกาหลี
- •
-
ประเทศอ้างอิง: ทุกประเทศ
- •
- เทคโนโลยีสารสนเทศ
เลือกภาษา
สรุปโดย AI ของ durumis
- บริษัทเทคโนโลยียักษ์ใหญ่ ได้แก่ Apple, Microsoft และ Meta กำลังสร้างความเปลี่ยนแปลงครั้งใหญ่ในวงการ AI ด้วยการเปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่ในช่วงไม่นานมานี้
- แต่ละบริษัทได้นำเสนอแบบจำลองที่แตกต่างกัน ด้วยการลดขนาดแบบจำลอง หรือการเพิ่มประสิทธิภาพข้อมูล/อัลกอริทึม การเสริมความเข้าใจในบริบท ฯลฯ
- โดยเฉพาะ OpenELM ของ Apple นั้นได้รับการพัฒนาให้เหมาะกับอุปกรณ์ขนาดเล็ก และ Llama 3 ของ Meta นั้นแสดงให้เห็นถึงประสิทธิภาพที่ยอดเยี่ยมแม้จะมีขนาดเล็ก เนื่องจากโครงสร้างแบบจำลองที่มีประสิทธิภาพ
ข่าวการเปิดตัวแบบจำลองภาษาขนาดใหญ่ที่น่าสนใจในช่วงนี้
ในช่วงสัปดาห์ที่ผ่านมา บริษัทเทคโนโลยีรายใหญ่ ได้แก่ แอปเปิล ไมโครซอฟท์ และเมตา ได้เปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่ อย่างต่อเนื่อง ส่งผลให้เกิดเสียงสะท้อนอย่างมากในวงการ AI เราจะมาเจาะลึกถึงคุณสมบัติเด่นและความสำคัญของแบบจำลองที่เปิดตัว ในครั้งนี้กัน
OpenELM ของแอปเปิล
เมื่อวันที่ 25 เมษายน แอปเปิลได้เปิดตัวกลุ่มผลิตภัณฑ์แบบจำลองภาษา OpenELM ที่พัฒนาขึ้นเอง ซึ่งประกอบด้วยแบบจำลอง ขนาดต่างๆ 4 รุ่น ได้แก่ 0.27B, 0.45B, 1.08B และ 3.04B แบบจำลองที่มีขนาดใหญ่ที่สุดมีเพียง 3 พันล้านพารามิเตอร์ ซึ่งถือว่ามีขนาดค่อนข้างเล็ก เมื่อพิจารณาว่าแบบจำลองภาษาขนาดใหญ่ส่วนใหญ่ในปัจจุบันมีพารามิเตอร์อย่างน้อย 3 พันล้านตัวขึ้นไป OpenELM จึงถือว่ามีขนาดเล็กมาก
สาเหตุที่แอปเปิลพัฒนา OpenELM ให้มีขนาดเล็กนั้น เนื่องจากมีเป้าหมายที่จะใช้แบบจำลองนี้บนอุปกรณ์ขนาดเล็กเป็นหลัก ในอดีต การเพิ่มจำนวนพารามิเตอร์เป็นวิธีหลักในการเพิ่มประสิทธิภาพ แต่ในปัจจุบัน เทรนด์มุ่งเน้นไปที่การทำให้แบบจำลองมีขนาดเล็กลง และเบาลง แอปเปิลได้เปิดเผยทั้งน้ำหนักของแบบจำลองและรหัสการอนุมาน รวมถึงชุดข้อมูลและเฟรมเวิร์กทั้งหมด ทำให้เพิ่มความเปิด กว้างมากขึ้น
ซีรีส์ Phi-3 ของ MS
ไมโครซอฟท์ได้เปิดตัว Phi-3 Mini รุ่น (3.8 พันล้านพารามิเตอร์) เมื่อวันที่ 23 เมษายน และมีแผนจะเปิดตัว Phi-3 Small ขนาด 7 พันล้านตัว และ Phi-3 Medium ขนาด 14 พันล้านตัวในอนาคต Phi-3 Mini เป็นแบบจำลองแบบเปิดที่ทุกคนสามารถ ใช้งานได้ฟรีเพื่อวัตถุประสงค์ทางการค้า แบบจำลองในซีรีส์ Phi-3 ใหม่ทั้งหมดจะให้บริการผ่านบริการคลาวด์ Azure ของ MS
Llama 3 ของเมตา
เมตา (เดิมคือ Facebook) ได้เปิดตัว Llama 3 รุ่น 8 พันล้านตัวและ 70 พันล้านตัวเมื่อวันที่ 18 เมษายน และมีแผนจะเปิดตัวรุ่น ขนาดใหญ่ 400 พันล้านตัวในช่วงฤดูร้อน โดยเฉพาะอย่างยิ่ง รุ่น 8 พันล้านตัวได้รับการยกย่องจากชุมชนนักพัฒนาว่ามีประสิทธิภาพ สูงแม้จะมีขนาดเล็ก
ซึ่งการวิเคราะห์พบว่าเป็นผลมาจากการที่เมตาใช้ชุดข้อมูลการฝึกฝนขนาดใหญ่และสร้างโครงสร้างแบบจำลองที่มีประสิทธิภาพ อาจกล่าวได้ว่าเป็นผลลัพธ์ของการมุ่งเน้นไปที่การปรับปรุงข้อมูลและอัลกอริธึม แทนที่จะเพิ่มจำนวนพารามิเตอร์
Grok 1.5 ของ xAI
แบบจำลอง Grok 1.5 ของ xAI ซึ่งเปิดตัวเมื่อวันที่ 38 มีนาคม สามารถประมวลผลโทเค็นตามบริบทที่ยาวถึง 128K ซึ่งช่วยให้ สามารถใช้พรอมต์ที่ซับซ้อนและยาวขึ้นได้ หากเทรนด์การพัฒนาแบบจำลองภาษาในปัจจุบันมุ่งเน้นไปที่การเพิ่มขนาดของพารามิเตอร์ Grok 1.5 ได้นำเสนอจุดมุ่งหมายใหม่ นั่นคือ การเพิ่มประสิทธิภาพในการทำความเข้าใจบริบทที่ยาวขึ้น
การเปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่จากบริษัทชั้นนำ เช่น แอปเปิล MS และเมตาในช่วงสัปดาห์ที่ผ่านมาได้ทำให้ทิศทาง ของวิวัฒนาการเทคโนโลยี AI มีความหลากหลายมากยิ่งขึ้น ปัจจุบันมีการทดลองใหม่ๆ เกิดขึ้นในหลายด้าน เช่น การลดขนาด และทำให้แบบจำลองเบาลง การปรับปรุงข้อมูล/อัลกอริธึม และการเสริมสร้างความสามารถในการทำความเข้าใจบริบท ต้องจับตามองการพัฒนาของระบบนิเวศ AI ในอนาคต