Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

นี่คือโพสต์ที่แปลด้วย AI

해리슨 블로그

เปิดตัว OpenELM ของ Apple / Phi-3 ของ MS / Llama 3 ของ Meta

เลือกภาษา

  • ไทย
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

สรุปโดย AI ของ durumis

  • บริษัทเทคโนโลยียักษ์ใหญ่ ได้แก่ Apple, Microsoft และ Meta กำลังสร้างความเปลี่ยนแปลงครั้งใหญ่ในวงการ AI ด้วยการเปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่ในช่วงไม่นานมานี้
  • แต่ละบริษัทได้นำเสนอแบบจำลองที่แตกต่างกัน ด้วยการลดขนาดแบบจำลอง หรือการเพิ่มประสิทธิภาพข้อมูล/อัลกอริทึม การเสริมความเข้าใจในบริบท ฯลฯ
  • โดยเฉพาะ OpenELM ของ Apple นั้นได้รับการพัฒนาให้เหมาะกับอุปกรณ์ขนาดเล็ก และ Llama 3 ของ Meta นั้นแสดงให้เห็นถึงประสิทธิภาพที่ยอดเยี่ยมแม้จะมีขนาดเล็ก เนื่องจากโครงสร้างแบบจำลองที่มีประสิทธิภาพ

ข่าวการเปิดตัวแบบจำลองภาษาขนาดใหญ่ที่น่าสนใจในช่วงนี้

ในช่วงสัปดาห์ที่ผ่านมา บริษัทเทคโนโลยีรายใหญ่ ได้แก่ แอปเปิล ไมโครซอฟท์ และเมตา ได้เปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่ อย่างต่อเนื่อง ส่งผลให้เกิดเสียงสะท้อนอย่างมากในวงการ AI เราจะมาเจาะลึกถึงคุณสมบัติเด่นและความสำคัญของแบบจำลองที่เปิดตัว ในครั้งนี้กัน

OpenELM ของแอปเปิล

เมื่อวันที่ 25 เมษายน แอปเปิลได้เปิดตัวกลุ่มผลิตภัณฑ์แบบจำลองภาษา OpenELM ที่พัฒนาขึ้นเอง ซึ่งประกอบด้วยแบบจำลอง ขนาดต่างๆ 4 รุ่น ได้แก่ 0.27B, 0.45B, 1.08B และ 3.04B แบบจำลองที่มีขนาดใหญ่ที่สุดมีเพียง 3 พันล้านพารามิเตอร์ ซึ่งถือว่ามีขนาดค่อนข้างเล็ก เมื่อพิจารณาว่าแบบจำลองภาษาขนาดใหญ่ส่วนใหญ่ในปัจจุบันมีพารามิเตอร์อย่างน้อย 3 พันล้านตัวขึ้นไป OpenELM จึงถือว่ามีขนาดเล็กมาก
สาเหตุที่แอปเปิลพัฒนา OpenELM ให้มีขนาดเล็กนั้น เนื่องจากมีเป้าหมายที่จะใช้แบบจำลองนี้บนอุปกรณ์ขนาดเล็กเป็นหลัก ในอดีต การเพิ่มจำนวนพารามิเตอร์เป็นวิธีหลักในการเพิ่มประสิทธิภาพ แต่ในปัจจุบัน เทรนด์มุ่งเน้นไปที่การทำให้แบบจำลองมีขนาดเล็กลง และเบาลง แอปเปิลได้เปิดเผยทั้งน้ำหนักของแบบจำลองและรหัสการอนุมาน รวมถึงชุดข้อมูลและเฟรมเวิร์กทั้งหมด ทำให้เพิ่มความเปิด กว้างมากขึ้น

ซีรีส์ Phi-3 ของ MS

ไมโครซอฟท์ได้เปิดตัว Phi-3 Mini รุ่น (3.8 พันล้านพารามิเตอร์) เมื่อวันที่ 23 เมษายน และมีแผนจะเปิดตัว Phi-3 Small ขนาด 7 พันล้านตัว และ Phi-3 Medium ขนาด 14 พันล้านตัวในอนาคต Phi-3 Mini เป็นแบบจำลองแบบเปิดที่ทุกคนสามารถ ใช้งานได้ฟรีเพื่อวัตถุประสงค์ทางการค้า แบบจำลองในซีรีส์ Phi-3 ใหม่ทั้งหมดจะให้บริการผ่านบริการคลาวด์ Azure ของ MS

Llama 3 ของเมตา

เมตา (เดิมคือ Facebook) ได้เปิดตัว Llama 3 รุ่น 8 พันล้านตัวและ 70 พันล้านตัวเมื่อวันที่ 18 เมษายน และมีแผนจะเปิดตัวรุ่น ขนาดใหญ่ 400 พันล้านตัวในช่วงฤดูร้อน โดยเฉพาะอย่างยิ่ง รุ่น 8 พันล้านตัวได้รับการยกย่องจากชุมชนนักพัฒนาว่ามีประสิทธิภาพ สูงแม้จะมีขนาดเล็ก
ซึ่งการวิเคราะห์พบว่าเป็นผลมาจากการที่เมตาใช้ชุดข้อมูลการฝึกฝนขนาดใหญ่และสร้างโครงสร้างแบบจำลองที่มีประสิทธิภาพ อาจกล่าวได้ว่าเป็นผลลัพธ์ของการมุ่งเน้นไปที่การปรับปรุงข้อมูลและอัลกอริธึม แทนที่จะเพิ่มจำนวนพารามิเตอร์

Grok 1.5 ของ xAI

แบบจำลอง Grok 1.5 ของ xAI ซึ่งเปิดตัวเมื่อวันที่ 38 มีนาคม สามารถประมวลผลโทเค็นตามบริบทที่ยาวถึง 128K ซึ่งช่วยให้ สามารถใช้พรอมต์ที่ซับซ้อนและยาวขึ้นได้ หากเทรนด์การพัฒนาแบบจำลองภาษาในปัจจุบันมุ่งเน้นไปที่การเพิ่มขนาดของพารามิเตอร์ Grok 1.5 ได้นำเสนอจุดมุ่งหมายใหม่ นั่นคือ การเพิ่มประสิทธิภาพในการทำความเข้าใจบริบทที่ยาวขึ้น

⁠⁠⁠⁠⁠⁠⁠
การเปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่จากบริษัทชั้นนำ เช่น แอปเปิล MS และเมตาในช่วงสัปดาห์ที่ผ่านมาได้ทำให้ทิศทาง ของวิวัฒนาการเทคโนโลยี AI มีความหลากหลายมากยิ่งขึ้น ปัจจุบันมีการทดลองใหม่ๆ เกิดขึ้นในหลายด้าน เช่น การลดขนาด และทำให้แบบจำลองเบาลง การปรับปรุงข้อมูล/อัลกอริธึม และการเสริมสร้างความสามารถในการทำความเข้าใจบริบท ต้องจับตามองการพัฒนาของระบบนิเวศ AI ในอนาคต

해리슨
해리슨 블로그
해리슨의 깜짝 블로그
해리슨
ราคาของ Gemini 1.5 Flash, GPT-4o และ LLM อื่นๆ การเปรียบเทียบประสิทธิภาพและราคาของโมเดล AI ล่าสุด เช่น GPT-4o, Gemini 1.5 Pro, Claude 3 Haiku, Gemini 1.5 Flash เพื่อช่วยให้คุณเลือกโมเดลที่เหมาะสมกับตัวคุณเอง ค้นหาโมเดลที่มีประสิทธิภาพสูงสุดโดยพิจารณาจากขนาดโทเค็นอินพุต อัตราส่วนเอาต์พุต ความยากของงาน

18 พฤษภาคม 2567

บริการ AI ที่น่าสนใจในช่วงนี้ แนะนำบริการ AI ที่โด่งดังและน่าสนใจในช่วงนี้ นอกเหนือจาก ChatGPT และ Gemini แล้ว ยังมี NotebookLM และ Perplexity AI รวมไปถึงบริการอื่นๆ ที่ช่วยเพิ่มประสิทธิภาพในการทำงาน บริการ NotebookLM เป็นบริการจาก Google ที่อนุญาตให้คุณป้อนข้อมูล เช่น Google Drive, P

23 มิถุนายน 2567

การเปรียบเทียบราคา ChatGPT กับ Gemini เปรียบเทียบบริการ LLM หลักสองบริการที่เปิดตัวในปัจจุบันคือ ChatGPT และ Gemini ChatGPT ซึ่งใช้โทเค็นคิดราคา 0.125 ดอลลาร์ต่อ 1 ล้านโทเค็น ในขณะที่ Gemini ซึ่งใช้ตัวอักษรคิดราคา 0.125 ดอลลาร์ต่อ 1 ล้านตัวอักษรสำหรับการป้อนข้อมูล และ 0.375 ดอลลาร์ต่อ 1 ล้านต

7 มีนาคม 2567

สโนว์เฟลก เปิดตัว 'อาร์กติก' LLM ระดับองค์กร ที่มีการเปิดกว้างสูงสุดในอุตสาหกรรม สโนว์เฟลกเปิดตัว 'อาร์กติก' ซึ่งเป็นแบบจำลองภาษาขนาดใหญ่ (LLM) แบบโอเพ่นซอร์ส อาร์กติกมีให้ใช้งานเชิงพาณิชย์ฟรีภายใต้ใบอนุญาต Apache 2.0 และมีประสิทธิภาพและประสิทธิผลระดับชั้นนำในอุตสาหกรรม อาร์กติกนำเสนอประสิทธิภาพโทเค็นที่โดดเด่นและคุณภาพที่ดีที่สุด
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 เมษายน 2567

สร้าง AI Full Stack ด้วยโอเพนซอร์ส ระบบนิเวศ AI กำลังเห็นการเปิดตัวโมเดล LLM (แบบจำลองภาษาขนาดใหญ่) โอเพนซอร์สใหม่ๆ อย่างต่อเนื่อง Mistral, Llama, phi-2 เป็นต้น เป็นแบบจำลองที่มีประสิทธิภาพสูงและมีใบอนุญาตแบบเปิด และมีการพัฒนาเครื่องมือต่างๆ เพื่อใช้ประโยชน์จากโมเดลเหล่านี้ LangChain, L
RevFactory
RevFactory
RevFactory
RevFactory

5 กุมภาพันธ์ 2567

ความขัดแย้งของแบบจำลอง AI ชั้นนำ ความโปร่งใส การขาดความโปร่งใสในระบบ AI ที่ล้ำสมัยกำลังกลายเป็นปัญหาที่ร้ายแรง ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดได้วิเคราะห์ระบบ AI 10 ระบบ รวมถึง GPT-4 พบว่าไม่มีแบบจำลองใดที่เปิดเผยข้อมูลอย่างโปร่งใส เช่น แหล่งที่มาของข้อมูล วิธีการฝึกฝน และการใช้พลังงาน การขาดความโป
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 พฤษภาคม 2567

LLM (Large Language Model) คืออะไร? แบบจำลองภาษาขนาดใหญ่ (LLM) เป็นเทคโนโลยีหลักของปัญญาประดิษฐ์ ซึ่งเรียนรู้จากข้อมูลข้อความจำนวนมาก เพื่อให้มีความสามารถในการประมวลผลภาษาคล้ายมนุษย์ และสามารถนำไปใช้ในด้านต่างๆ เช่น แชทบอท การแปล การสร้างข้อความ LLM ทำงานบนพื้นฐานขององค์ประกอบหลัก ได้แก่ ก
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 เมษายน 2567

ติดตั้ง Google Gemini Ultra บนสมาร์ทโฟน Google กำลังวางแผนติดตั้งโมเดล AI เฉพาะคลาวด์ 'Gemini Ultra' บนสมาร์ทโฟนในปีหน้า ความก้าวหน้าด้านเทคโนโลยีการบีบอัด LLM ทำให้สามารถใช้งานได้บนอุปกรณ์ ซึ่งคาดว่าจะช่วยขยายฟังก์ชันการทำงานของสมาร์ทโฟนอย่างมาก Morgan Stanley คาดการณ์ว่า ยอดขายสมาร์ทโฟนจะเริ
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 เมษายน 2567

การเปรียบเทียบ Google Gemini 1.5 กับ 1.5 Pro (พร้อมตัวอย่าง) Gemini 1.5 Pro เป็นแบบจำลอง AI ที่ทรงพลังกว่า Gemini 1.5 ซึ่งสามารถใช้สำหรับงานต่างๆ เช่น การวิเคราะห์โค้ด การสร้างการทดสอบหน่วยอัตโนมัติ การแปลงโค้ด และอื่นๆ เหมาะอย่างยิ่งสำหรับการประมวลผลข้อมูลขนาดใหญ่และงานที่ซับซ้อน
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증

28 มิถุนายน 2567