Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

To jest post przetłumaczony przez AI.

해리슨 블로그

Publiczne wersje modeli językowych OpenELM firmy Apple, Phi-3 firmy Microsoft i Llama 3 firmy Meta

  • Język pisania: Koreański
  • Kraj referencyjny: Wszystkie kraje country-flag

Wybierz język

  • Polski
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Nederlands
  • हिन्दी
  • Magyar

Tekst podsumowany przez sztuczną inteligencję durumis

  • Najważniejsze firmy technologiczne, takie jak Apple, Microsoft i Meta, niedawno udostępniły nowe, rozbudowane modele językowe, wywołując znaczące zmiany w branży sztucznej inteligencji.
  • Poszczególne firmy prezentują zróżnicowane modele, skupiając się na zmniejszeniu ich rozmiaru, optymalizacji danych/algorytmów lub zwiększeniu zrozumienia kontekstu.
  • Szczególnie OpenELM firmy Apple został opracowany z myślą o niewielkich urządzeniach, a Llama 3 firmy Meta, dzięki efektywnej strukturze modelu, osiąga imponujące wyniki pomimo niewielkiego rozmiaru.

Najnowsze informacje o wydaniach dużych modeli językowych

W ciągu ostatniego tygodnia firmy technologiczne, takie jak Apple, Microsoft i Meta, opublikowały nowe duże modele językowe, co wywołało spore zamieszanie w branży AI. Przyjrzyjmy się bliżej kluczowym cechom i znaczeniu tych ostatnich wydań.

OpenELM firmy Apple

25 kwietnia Apple zaprezentował zestaw modeli językowych OpenELM, który został opracowany wewnętrznie. Zestaw składa się z czterech modeli o różnych rozmiarach: 0,27B, 0,45B, 1,08B i 3,04B. Nawet największy z nich ma zaledwie 3 miliardy parametrów, co czyni go stosunkowo małym. Biorąc pod uwagę, że większość dużych modeli językowych ma obecnie co najmniej 3 miliardy parametrów, OpenELM jest naprawdę niewielki.
Jest to spowodowane tym, że Apple opracował OpenELM z myślą o wdrożeniu go głównie na urządzeniach mobilnych. W przeszłości zwiększenie liczby parametrów było głównym sposobem na osiągnięcie wysokiej wydajności, ale ostatnio nastąpił trend w kierunku zmniejszania rozmiaru i wagi modeli. Apple zwiększył również przejrzystość, publikując nie tylko wagi modelu i kod wnioskowania, ale także zestaw danych i framework.

Seria Phi-3 firmy MS

Microsoft również udostępnił model Phi-3 Mini (3,8 miliarda parametrów) 23 kwietnia, a w przyszłości planuje wprowadzić na rynek modele Phi-3 Small o rozmiarze 7 miliardów i Phi-3 Medium o rozmiarze 14 miliardów. Model Phi-3 Mini jest modelem otwartym, dostępnym bezpłatnie dla wszystkich do celów komercyjnych. Wszystkie nowe modele z serii Phi-3 będą dostępne w ramach usługi chmurowej Azure firmy MS.

Llama 3 firmy Meta

Meta (dawniej Facebook) opublikował 18 kwietnia wersje 8B i 70B modelu Llama 3, a wersję 400B, czyli największą, planuje udostępnić latem. W szczególności wersja 8B odznacza się wyjątkową wydajnością, jak na tak niewielki rozmiar, co spotkało się z uznaniem wśród społeczności programistów.
Jest to prawdopodobnie spowodowane tym, że Meta zainwestował w ogromne ilości danych treningowych i stworzył efektywną architekturę modelu. Można powiedzieć, że zamiast zwiększać liczbę parametrów, skupiono się na optymalizacji danych i algorytmów.

Grok 1.5 firmy xAI

Model Grok 1.5 firmy xAI, ogłoszony 38 marca, obsługuje do 128 tysięcy długich tokenów kontekstowych, co umożliwia złożone i długie instrukcje. Dotychczasowe trendy w rozwoju modeli językowych koncentrowały się wyłącznie na zwiększaniu rozmiaru parametrów, natomiast Grok 1.5 wskazuje nowy kierunek, jakim jest zwiększenie zdolności do rozumienia długich kontekstów.

⁠⁠⁠⁠⁠⁠⁠
W ciągu ostatniego tygodnia, w związku z publikacją nowych dużych modeli językowych przez wiodące firmy, takie jak Apple, MS i Meta, kierunek ewolucji technologii AI stał się jeszcze bardziej zróżnicowany. Obserwujemy nowe podejścia w różnych aspektach, takich jak zmniejszanie rozmiaru i wagi modeli, optymalizacja danych/algorytmów, zwiększenie zdolności do rozumienia kontekstu. Będziemy bacznie obserwować przyszły rozwój ekosystemu AI.

해리슨
해리슨 블로그
해리슨의 깜짝 블로그
해리슨
Ceny Gemini 1.5 Flash, GPT-4o i innych LLM Porównanie wydajności i cen najnowszych modeli AI, takich jak GPT-4o, Gemini 1.5 Pro, Claude 3 Haiku, Gemini 1.5 Flash. Pomożemy Ci wybrać model odpowiedni dla Ciebie. Znajdź najbardziej wydajny model, biorąc pod uwagę rozmiar tokenów wejściowych, stosune

18 maja 2024

Porównanie cen ChatGPT i Gemini Porównujemy dwa główne usługi LLM, ChatGPT i Gemini, które są obecnie dostępne. ChatGPT oparty na tokenach kosztuje 0,125 USD za milion tokenów, Gemini oparty na znakach kosztuje 0,125 USD za milion znaków w przypadku wprowadzania i 0,375 USD za milion zn

7 marca 2024

Najnowsze usługi AI warte polecenia Prezentujemy najnowsze, popularne i godne polecenia usługi AI. Oprócz ChatGPT i Gemini, przedstawiamy NotebookLM i Perplexity AI, a także inne usługi zwiększające efektywność pracy. NotebookLM to usługa oferowana przez Google, która umożliwia wyszukiwanie

23 czerwca 2024

AI Full Stack tworzony z wykorzystaniem open source W ekosystemie AI pojawiają się coraz częściej nowe modele LLM (Large Language Models) z otwartym kodem źródłowym. Mistral, Llama, phi-2 to przykłady modeli o dużej mocy i otwartych licencjach, które zostały udostępnione publicznie. Równolegle rozwijane są
RevFactory
RevFactory
RevFactory
RevFactory

5 lutego 2024

Snowflake uruchamia „Arctic”, firmowy model językowy klasy korporacyjnej o najwyższym poziomie otwartości Snowflake wprowadził na rynek „Arctic”, otwartoźródłowy model językowy o dużej skali. Dostępny jest on na licencji Apache 2.0 i pozwala na bezpłatne wykorzystywanie komercyjne. „Arctic” charakteryzuje się najlepszymi w branży wydajnością i efektywnością.
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 kwietnia 2024

Wbudowany Google Gemini Ultra w smartfony Google zapowiedziało, że w przyszłym roku jego smartfony będą wyposażone w model AI dedykowany chmurze, „Gemini Ultra”. Postęp w dziedzinie technologii kompresji LLM umożliwia uruchomienie ich na urządzeniach, co powinno znacząco rozszerzyć możliwości sma
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 kwietnia 2024

Co to jest LLM (Large Language Model)? Duże modele językowe (LLM) to kluczowa technologia sztucznej inteligencji, która uczy się ogromnych ilości danych tekstowych, aby zdobyć zdolności przetwarzania języka podobne do ludzkich. Mogą być wykorzystywane w różnych dziedzinach, takich jak chatboty
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 kwietnia 2024

Paradoks przełomowych modeli AI, przejrzystość Brak przejrzystości w najnowocześniejszych systemach AI stał się poważnym problemem. Naukowcy ze Stanford University przeanalizowali 10 systemów AI, w tym GPT-4, dochodząc do wniosku, że żaden z nich nie ujawnia w sposób przejrzysty informacji, takich jak
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 maja 2024

Porównanie Gemini 1.5 vs 1.5 Pro (z przykładami) Gemini 1.5 Pro to potężniejszy model AI niż Gemini 1.5, który można wykorzystać do różnych zadań, takich jak analiza kodu, automatyczne generowanie testów jednostkowych, konwersja kodu i wiele innych. Jest szczególnie dobrze dopasowany do przetwarzania du
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증

28 czerwca 2024