Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dies ist ein von KI übersetzter Beitrag.

해리슨 블로그

Veröffentlichung von Apples OpenELM / MS Phi-3 / Metas Llama 3

  • Schreibsprache: Koreanisch
  • Referenzland: Alle Länder country-flag

Sprache auswählen

  • Deutsch
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Von durumis AI zusammengefasster Text

  • Apple, Microsoft und Meta, wichtige Big-Tech-Unternehmen, haben kürzlich neue große Sprachmodelle veröffentlicht und damit große Veränderungen in der KI-Branche ausgelöst.
  • Jedes Unternehmen präsentiert differenzierte Modelle mit unterschiedlichen Ansätzen wie Größenreduzierung, Daten-/Algorithmusoptimierung und Verbesserung des Kontextverständnisses.
  • Insbesondere Apples OpenELM wurde für kleine Geräte entwickelt, während Metas Llama 3 aufgrund seiner effizienten Modellstruktur eine hervorragende Leistung bei geringer Größe erzielt.

Aktuelle bemerkenswerte Veröffentlichungen großer Sprachmodelle

In der letzten Woche haben große Technologieunternehmen wie Apple, Microsoft und Meta nacheinander neue große Sprachmodelle veröffentlicht, was in der KI-Branche für erhebliches Aufsehen sorgt. Lassen Sie uns die wichtigsten Merkmale und die Bedeutung der neu veröffentlichten Modelle genauer untersuchen.

Apples OpenELM

Am 25. April veröffentlichte Apple seine selbstentwickelte OpenELM-Sprachmodellserie. Die Serie besteht aus vier verschiedenen Modellgrößen: 0,27B, 0,45B, 1,08B und 3,04B. Das größte Modell hat mit nur 3 Milliarden Parametern eine relativ kleine Größe. Wenn man bedenkt, dass die meisten aktuellen großen Sprachmodelle mindestens 3 Milliarden Parameter haben, ist OpenELM sehr klein.
Dies liegt daran, dass Apple OpenELM in erster Linie für die Verwendung auf kleinen Geräten entwickelt hat. In der Vergangenheit war die Erhöhung der Parameterzahl die wichtigste Methode zur Steigerung der Leistung, aber in letzter Zeit liegt der Fokus auf Miniaturisierung und Gewichtsreduktion. Apple hat dieses Mal nicht nur die Modellgewichte und den Inferenzcode veröffentlicht, sondern auch den Datensatz und das Framework, um die Offenheit zu erhöhen.

MS Phi-3-Serie

Microsoft veröffentlichte zunächst am 23. April das Phi-3 Mini-Modell (3,8 Milliarden Parameter) und plant in Zukunft die Veröffentlichung von Phi-3 Small (7 Milliarden Parameter) und Phi-3 Medium (14 Milliarden Parameter). Phi-3 Mini ist ein Open-Source-Modell, das von jedem kostenlos für kommerzielle Zwecke verwendet werden kann. Alle neuen Modelle der Phi-3-Serie werden über den Microsoft-Cloud-Dienst Azure bereitgestellt.

Metas Llama 3

Meta (ehemals Facebook) veröffentlichte am 18. April zunächst die 8B- und 70B-Version des Llama 3-Modells und plant die Veröffentlichung des großen 400B-Modells im Sommer. Insbesondere das 8B-Modell zeichnet sich durch seine hervorragende Leistung trotz seiner geringen Größe aus und wird von der Entwicklergemeinschaft gelobt.
Dies wird darauf zurückgeführt, dass Meta eine große Menge an Trainingsdaten eingesetzt hat, um eine effiziente Modellstruktur zu erstellen. Es kann als Ergebnis der Fokussierung auf die Optimierung von Daten und Algorithmen anstelle der Erhöhung der Parameterzahl angesehen werden.

xAI Grok 1.5

Das am 38. März angekündigte Grok 1.5-Modell von xAI kann bis zu 128.000 lange Kontext-Token verarbeiten, was komplexe und lange Prompts ermöglicht. Während sich der bisherige Trend in der Entwicklung von Sprachmodellen auf die einfache Erhöhung der Parametergröße konzentrierte, hat Grok 1.5 eine neue Ausrichtung auf die Verbesserung des Verständnisses langer Kontexte vorgelegt.

⁠⁠⁠⁠⁠⁠⁠
So hat in der letzten Woche die Veröffentlichung neuer großer Sprachmodelle durch führende Unternehmen wie Apple, MS und Meta zu einer größeren Vielfalt in der Entwicklung von KI-Technologien geführt. Neue Versuche werden in verschiedenen Bereichen wie Modellgrößenreduktion und -gewichtsreduktion, Daten-/Algorithmusoptimierung und Verbesserung des Kontextverständnisses unternommen. Es bleibt abzuwarten, wie sich das KI-Ökosystem in Zukunft entwickeln wird.

해리슨
해리슨 블로그
해리슨의 깜짝 블로그
해리슨
Preise für Gemini 1.5 Flash, GPT-4o und andere LLMs Vergleich der Leistung und Preise der neuesten KI-Modelle wie GPT-4o, Gemini 1.5 Pro, Claude 3 Haiku und Gemini 1.5 Flash. Erfahren Sie, wie Sie das richtige Modell für sich wählen können. Finden Sie das effizienteste Modell basierend auf der Größe der Ei

18. Mai 2024

Aktuelle KI-Dienste, die wir empfehlen Wir stellen Ihnen aktuelle, bekannte und empfehlenswerte KI-Dienste vor. Neben ChatGPT und Gemini stellen wir NotebookLM und Perplexity AI vor, die Ihre Arbeitseffizienz steigern können. NotebookLM ist ein von Google angebotener Dienst, mit dem Sie Inform

23. Juni 2024

ChatGPT vs. Gemini Preisvergleich Dieser Beitrag vergleicht die beiden wichtigsten derzeit öffentlich verfügbaren LLM-Dienste: ChatGPT und Gemini. ChatGPT basiert auf Token und kostet 0,125 $ pro Million Token, während Gemini auf Zeichen basiert und 0,125 $ pro Million Zeichen für die Ein

7. März 2024

AI Full Stack mit Open Source realisieren Im Ökosystem der künstlichen Intelligenz tauchen immer mehr Open-Source-LLM-Modelle (Large Language Models) auf. Modelle wie Mistral, Llama und phi-2 mit leistungsstarker Performance und einer Open-Source-Lizenz wurden veröffentlicht und es werden ständig
RevFactory
RevFactory
RevFactory
RevFactory

5. Februar 2024

Snowflake bringt mit 'Arctic' ein branchenführendes, offenes Enterprise-LLM auf den Markt Snowflake hat das Open-Source-Large Language Model 'Arctic' veröffentlicht. Es steht unter der Apache 2.0-Lizenz zur kostenlosen kommerziellen Nutzung zur Verfügung und bietet branchenführende Leistung und Effizienz. Es zeichnet sich durch hervorragende T
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25. April 2024

Das Paradoxon der führenden KI-Modelle: Transparenz Der Mangel an Transparenz bei hochmodernen KI-Systemen ist zu einem ernsten Problem geworden. Forscher der Stanford University haben 10 KI-Systeme, darunter GPT-4, analysiert und festgestellt, dass kein Modell Informationen wie Datenherkunft, Trainingsmet
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14. Mai 2024

Google Gemini Ultra auf Smartphones Google plant, sein nächstes Smartphone mit dem cloudbasierten KI-Modell „Gemini Ultra“ auszustatten. Durch Fortschritte in der LLM-Komprimierungstechnik kann die Ausführung auf Geräten ermöglicht werden, wodurch die Smartphone-Funktionen deutlich erweiter
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1. April 2024

Was ist ein LLM (Large Language Model)? Große Sprachmodelle (LLMs) sind ein zentrales Element der künstlichen Intelligenz. Sie werden mit riesigen Textdaten trainiert und entwickeln so Sprachverarbeitungsfähigkeiten, die denen des Menschen ähneln. LLMs können in verschiedenen Bereichen eingeset
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1. April 2024

SK C&C stellt Plattform „Soluer LLMOps“ für die Implementierung von kundenspezifischen sLLM vor SK C&C hat die Plattform „Soluer LLMOps“ für die Erstellung von kundenspezifischen kleinen Sprachmodellen (sLLM) veröffentlicht. Diese Plattform ermöglicht die einfache Erstellung von sLLM per Drag-and-Drop mit verschiedenen Foundation-Modellen wie ChatGP
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

20. Mai 2024