Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

해리슨 블로그

Pubblicazione di OpenELM di Apple / Phi-3 di MS / Llama 3 di Meta

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • Apple, Microsoft e Meta, tra le principali aziende Big Tech, stanno suscitando grandi cambiamenti nel settore dell'IA con la recente pubblicazione di nuovi modelli linguistici di grandi dimensioni.
  • Le aziende stanno presentando modelli distintivi in ​​diversi modi, tra cui la riduzione delle dimensioni dei modelli, l'ottimizzazione dei dati/algoritmi e il miglioramento della comprensione del contesto.
  • In particolare, OpenELM di Apple è stato sviluppato per dispositivi di piccole dimensioni, mentre Llama 3 di Meta, grazie alla sua struttura di modello efficiente, offre prestazioni eccezionali pur essendo di dimensioni ridotte.

I recenti rilasci dei modelli linguistici di grandi dimensioni degni di nota

Nelle ultime settimane, le principali società di Big Tech come Apple, Microsoft e Meta hanno rilasciato nuovi modelli linguistici di grandi dimensioni, suscitando un notevole clamore nel settore dell'IA. Diamo uno sguardo più approfondito alle principali caratteristiche e al significato di questi modelli recentemente rilasciati.

OpenELM di Apple

Il 25 aprile, Apple ha presentato la propria linea di modelli linguistici OpenELM di sua progettazione. Comprende quattro diversi modelli di dimensioni: 0.27B, 0.45B, 1.08B e 3.04B. Il modello più grande ha solo 3 miliardi di parametri, il che lo rende relativamente piccolo. Considerando che la maggior parte dei modelli linguistici di grandi dimensioni ha almeno 3 miliardi di parametri, OpenELM ha dimensioni molto piccole.
Questo perché Apple ha sviluppato OpenELM con l'obiettivo di utilizzarlo principalmente su dispositivi di piccole dimensioni. In passato, l'aumento del numero di parametri era il principale metodo per ottenere prestazioni elevate, ma di recente c'è una tendenza a concentrarsi sulla miniaturizzazione e sulla leggerezza. In questa occasione, Apple ha aumentato la trasparenza rilasciando non solo i pesi del modello e il codice di inferenza, ma anche il set di dati e il framework.

Serie Phi-3 di MS

Microsoft ha anche presentato il modello Phi-3 Mini (3.8 miliardi di parametri) il 23 aprile, e prevede di rilasciare anche Phi-3 Small (7 miliardi di parametri) e Phi-3 Medium (14 miliardi di parametri) in futuro. Phi-3 Mini è un modello open source che chiunque può utilizzare liberamente per scopi commerciali. Tutti i nuovi modelli della serie Phi-3 saranno disponibili tramite il servizio cloud Azure di MS.

Llama 3 di Meta

Meta (ex Facebook) ha presentato le versioni 8B e 70B del modello Llama 3 il 18 aprile, e prevede di rilasciare la versione più grande da 400B in estate. In particolare, il modello 8B ha ricevuto il plauso della community di sviluppatori per le sue prestazioni eccezionali, considerando le dimensioni ridotte.
Si ritiene che ciò sia dovuto al fatto che Meta ha investito un'enorme quantità di dati di addestramento per costruire una struttura di modello efficiente. Possiamo dire che il risultato è stato ottenuto concentrandosi sull'ottimizzazione dei dati e degli algoritmi invece di aumentare il numero di parametri.

Grok 1.5 di xAI

Il modello Grok 1.5 di xAI, annunciato il 38 marzo, è in grado di gestire token di contesto lungo fino a 128K, consentendo prompting complesso e lungo. Mentre la tendenza nello sviluppo dei modelli linguistici finora si è concentrata sull'aumento delle dimensioni dei parametri, Grok 1.5 propone un nuovo orientamento, ovvero il miglioramento della comprensione dei contesti lunghi.

⁠⁠⁠⁠⁠⁠⁠
Con il lancio di nuovi modelli linguistici di grandi dimensioni da parte di aziende leader come Apple, MS e Meta, l'evoluzione della tecnologia AI sta divenendo sempre più diversificata. Si stanno verificando nuovi tentativi in ​​vari aspetti, tra cui la riduzione delle dimensioni dei modelli e la loro leggerezza, l'ottimizzazione dei dati/algoritmi e il rafforzamento della comprensione del contesto. Sarà interessante osservare come evolverà l'ecosistema AI in futuro.

해리슨
해리슨 블로그
해리슨의 깜짝 블로그
해리슨
Prezzi di Gemini 1.5 Flash, GPT-4o e altri LLM Confronto delle prestazioni e dei prezzi dei modelli AI più recenti come GPT-4o, Gemini 1.5 Pro, Claude 3 Haiku, Gemini 1.5 Flash. Ti mostreremo come scegliere il modello giusto per te. Considera le dimensioni del token di input, il rapporto di output, la

18 maggio 2024

Servizi AI degni di nota di recente Presentiamo alcuni servizi AI di recente fama e degni di nota. A parte ChatGPT e Gemini, abbiamo raccolto alcuni servizi che possono migliorare l'efficienza lavorativa, tra cui NotebookLM e Perplexity AI. NotebookLM è un servizio offerto da Google che con

23 giugno 2024

Confronto prezzi tra Claude 3 e Gemini Ora è possibile utilizzare il modello Anthropic Claude 3 Haiku su GCP e, dopo averlo valutato utilizzando RAG di H2O.ai, si è scoperto che offre prestazioni superiori al prezzo rispetto a Gemini. In base al costo di input e output per milione di token, Cl

7 aprile 2024

Cos'è un modello linguistico di grandi dimensioni (LLM)? I modelli linguistici di grandi dimensioni (LLM) sono una tecnologia di base dell'intelligenza artificiale che impara da un'enorme quantità di dati di testo per acquisire capacità di elaborazione del linguaggio simili a quelle umane, e possono essere util
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 aprile 2024

AI Full Stack completo con Open Source Nel panorama dell'intelligenza artificiale stanno emergendo sempre più modelli LLM (Large Language Model) open source. Modelli come Mistral, Llama e phi-2, con prestazioni elevate e licenze open source, sono stati rilasciati, e contemporaneamente vengono
RevFactory
RevFactory
RevFactory
RevFactory

5 febbraio 2024

Snowflake lancia 'Arctic', un LLM aziendale con un'apertura di livello superiore Snowflake ha lanciato 'Arctic', un modello linguistico di grandi dimensioni open source. Arctic è disponibile per uso commerciale gratuito con licenza Apache 2.0 e vanta prestazioni ed efficienza di livello superiore nel settore. Offre un'eccellente effic
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 aprile 2024

Integrazione di Google Gemini Ultra negli smartphone Google ha annunciato che integrerà il suo modello AI dedicato al cloud "Gemini Ultra" nei suoi smartphone del prossimo anno. I progressi nella tecnologia di compressione LLM hanno reso possibile l'esecuzione su dispositivo, aprendo la strada a un'espansio
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 aprile 2024

Confronto tra Gemini 1.5 e 1.5 Pro (con esempi) Gemini 1.5 Pro è un modello AI più potente di Gemini 1.5 e può essere utilizzato per una varietà di attività, tra cui l'analisi del codice, la generazione automatica di test unitari, la conversione del codice e altro ancora. È particolarmente adatto per l
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증
Unusual Curiosity: 흔치 않은 궁금증

28 giugno 2024

Snowflake, rapporto sulle tendenze dei dati 2024: gli sviluppatori di AI creano in media 90 app al giorno Secondo un'indagine condotta su oltre 9.000 clienti, Snowflake ha rilevato che la quota di chatbot tra le app LLM è aumentata, i sviluppatori preferiscono Python e la quantità di dati non strutturati gestiti è in crescita. Scopri di più nel rapporto sulle
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

16 maggio 2024