해리슨 블로그

Googles LLM-Preiskampf

  • Verfasst in: Koreanisch
  • Land: Alle Ländercountry-flag
  • IT

Erstellt: 2024-08-02

Erstellt: 2024-08-02 11:24

Google hat in der vergangenen Nacht eine Preissenkung für Gemini Flash angekündigt. Die Ankündigung beinhaltete eine Preissenkung von bis zu 85%.

Ich glaube, ich habe in letzter Zeit etwa 5 Beiträge zum Thema Preissenkung geschrieben... Man kann sagen, dass die Preise in dieser Zeit entsprechend gesunken sind.

Vor ein paar Tagen Preissenkung einen Beitrag veröffentlicht, und schon ein paar Tage später gab es eine weitere Preissenkung.

Der folgende Text befasst sich mit den neu gesenkten Preisen.

Das zugehörige Google-Dokument lautet wie folgt:

Ich habe in letzter Zeit so viele Beiträge zum Thema Preis veröffentlicht, dass ich nun alles zusammenfassen und eine Weile keine weiteren Beiträge zu diesem Thema mehr verfassen möchte. Daher werde ich nun eine Zusammenfassung geben.

Anfang letzten Jahres lag der Preis für Davinci, ein Produkt von OpenAI, das zum GPT-3-Produkt gehört, bei satten 2 US-Dollar pro 1 Million Tokens für Input/Output.

Der neu gesenkte Preis von Googles Gemini Flash beträgt 0,01875 US-Dollar bzw. 0,075 US-Dollar für I/O. Bezogen auf den Input ist der Preisunterschied enorm, nämlich das 100-fache. Das bedeutet, dass der Preis auf ein Hundertstel gesunken ist. (Bei Verwendung von Batch Prediction vergrößert sich dieser Unterschied sogar auf das 200-fache.)

Und wie sieht es mit der Leistung aus? Es ist fast schon unfair, die beiden zu vergleichen, da der Unterschied so groß ist. Flash ist ein LLM, das in verschiedenen Bereichen zu den Top-LLMs gehört (ohne Flagship) und standardmäßig mehrsprachig ist, während Davinci damals selbst mit der koreanischen Sprache (Koreanisch) zu kämpfen hatte.


Es ist bemerkenswert, wie schnell sich in dieser Branche ein Preiskampf entwickelt und zu Preissenkungen führt.

Die Preise sinken alle drei Monate um fast die Hälfte. Als ich letztes Jahr mit durumis (ドゥルミス) angefangen habe, war ich mir bezüglich der Übersetzungskosten etwas unsicher. Aber da Google damals auch schon die Preise senkte, dachte ich mir: „Google wird das schon regeln.“ Und tatsächlich hat Google es geschafft.

Im Bereich der LLMs müssen wir uns jetzt fast keine Gedanken mehr über die Kosten machen und können Funktionen nach Belieben hinzufügen.

Ob die Preise auch in Zukunft weiter sinken, ist unklar. Aber selbst mit den aktuellen Preisen können wir so gut wie alles umsetzen, was wir uns vorstellen.

Ich hoffe, Sie können durumis (ドゥルミス) mit Spannung entgegenblicken und sich auf seine weitere Entwicklung freuen..


Kommentare0