Nota AI reduziert den Speicherbedarf des Solar LLM von Upstage um 72 % und demonstriert seine firmeneigene Quantisierungstechnologie
^
EQS-News: Nota AI / Schlagwort(e): Produkteinführung
Nota AI reduziert den Speicherbedarf des Solar LLM von Upstage um 72 % und
demonstriert seine firmeneigene Quantisierungstechnologie
06.03.2026 / 08:05 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Der neue Ansatz "Nota AI MoE Quantization" erhält die Modellleistung und
verbessert die Speichereffizienz deutlich
SEOUL, Südkorea, 6. März 2026 /PRNewswire/ Nota AI, ein Unternehmen für
KI-Optimierungstechnologie, gab bekannt, eine Quantisierungstechnologie der
nächsten Generation entwickelt zu haben, mit der sich die Größe von Solar,
einem von Upstage entwickelten leistungsstarken großen Sprachmodell (LLM),
deutlich komprimieren lässt, ohne die hohe Genauigkeit zu beeinträchtigen.
Dieser Durchbruch senkt die Inferenzkosten und erhöht die
Verarbeitungsgeschwindigkeit, ohne Abstriche bei der Leistung.
Nota AI Reduces Memory Usage of Upstage's Solar LLM by 72%, Demonstrating Proprietary Quantization
Technology
Die Entwicklung wurde im Rahmen des "Sovereign AI Foundation Model Project"
unter der Leitung des südkoreanischen Ministeriums für Wissenschaft und IKT
durchgeführt. Durch den Einsatz der Verschlankungs- und
Optimierungstechnologien von Nota AI bei Solar Open 100B verbesserte das
Unternehmen die Speichereffizienz deutlich, ohne Einbußen bei der
Modellleistung. Das Ergebnis senkt den Speicherbedarf des
100B-Parameter-Modells bei gleichbleibender Leistungsfähigkeit und
ermöglicht einen praxisnäheren Einsatz koreanischer KI-Grundmodelle in
Bereichen physischer KI wie Mobilität und Robotik.
Die neu entwickelte Technologie konzentriert sich auf technische
Herausforderungen im Zusammenhang mit der Mixture-of-Experts
(MoE)-Architektur, die sich bei LLMs der nächsten Generation rasch
durchsetzt. Herkömmliche Quantisierungsmethoden komprimieren in der Regel
das gesamte Modell gleichmäßig, ohne die unterschiedlichen Eigenschaften der
einzelnen Expertenmodelle zu berücksichtigen. Um diese Einschränkung zu
überwinden, hat Nota AI einen firmeneigenen, für MoE-Architekturen
optimierten Algorithmus namens "Nota AI MoE Quantization" entwickelt.
Der Ansatz wurde entwickelt, um Quantisierungsverzerrungen während des
Inferenzprozesses von MoE-Modellen zu minimieren. Im Gegensatz zu
konventionellen Methoden, die über alle Operationen hinweg die Präzision
gleichmäßig reduzieren, bewahrt der Algorithmus von Nota AI die Präzision in
kritischen Komponenten, während er weniger empfindliche Teile des Modells
komprimiert. Dies ermöglicht eine effektive Modellkomprimierung bei
gleichzeitiger Minimierung der Leistungseinbußen.
Die Anwendung der Technologie auf das Modell Solar 100B führte zu
erheblichen Verbesserungen im Vergleich zu herkömmlichen
Quantisierungsmethoden. Nota AI senkte den Speicherbedarf von Solar von
191,2 GB auf 51,9 GB, was einer Reduktion um 72,8 % entspricht. Gleichzeitig
konnte das Modell ein mit der ursprünglichen Version vergleichbares
Leistungsniveau beibehalten und erreichte einen Perplexitätswert (PPL) von
6,81, der nahe am Wert des Basismodells von 6,06 lag. Im Gegensatz dazu
führten einige generische Quantisierungsansätze zu einer
Leistungsverschlechterung um mehr als das Fünffache. Nota AI hat für diese
Technologie eine Patentanmeldung eingereicht, um sein Portfolio an geistigem
Eigentum zu stärken.
Während herkömmliche Quantisierungstechniken oft Modellleistung opfern, um
den Speicherbedarf zu senken, zeigt die Technologie von Nota AI, dass sich
die Leistung erhalten lässt und zugleich KI-Dienste schneller sowie für mehr
Nutzer mit begrenzten GPU-Ressourcen bereitgestellt werden können.
Infolgedessen können Unternehmen große LLMs leichter auf eigenen Geräten
bereitstellen - Modelle, die zuvor aufgrund von Hardwarebeschränkungen
schwer umzusetzen waren.
Die deutliche Verringerung des Speicherbedarfs von Solar 100B bei
gleichbleibender Leistung eröffnet zudem neue Möglichkeiten, leistungsstarke
KI in realen Einsatzumgebungen direkt auf Geräten bereitzustellen, etwa in
Robotik- und Fahrzeugsystemen. Zusätzlich ermöglicht die Technologie
Unternehmen mit begrenztem Zugang zu leistungsstarker GPU-Infrastruktur,
mehr Nutzer auf derselben Hardware zu bedienen und so die Betriebskosten
direkt zu senken.
"Dieser Erfolg ist bedeutsam, weil wir die firmeneigene
Quantisierungstechnologie von Nota AI auf Solar 100B, ein koreanisches
KI-Grundmodell, anwenden und den Speicherbedarf bei gleichbleibender
Leistung deutlich senken konnten", sagt Myungsu Chae, Geschäftsführer von
Nota AI. "Da die Nachfrage wächst, große Modelle direkt auf Geräten
bereitzustellen, werden die Verschlankungs- und Optimierungstechnologien von
Nota AI eine entscheidende Rolle dabei spielen, leistungsstarke KI zu
ermöglichen."
Foto - https://mma.prnewswire.com/media/2926544/PR__Solar_NotaAI_260220.jpg
Cision View original content:
https://www.prnewswire.com/de/pressemitteilungen/nota-ai-reduziert-den-speicherbedarf-des-solar-llm-von-upstage-um-72und-demonstriert-seine-firmeneigene-quantisierungstechnologie-302706446.html
06.03.2026 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht,
übermittelt durch EQS News - ein Service der EQS Group.
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate
News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen:
https://eqs-news.com/?origin_id=d548587d-192a-11f1-8534-027f3c38b923&lang=de
2286868 06.03.2026 CET/CEST
°