Spanisches Startup schrumpft KI für dein Smartphone

Kann dein Smartphone bald leistungsstarke KI-Modelle ausführen? Das spanische Startup Multiverse Computing hat eine Technologie entwickelt, die LLMs um bis zu 95 % komprimiert. Das könnte die Art und Weise, wie wir KI auf mobilen Geräten nutzen, fundamental verändern.

In einer Zeit, in der KI-Modelle immer größer werden und Rechenzentren an ihre Grenzen stoßen, steht die breite Integration auf kleineren Geräten vor erheblichen Hürden. Traditionelle Large Language Models (LLMs) erfordern spezialisierte, teure Infrastruktur und sind für Smartphones oder andere mobile Geräte schwer zu betreiben. Hier setzt das spanische Startup Multiverse Computing an. Mit seiner revolutionären Technologie namens CompactifAI könnten diese Beschränkungen bald der Vergangenheit angehören, was eine neue Ära für KI auf Edge-Geräten einläutet.

Multiverse Computing, globaler Marktführer in der Quanten-inspirierten Kompression von KI-Modellen, sicherte sich 215 Millionen US-Dollar, um seine bahnbrechende CompactifAI-Technologie zu skalieren.

CompactifAI ist die Schlüsseltechnologie von Multiverse Computing und ermöglicht eine Reduzierung der LLM-Größe um bis zu 95 %, ohne die Leistung zu beeinträchtigen. Das ist eine signifikante Abweichung von herkömmlichen Kompressionstechniken wie Quantisierung oder Pruning, die oft zu einer erheblichen Leistungsverschlechterung führen. Die innovative Methode von CompactifAI stellt sicher, dass die komprimierten Modelle ihre Funktionalität und Genauigkeit behalten, was sie für eine Vielzahl von Anwendungen attraktiv macht.

Die durch CompactifAI komprimierten Modelle sind nicht nur kleiner, sondern auch erheblich schneller. Sie erreichen Verarbeitungsgeschwindigkeiten, die 4- bis 12-mal höher sind als bei nicht komprimierten Modellen. Dies führt zu einer drastischen Senkung der Inferenzkosten um 50-80 %. Ein Beispiel ist das Llama 4 Scout Slim-Modell auf AWS, dessen Kosten pro Million Token von 14 auf 10 Cent sinken.

„Diese Technologie verändert das Spiel. Sie bringt KI-Modelle auf Geräte, wo sie bisher undenkbar waren.“

Die breite Anwendbarkeit der Technologie ist ein zentraler Vorteil. Die komprimierten Modelle laufen nicht nur in der Cloud, sondern direkt auf Geräten wie Smartphones, PCs, Autos und sogar einem Raspberry Pi. Diese Flexibilität erlaubt die Integration fortschrittlicher KI in eine Vielzahl von Geräten, die zuvor die nötige Rechenleistung und den Speicher nicht besaßen. Multiverse Computing ermöglicht so neue Anwendungsfälle für KI.

Die Finanzierungsrunde, angeführt von Bullhound Capital, wurde von renommierten Investoren wie HP Tech Ventures, SETT und Toshiba unterstützt. Diese starke Unterstützung unterstreicht das globale Potenzial und die Zukunftsfähigkeit der Technologie von Multiverse Computing und signalisiert großes Vertrauen in die Vision des Unternehmens, KI allgegenwärtig zu machen.