Die Einführung und optimale Nutzung von Künstlicher Intelligenz (KI) ist für Unternehmen weiterhin herausfordernd. Nicht jedes KI-Tool wird in seinen Möglichkeiten vollständig genutzt; u. a. auch, weil nicht alle für die geschäftlichen Abläufe dienlich sind. IBM verfolgt daher die Strategie kleinere, spezialisierte KI für Unternehmen bereitzustellen: Erfolgreich.
Ende Februar stellte IBM die neueste Generation seiner Large-Language-Model (LLM)-Familie vor: Granite 3.2. Mit dieser setzt IBM seine Bemühungen fort, kleine und effiziente KI für Unternehmen zu entwickeln, die sich bereits in der Praxis bewährt haben. Die kleinen KI-Modelle verfügen dabei über Reasoning-, Vision- und Guardrail-Funktionen in einer entwicklerfreundlichen Lizenz. Zudem ermöglichen die aktualisierten Granite-Zeitreihenmodelle Langzeitprognosen mit weniger als 10 Mio. Parametern.
Die Granite 3.2-Modelle – Highlights
Alle Modelle der Granite 3.2-Familie sind unter der freien Apache 2.0 Lizenz auf Hugging Face verfügbar. Daneben befinden sich ausgewählte Modelle auch auf IBM watsonx.ai, Ollama, Replicate und LM Studio. Zudem werden sie in Kürze auch auf RHEL AI 1.5 erwartet. Folglich verfügen Unternehmen und die Open-Source-Community damit über erweiterte Funktionen.
Als Highlights gibt IBM die folgenden an:
- Ein neues Bildverarbeitungs-Sprachmodell für Aufgaben zum Verstehen von Dokumenten.
Dieses zeigt bei den wesentlichen Unternehmensbenchmarks (DocVQA, ChartQA, AI2D und OCRBench), eine Leistung, die der von wesentlich größeren Modellen – wie Llama 3.2 11B und Pixtral 12B – entspricht oder diese übertrifft. Zudem nutzte IBM – zusätzlich zu den robusten Trainingsdaten – sein eigenes Open-Source-Toolkit Docling, um 85 Mio. PDFs zu verarbeiten. Überdies wurden 26 Mio. synthetische Frage-Antwort-Paare generiert, um die Fähigkeit des VLM zu verbessern, komplexe dokumentenlastige Workflows zu verarbeiten. - Chain-of-Thought-Funktionen für verbessertes Reasoning in den Modellen 3.2 2B und 8B. Wobei die Möglichkeit besteht, das Reasoning ein- oder auszuschalten, um die Effizienz zu optimieren. Das 8B-Modell erreicht durch diese Fähigkeit eine zweistellige Verbesserung gegenüber seinem Vorgänger bei anweisungsgebundenen Benchmarks (z. B. ArenaHard und Alpaca Eval), ohne dass die Sicherheit oder Leistung an anderer Stelle beeinträchtigt wird. Zudem ist die Kalibrierung des Modell mit Hilfe neuartiger Inferenz-Skalierungsmethoden so vornehmbar, dass es mit der Leistung viel größerer Modelle – wie Claude3.5-Sonnet oder GPT-4o bei mathematischen Benchmarks wie AIME2024 und MATH500 – mithalten kann.
- Eine verschlankte Größe der Granite Guardian-Modelle um 30 Prozent. Jedoch haben sie die Leistung der früheren Granite 3.1 Guardian-Modelle beibehalten. Außerdem bieten die 3.2-Modelle eine neue Funktion: verbalisiertes Vertrauen. Diese ermöglicht eine differenzierte Risikobewertung und beachtet Mehrdeutigkeiten bei der Sicherheitsüberwachung.
Kleine, spezialisierte KI-Modelle für Unternehmen
Die IBM-Strategie kleinere, spezialisierte KI-Modelle für Unternehmen bereitzustellen hat sich in den Tests als wirksam erwiesen. So hat das Granite 3.1 8B-Modell kürzlich im Salesforce LLM Benchmark für CRM hohe Genauigkeitsnoten erzielt. Allgemein wird die Granite-Modellfamilie von einem robuste Ökosystem von Partnern unterstützt. Darunter befinden sich auch führende Softwareunternehmen, die Granite-Modelle in ihre Technologien einbetten.
„Bei CrushBank haben wir aus erster Hand erfahren, wie die offenen, effizienten KI-Modelle von IBM einen echten Mehrwert für Unternehmens-KI liefern – sie bieten das richtige Gleichgewicht zwischen Leistung, Kosteneffizienz und Skalierbarkeit“, so David Tan, CTO, CrushBank. „Granite 3.2 geht mit neuen Argumentationsfähigkeiten noch einen Schritt weiter, und wir freuen uns darauf, diese beim Aufbau neuer agentenbasierter Lösungen zu nutzen.“
Sowohl im Hinblick auf die Strategie von IBM – kleine, praxistaugliche KI für Unternehmen bereitzustellen – als auch auf das Portfolio, stellt Granite 3.2 einen wichtigen Entwicklungsschritt dar. So sind die „Chain-of-Thought“-Ansätze für das schlussfolgernde Denken zwar leistungsfähig, erfordern aber eine erhebliche Rechenleistung, die nicht für jede Aufgabe notwendig ist. Aus diesem Grund hat IBM die Option eingeführt, diese programmatisch ein- bzw. ausschalten zu können. Folglich wird unnötiger Rechenaufwand vermieden, wenn es sich um einfachere Aufgaben handelt, da das Modell in diesem Fall ohne Schlussfolgerungen arbeitet. Bei anderen Schlussfolgerungstechniken (z. B. Skalierung von Schlussfolgerungen) zeigte sich zudem, dass das Granit 8B-Modelle die Leistung viel größerer Modelle bei Standard Benchmarks für mathematische Schlussfolgerungen erreichen oder übertreffen kann. Die weitere Entwicklung von Methoden, z. B. der Inferenzskalierung, bleibt für die IBM-Forscherteams weiterhin ein Schwerpunkt.
Nächste Generation TinyTimeMixers (TTM)-Modelle
Außerdem bringt IBM neben den Granite 3.2 Instruct-, Vision- und Guardrail-Modellen die nächste Generation seiner TinyTimeMixers (TTM)-Modelle (unter 10 Mio. Parameter) auf den Markt. Diese ermöglichen längerfristige Prognosen, welche bis zu zwei Jahre in die Zukunft reichen. Die Modelle sind besonders starke Werkzeuge, um langfristige Trendanalysen vorzunehmen – einschließlich Finanz- und Wirtschaftstrends, Nachfrageprognosen für Lieferketten und saisonale Bestandsplanung im Einzelhandel.
„In der nächsten Ära der KI geht es um Effizienz, Integration und reale Auswirkungen – Unternehmen können leistungsstarke Ergebnisse erzielen, ohne übermäßig viel Geld für Datenverarbeitung auszugeben“, sagt Sriram Raghavan, VP, IBM AI Research. „Die jüngsten Granite-Entwicklungen von IBM, die sich auf offene Lösungen konzentrieren, sind ein weiterer Schritt, um KI für heutige Unternehmen zugänglicher, kostengünstiger und wertvoller zu machen.“