Willkommen! Mein Name ist Michael Rifkin. Ich komme aus Wulfsen (Landkreis Harburg). In einem Alter von sieben Jahren durfte ich zum ersten Mal vor einem Computer sitzen und war sofort von den digitalen Möglichkeiten begeistert. Damals gab es Computer eigentlich nur in großen Rechenzentren und Internet war für die meisten noch…
-
-
Genauigkeit vs. Geschwindigkeit: Die richtige Balance für ein RAG-System
Bei der Entwicklung von NLP-Anwendungen (Natural Language Processing) wie Frage-Antwort-Systemen, Chatbots oder semantischer Suche stellt sich oft eine zentrale Frage: Wie finde ich die richtige Balance zwischen Modellgenauigkeit und Antwortgeschwindigkeit? Größer ist nicht immer besser Grundsätzlich gilt: Je größer und komplexer ein Transformer-Modell, desto höher ist in der Regel auch…
-
Open-Source-Transformer-Modelle für präzise Antworten in RAG-Systemen
In der Welt der KI-gestützten Informationsverarbeitung spielt die präzise Beantwortung von Fragen eine zentrale Rolle – besonders bei Retrieval-Augmented Generation (RAG). Eine Schlüsselkomponente solcher Systeme sind Transformer-Modelle, die nach dem Abrufen relevanter Textstellen aus einer Vektordatenbank zum Einsatz kommen. Die Rolle von Transformer-Modellen in RAG In einer RAG-Pipeline besteht der…
-
Auswahl und Integration einer Open-Source-Vektordatenbank für große Datenmengen
Was ist eine Vektordatenbank und warum ist sie wichtig? Vektordatenbanken speichern sogenannte „Vektoren“. Das sind Zahlenlisten, die den Inhalt von Texten oder Bildern beschreiben. Diese Technik wird zum Beispiel bei Chatbots oder Suchsystemen mit Künstlicher Intelligenz (KI) verwendet. Wenn man viele Dokumente hat, hilft eine Vektordatenbank dabei, schnell die Inhalte…
-
Optimierung der Geschwindigkeit der Embedding-Generierung
Bei der Entwicklung moderner NLP-Anwendungen, insbesondere im Bereich der Retrieval-Augmented Generation (RAG) oder semantischen Suche, ist die Generierung von Text-Embeddings ein zentraler Bestandteil. Doch bei großen Datenmengen kann dieser Prozess schnell zu einem Engpass werden. In diesem Beitrag zeige ich praxisnahe Strategien zur Optimierung der Embedding-Geschwindigkeit, ohne die Modellqualität aus…
-
Warum die Datenaufbereitung wichtiger ist als das LLM bei der Dokumentenverarbeitung mit KI
Einleitung Künstliche Intelligenz (KI) verändert, wie Unternehmen mit Dokumenten arbeiten. Besonders große Sprachmodelle (LLMs) helfen dabei, Texte zu verstehen und Fragen zu beantworten. Viele glauben, dass das beste LLM-Modell die besten Ergebnisse liefert. Doch in Wirklichkeit ist etwas anderes viel wichtiger: die richtige Aufbereitung der Daten. Die Herausforderung unstrukturierter Daten…
-
Was ist OpenIE
Die Welt ist voller unstrukturierter Daten. Von Artikeln, Blogs, sozialen Medien bis hin zu wissenschaftlichen Berichten – ein Großteil der wertvollen Informationen liegt in Form von Text vor. Aber wie können wir aus diesen Daten konkrete Fakten und Beziehungen extrahieren? Hier kommt OpenIE (Open Information Extraction) ins Spiel, eine Methode,…
-
Text2sql – Warum-es-nur-eine-80-loesung-sein-kann
Die Automatisierung von SQL-Abfragen durch Text2SQL-Technologien ist eine vielversprechende Entwicklung. Mithilfe von KI und großen Sprachmodellen (LLMs) wie GPT können Business-Nutzer natürliche Spracheingaben verwenden, um SQL-Abfragen zu generieren. Doch trotz der beeindruckenden Fortschritte gibt es Grenzen, die diese Technologie aktuell zu einer 80%-Lösung machen. Dieser Artikel beleuchtet die wichtigsten Herausforderungen…
-
Explainable AI: Nachvollziehbare Antworten mit GraphRAG
Explainable AI: Nachvollziehbare Antworten mit GraphRAG Die rasante Entwicklung von Künstlicher Intelligenz (KI) und insbesondere von großen Sprachmodellen (LLMs) wie ChatGPT hat in vielen Bereichen neue Möglichkeiten eröffnet. Doch trotz ihrer beeindruckenden Fähigkeiten gibt es ein zentrales Problem: die Nachvollziehbarkeit der Antworten. Warum ist das wichtig, und wie können Technologien…
-
Tokens und Chunks: Was sind sie und wozu werden sie in LLMs verwendet?
Große Sprachmodelle (LLMs) wie GPT arbeiten mit Textdaten, um Aufgaben wie das Verfassen von Texten, das Beantworten von Fragen oder die Übersetzung von Sprachen zu bewältigen. Dabei spielen die Begriffe „Tokens“ und „Chunks“ eine zentrale Rolle. In diesem Blogeintrag erklären wir, was es damit auf sich hat und warum sie…
-
CAG: Effizienzsteigerung für KI-gestützte Systeme
Wie funktioniert CAG (RAG using Cache) überhaupt? CAG kombiniert die Grundidee von RAG mit einem Zwischenspeicher (Cache), der häufig abgefragte oder berechnete Informationen speichert. Dadurch können wiederholte Datenbankabfragen oder Berechnungen vermieden werden. Die Haumptmerkmale eines CAG Bevor wir über die Funktionsweise eines CAG sprechen, möchte ich dir drei Begriffe in…