Entschlüsselung von IDP: 52 Definitionen im Intelligent Document Processing Kontext 2/4 – Technologie

Intelligent Document Processing Technologien

Willkommen zum 2. Teil unserer 4-teiligen Blogserie mit dem Titel „52 Definitionen im Intelligent Document Processing Kontext“.

Im 2. Teil tauchen wir in die entscheidenden technologischen Aspekte ein, die es den Intelligent Document Processing (IDP) Systemen befähigen, Verarbeitung von Dokumenten zu revolutionieren. In den weiteren Teilen werden andere wesentliche Aspekte wie Metriken (1), Deployment (3) und Industrien (4) im Zusammenhang mit IDP behandelt. Begleiten Sie uns, während wir die faszinierende Welt der IDP-Technologie erkunden und ihre transformative Wirkung auf Produktivität, Datenextraktion und Geschäftsabläufe aufdecken. Bleiben Sie dran für weitere aufschlussreiche Artikel in dieser Serie!

Barcode Recognition

Die Barcode Recognition identifiziert Barcodes aus Eingabedateien, wie Dokumenten und Bildern.

Capture

Capture kann als Software definiert werden, die Informationen in Geschäftsprozesse einliest, inklusive Erfassung, Klassifizierung und Umwandlung von unstrukturierten und teilstrukturierten Informationen in erweiterte nutzbare Daten. Sie erkennt und extrahiert sinnvolle, genaue und nutzbare Informationen aus mehrkanaligen Eingaben. Sie kann auch als erste Phase der Dokumentenverarbeitung betrachtet werden, die das Erkennen von Eingaben umfasst.

Classification

Classification ist der Prozess der Kategorisierung von Dokumenten und ihrer Sortierung in vortrainierte Dokumentenklassen basierend auf Layout und Inhalt.

Data Augmentation

Data Augmentation ist ein vollautomatischer Prozess, der mehr Varianz für das Training schafft und den Bedarf an umfangreicher Datenbereitstellung reduziert. Es handelt sich um eine Machine Learning-Methode, die dazu dient, Overfitting beim Training eines Machine Learning-Modells zu mildern, indem Modelle auf leicht modifizierten Kopien von bestehenden Daten trainiert werden.

Data Extraction

Data Extraction bezieht sich auf den Prozess des Abrufens von Daten aus typischerweise unstrukturierten oder schlecht strukturierten Datenquellen zur weiteren Datenverarbeitung oder -speicherung.

Data Fields

Data Fields beziehen sich auf die Schlüsselelemente, die aus strukturierten Dokumenten während der automatischen Datenextraktion extrahiert werden. Dieser Begriff wird meist im Kontext der Formularverarbeitung oder Tabellenextraktion verwendet.

Data Ingestion

Data Ingestion bezieht sich hauptsächlich auf den Prozess des Sammelns, Importierens und Ladens von Daten aus verschiedenen Quellen in ein Speichersystem oder eine Datenverarbeitungsplattform. Mögliche Methoden umfassen Echtzeitdatenaufnahme und Stapelverarbeitung.

Data Labeling

Data Labeling (oder Data Annotation) beinhaltet den Prozess des Hinzufügens von Metadaten, Attributen oder anderen Anmerkungen zu Rohdaten, um deren Nutzen für Machine Learning zu erhöhen. Dieser Prozess umfasst Aufgaben wie Beschriftung, Objekterkennung, Erstellung von Bounding Boxes, Textkategorisierung, Sentimentanalyse oder jede Aufgabe, bei der zusätzliche Informationen hinzugefügt werden, um mehr Kontext oder Struktur zu bieten.

Data Validation

Data Validation ist der Prozess der Überprüfung extrahierter Daten auf mehrere Genauigkeitspunkte, inklusive ob die korrekten Daten extrahiert wurden und ob die extrahierten Daten selbst korrekt sind. Dies kann manuell (Human in the Loop) oder automatisch (gegen eine Datenbank oder Regeln) erfolgen.

Deep Learning

Deep Learning ist Teil der breiteren Familie der Machine Learning-Methoden, basierend auf künstlichen neuronalen Netzen mit repräsentativem Lernen. Es ermöglicht Maschinen die Verarbeitung großer Informationsmengen und die Ausführung komplexerer Aufgaben.

Document Splitting

Document Splitting erfolgt oft zusammen mit Document Classification. Dabei wird Machine Learning verwendet, um Dokumente in kleinere Batches oder Seiten zu teilen.

Entity Extraction

Entity Extraction (auch bekannt als Entity Recognition) ist eine Teil-Aufgabe der Informationsextraktion, die benannte Entitäten in unstrukturiertem Text lokalisieren und in vordefinierte Kategorien klassifizieren kann, wie beispielsweise der Name einer Person, die ID-Nummer, Adresse, Organisation usw.

Ground Truth

Ground Truth sind Informationen, die als real oder wahr bekannt sind und durch direkte Beobachtung und Messung gewonnen wurden. Im Machine Learning repräsentiert es das ideale erwartete Ergebnis und wird durch das Labeling von Daten zur Schulung von KI-Modellen erzeugt.

Human in the Loop (HITL)

Im Machine Learning bezieht sich HITL darauf, dass Menschen Computern bei der richtigen Entscheidungsfindung während des Modellbaus helfen. Im IDP-Kontext beschreibt HITL einen menschlichen Mitarbeiter, der Teil des Überprüfungsprozesses ist, um Ergebnisse, die nicht direkt durch die automatische Verarbeitung gingen, manuell zu korrigieren und zu validieren.

Intelligent Character Recognition (ICR)

ICR ist eine Erweiterung der Optical Character Recognition (OCR), die oft bei Handschrifterkennung verwendet wird. Bei PLANET AI ist es eine Komponente des Recognition-Features.

Key-Value Pair Extraction

Ein Key-Value Pair verknüpft zwei Daten-Elemente: der „Key“ ist ein eindeutiger Identifikator, der den Datensatz definiert, und der „Value“ ist der identifizierte Wert. Die Key-Value Pair Extraction erkennt und extrahiert Key-Value Pair-Strukturen aus Dokumenten, hauptsächlich im Kontext der Formular- oder Tabellenextraktion verwendet.

Low-Code Platform

Plattformen mit Low-Code Fähigkeiten unterstützen visuelle Programmierabstraktionen, wie modellgetriebene, metadatenbasierte Programmierung und Erstellung von Benutzeroberflächen. Sie enthalten eine Datenbank und werden für schnelle Anwendungsentwicklung mit vereinfachtem Tooling für den Softwareentwicklungs-Lebenszyklus verwendet.

Model

Ein (Machine Learning) Model wurde trainiert, spezifische Muster zu erkennen und zu interpretieren. Benutzer trainieren ein Modell mit einem Datensatz, indem sie einen Algorithmus für Schlussfolgerungen und Lernen aus den Daten bereitstellen.

Neural Network

Neural Networks, auch bekannt als Artificial Neural Networks (ANNs) oder simulierte neuronale Netzwerke (SNNs), bilden eine Untergruppe des Machine Learnings und sind das Herzstück von Deep Learning-Algorithmen.

No Code

No Code Entwicklungstools abstrahieren den Code vollständig, indem sie eine visuelle „was du siehst, ist was du bekommst“ Benutzeroberfläche für den Bau einer Anwendung bereitstellen, einschließlich des Datenmodells, der Geschäftslogik, der Abläufe und der Benutzeroberfläche (UI).

Optical Character Recognition (OCR)

OCR ist ein Prozess, der gedruckten Text in maschinenlesbaren Text und digital zugängliche Dateien umwandelt. Sub-Typen umfassen Intelligent Character Recognition (ICR) und Intelligent Word Recognition (IWR), die beide oft für die Handschrifterkennung verwendet werden.

Redaction

Redaction erkennt und entfernt sensible Informationen aus Dokumenten.

Signature Detection

Signature Detection wird verwendet, um Signaturen in Dokumenten zu lokalisieren und sie als Bildausschnitte zu extrahieren. Es kann mit Signature Verification kombiniert werden.

Signature Verification

Signature Verification verwendet Merkmale einer Unterschrift einer Person als biometrische Technik zur Authentifizierung der Identität. In IDP können Bildausschnitte von Signaturen zur Validierung gegen eine Datenbank verwendet werden.

Table Recognition

Table Recognition erkennt Tabellen in Dokumenten und liefert Ergebnisse basierend auf der Tabellenstruktur. Sie kann als spezialisierte Form der Informationsauslese betrachtet werden und kann auch Teil eines OCR/Capturing-Prozesses sein.