+

DE202014011407U1 - Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos - Google Patents

Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos Download PDF

Info

Publication number
DE202014011407U1
DE202014011407U1 DE202014011407.2U DE202014011407U DE202014011407U1 DE 202014011407 U1 DE202014011407 U1 DE 202014011407U1 DE 202014011407 U DE202014011407 U DE 202014011407U DE 202014011407 U1 DE202014011407 U1 DE 202014011407U1
Authority
DE
Germany
Prior art keywords
computer program
program code
program product
image
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014011407.2U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tungsten Automation Corp
Original Assignee
Kofax Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kofax Inc filed Critical Kofax Inc
Publication of DE202014011407U1 publication Critical patent/DE202014011407U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • H04N1/19594Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays using a television camera or a still video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • H04N1/00251Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector with an apparatus for taking photographic images, e.g. a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00801Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity according to characteristics of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0015Control of image communication with the connected apparatus, e.g. signalling capability
    • H04N2201/0032Control of image communication with the connected apparatus, e.g. signalling capability where the still picture apparatus acts as the slave
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0074Arrangements for the control of a still picture apparatus by the connected apparatus
    • H04N2201/0075Arrangements for the control of a still picture apparatus by the connected apparatus by a user operated remote control device, e.g. receiving instructions from a user via a computer terminal or mobile telephone handset
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0458Additional arrangements for improving or optimising scanning resolution or quality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Abstract

Computerprogrammprodukt mit einem computerlesbaren Speichermedium mit darin enthaltenem Programmcode, wobei der Programmcode durch einen Prozessor ausführbar ist, um den Prozessor zu veranlassen, die folgenden Operationen auszuführen:Aktivieren einer Bildaufnahmeschnittstelle mittels eines Mobilgeräts, wobei die Aufnahmeschnittstelle eine Ansichtenauffindungseinheit umfasst, die auf einer Anzeige des Mobilgeräts dargestellt wird;Auswerten mehrerer Blöcke aus Videodaten, die mittels der Aufnahmeschnittstelle erfasst werden,wobei das Auswerten umfasst: Ermitteln:ob ein Objekt, das eine oder mehrere definierende Eigenschaften zeigt, innerhalb der Ansichtenauffindungseinheit dargestellt ist; undob das in der Ansichtenauffindungseinheit dargestellte Objekt ein oder mehrere vorbestimmte Qualitätskontrollkriterien erfüllt; undin Reaktion auf das Ermitteln, dass eine Nichterfüllung für einen Block in Hinblick auf ein oder mehrere der vorbestimmten Qualitätskontrollkriterien vorliegt, Anzeigen einer Indikation der Nichterfüllung auf der Mobilgerätanzeige; undin Reaktion auf das Ermitteln, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren vorbestimmten Qualitätskontrollkriterien erfüllt:Anzeigen einer Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt die eine oder die mehreren definierenden Eigenschaften zeigt; und/oder automatisches Aufnehmen eines Bildes des Objekts, wobei das Bild durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung der Videodaten; und/oderautomatisches Speichern, in einem Speicher, eines oder mehrerer der Blöcke, in dem/denen das die vorbestimmten Qualitätskontrollkriterien erfüllende Objekt in der Ansichtenauffindungseinheit dargestellt ist.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft die digitale Videoerfassung und digitale Videodatenverarbeitung und betrifft insbesondere das Erfassen bzw. Aufnehmen und Verarbeiten digitaler Videodaten unter Anwendung eines Mobilgeräts.
  • HINTERGRUND DER ERFINDUNG
  • Moderne Mobilgeräte sind zur Aufnahme von Bildern einer Vielzahl von Objekten, einschließlich von Dokumenten, Personen, Fahrzeugen und dergleichen, gut eingerichtet. Verbesserungen bei Kameraeigenschaften von Mobilgeräten und/oder der Verarbeitungsleistung machen Anwendungen zum Aufnahme und/oder zum Erfassen digitaler Bilddaten unter Anwendung eines Mobilgeräts in einer zunehmend durch Mobilgeräte getriebenen Wirtschaft zunehmend attraktiv.
  • Jedoch bilden Beschränkungen bezüglich der Mobilgeräte-Hardware und praktische Beschränkungen bei der Aufnahme bzw. Erfassung von Bildern unter Anwendung eines Mobilgeräts aktuell wesentliche Herausforderungen für eine effiziente und wirksame digitale Bildverarbeitung. Beispielsweise sind digitale Bilder, die unter Anwendung eines Mobilgeräts aufgenommen wurden, häufig für eine nachfolgende Bearbeitung aufgrund eines oder mehrerer Bildfehler, etwa einer Unschärfe, einer ungleichmäßigen Beleuchtung, einer ungenügenden Beleuchtung, einer übersättigten Beleuchtung, einer nicht ausreichenden Auflösung, Projektionseffekte, und dergleichen, von unzureichender Qualität. Versuche, digitale Bilder, die derartige Bildfehler enthalten, zu verarbeiten, können vollständig fehlschlagen oder unzureichende Qualitätsergebnisse für die gewünschte Anwendung ergeben. Im noch besten Falle muss der Benutzer den Aufnahmevorgang wiederholen und versuchen, die Qualität des Bildes zu verbessern, während in einigen Fällen eine erneute Aufnahme des Bildes unmöglich sein kann, wodurch sich eine verpasste Gelegenheit für das Erfassen von Bildern bezüglich wichtiger, aber flüchtiger Umstände, etwa die Position oder der Zustand einer Person oder eines Fahrzeugs, vor, während und/oder nach einem Fahrzeugunfall ergibt.
  • Daher wäre es vorteilhaft, Systeme, Verfahren und/oder Computerprogrammprodukte bereitzustellen, die in der Lage sind, Daten zu erfassen und/oder zu verarbeiten, die keine digitalen Standbilder sind, wobei dies in einer Weise erfolgt, in der die zuvor genannten Probleme behoben und die Möglichkeiten der Benutzer verbessert werden, Daten insbesondere unter Verwendung von Mobilgeräten zu erfassen und zu verarbeiten.
  • ÜBERBLICK ÜBER DIE ERFINDUNG
  • In einer Ausführungsform beinhaltet ein Verfahren: Aufrufen bzw. Aktivieren einer Bildaufnahmeschnittstelle mittels eines Mobilgeräts, wobei die Aufnahmeschnittstelle eine Ansichtenauffindungseinheit, die auf einer Anzeige des Mobilgeräts dargestellt wird, umfasst; Auswerten mehrerer Blöcke aus Videodaten, die über die Aufnahmeschnittstelle erfasst bzw. aufgenommen werden, wobei das Auswerten umfasst: Ermitteln, ob ein Objekt, das eine oder mehrere definierende Eigenschaften zeigt, in der Ansichtenauffindungseinheit dargestellt wird; und ob das in der Ansichtenauffindungseinheit dargestellte Objekt ein oder mehrere vorbestimmte Qualitätskontrollkriterien erfüllt; und in Reaktion darauf, dass ermittelt wird, dass ein Block ein oder mehrere der vorbestimmten Qualitätskontrollkriterien nicht erfüllt, Anzeigen einer Indikation des Nichterfüllens auf der Mobilgeräteanzeige; und in Reaktion darauf, dass ermittelt wird, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren vorbestimmten Qualitätskontrollkriterien erfüllt: Anzeigen einer Indikation, dass das in der Ansichtenauffindungseinheit angezeigte Objekt die eine oder die mehreren definierenden Eigenschaften zeigt; und/oder automatisches Aufnehmen eines Bildes des Objekts, wobei das Bild durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung der Videodaten; und/oder automatisches Speichern in einem Speicher von einem oder mehreren der Blöcke, in welchem das die vorbestimmten Qualitätskontrollkriterien erfüllende Objekt in der Ansichtenauffindungseinheit dargestellt wird.
  • In einer weiteren Ausführungsform beinhaltet ein System: einen Prozessor; und eine Logik in dem und/oder ausführbar durch den Prozessor, um zu bewirken, dass der Prozessor: eine Bildaufnahmeschnittstelle mittels eines Mobilgeräts aufruft bzw. aktiviert, wobei die Aufnahmeschnittstelle eine Ansichtenauffindungseinheit umfasst, die auf einer Anzeige des Mobilgeräts dargestellt wird; Auswerten mehrerer Blöcke aus Videodaten, die über die Aufnahmeschnittstelle aufgenommen bzw. erfasst werden, wobei das Auswerten umfasst: Ermitteln, ob ein Objekt, das eine oder mehrere definierende Eigenschaften zeigt, innerhalb der Ansichtenauffindungseinheit dargestellt wird; und Ermitteln, ob das in der Ansichtenauffindungseinheit dargestellte Objekt ein oder mehrere vorbestimmte Qualitätskontrollkriterien erfüllt; und in Reaktion darauf, dass ermittelt wird, dass ein Block ein oder mehrere der vorbestimmten Qualitätskontrollkriterien nicht erfüllt, Anzeigen einer Indikation des Nichterfüllens auf der Mobilgeräteanzeige; und in Reaktion darauf, dass ermittelt wird, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren vorbestimmten Qualitätskontrollkriterien erfüllt: Anzeigen einer Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren definierenden Eigenschaften zeigt; und/oder automatisches Aufnehmen eines Bildes des Objekts, wobei das Bild durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung der Videodaten; und/oder automatisches Speichern, in einem Speicher, von einem oder mehreren der Blöcke, in welchen das die vorbestimmten Qualitätskontrollkriterien erfüllende Objekt in der Ansichtenauffindungseinheit dargestellt ist.
  • In noch einer weiteren Ausführungsform beinhaltet ein Computerprogrammprodukt: ein computerlesbares Speichermedium mit darin enthaltenem Programmcode, wobei der Programmcode durch einen Prozessor auslesbar/ausführbar ist, so dass der Prozessor veranlasst wird zum: Aufrufen bzw. Aktivieren einer Bildaufnahmeschnittstelle mittels eines Mobilgeräts, wobei die Aufnahmeschnittstelle eine Ansichtenauffindungseinheit, die auf einer Anzeige des Mobilgeräts dargestellt wird, umfasst; Auswerten mehrerer Blöcke aus Videodaten, die mittels der Aufnahmeschnittstelle aufgenommen werden, wobei die Auswertung umfasst: Ermitteln, ob ein Objekt, das eine oder mehrere definierende Eigenschaften zeigt, in der Ansichtenauffindungseinheit dargestellt wird; und Ermitteln, ob das in der Ansichtenauffindungseinheit dargestellte Objekt ein oder mehrere vorbestimmte Qualitätssteuerkriterien erfüllt; und in Reaktion darauf, dass ermittelt wird, dass ein Block ein oder mehrere der vorbestimmten Qualitätskontrollkriterien nicht erfüllt, Anzeigen einer Indikation des Nichterfüllens auf der Mobilgeräteanzeige; und, in Reaktion darauf, dass ermittelt wird, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren vorbestimmten Qualitätskontrollkriterien erfüllt: Anzeigen einer Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren definierenden Eigenschaften zeigt; und/oder automatisches Aufnehmen eines Bildes des Objekts, wobei das Bild durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung der Videodaten; und/oder automatisches Speichern in einem Speicher von einem oder mehreren der Blöcke, in welchem das die vorbestimmten Qualitätskontrollkriterien erfüllende Objekt in der Ansichtenauffindungseinheit dargestellt ist.
  • Figurenliste
    • 1 zeigt eine Netzwerkarchitektur gemäß einer Ausführungsform.
    • 2 zeigt eine repräsentative Hardware-Umgebung, die mit den Servern und/oder Clients der 1 gemäß einer Ausführungsform verbunden sein kann.
    • 3-5 zeigen jeweils ein Flussdiagramm eines Verfahrens gemäß einer Ausführungsform.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung dient dem Zwecke der Darstellung der allgemeinen Prinzipien der vorliegenden Erfindung und soll die erfindungsgemäßen hierin beanspruchten Konzepte nicht einschränken. Ferner können spezielle hierin beschriebene Merkmale in Kombination mit anderen beschriebenen Merkmalen jeweils in den diversen möglichen Kombinationen und Permutationen verwendet werden.
  • Sofern dies hierin nicht anders angegeben ist, sollen allen Begriffe ihre breitest mögliche Interpretation haben, einschließlich den Bedeutungen, die sich aus der Beschreibung ergeben, sowie den Bedeutungen, die der Fachmann diesbezüglich versteht und/oder wie sie in Wörterbüchern, Abhandlungen und dergleichen definiert sind.
  • Des Weiteren ist zu beachten, dass entsprechend der Verwendung in der Beschreibung und in den angefügten Ansprüchen, die Singularformen „einer“, „eine“, „ein“ und „der, die, das“ auch die Pluralbedeutungen mit einschließen, sofern dies nicht anders angegeben ist.
  • Die vorliegende Anmeldung betrifft die Bildverarbeitung. Insbesondere offenbart die vorliegende Anmeldung Systeme, Verfahren und Computerprogrammprodukte, die dafür gestaltet sind, aktuelle Verfahren auf Basis von Stand-Fotos und Systeme zur Aufnahme eines digitalen Bildes so zu erweitern, dass ein Datenstrom für Videodaten ermöglicht wird, um diverse Arten von Information zu erfassen und zu verarbeiten. Mit der zunehmenden Verbesserung der Bilderzeugungstechnik hinkt die Auflösung bei Videodatenströmen für gewöhnlich der für Fotos verfügbaren Auflösung hinterher. Die Ermöglichung von Videodatenströmen für die Dokumentenerfassung wird bislang auf Objekte mit kleiner Größe beschränkt, da die verfügbare Auflösung keine ausreichenden Details in Hinblick auf größere Objekten bietet, um in wirksamer Weise digitale Bilder, die derartige Objekte zeigen, effektiv zu verarbeiten. Mit Zunahme der Videodatenstromauflösungen hat diese Beschränkung die Verarbeitungsfähigkeiten und die Eignung in einem immer geringeren Maße beeinflusst, so dass die Verarbeitung von Daten aus einem Videodatenstrom eine gangbare Alternative oder sogar ein bevorzugter Ersatz für die Aufnahme von Stand-Fotos in diversen Anwendungen und/oder Implementierungen geworden ist.
  • Von höheren Warte aus betrachtet, kann eine anschauliche Benutzererfahrung für die Aufnahme eines Videodatenstroms zwanglos auf dem folgenden Szenario beruhen.
  • Ein Benutzer ruft eine Videodatenstrom-Aufnahmeschnittstelle aus einer nativen Mobilanwendung mittels eines Software Entwickler-Kits (SDK), das zur Entwicklung oder Modifizierung einer neuen oder bestehenden mobilen Anwendung verwendet wird, mittels einer eingebauten mobilen Betriebssystem-(OS-) Funktion und dergleichen auf. Nach dem Aufrufen bzw. Aktivieren bietet sich dem Benutzer eine Option, um eine videobasierte Aufnahme auszuwählen und einen videobasierten Vorgang auszuführen. Die Aufnahmeanwendung stellt eine Videoaufnahmeschnittstelle bereit, die den Benutzer so führt, dass sichergestellt wird, dass das physische Objekt innerhalb der Grenzen eines Begrenzungsfeldes, das der mobilen Aufnahmebenutzerschnittstelle überlagert ist, bleibt. Sobald es innerhalb des Begrenzungsfeldes ist, klickt der Benutzer auf den „Aufnahme“-Knopf, um den Aufnahmevorgang zu beginnen. Sobald der Vorgang begonnen ist, beginnt eine mobile Schnittstelle eine Überprüfung bezüglich der Stabilität des Mobilgeräts unter Anwendung einer oder mehrerer Hardwarekomponenten des Mobilgeräts, etwa eines Beschleunigungsmessers, eines Gyroskops und dergleichen. Sobald die Stabilität erreicht worden ist, kann ein Autofokus-Vorgang erzwungen werden, und der Prozess des Auswertens jedes der (n) Blöcke des Videodatenstroms beginnt.
  • Das Ziel der Blockauswertung liegt darin, das Vorhandensein eines Zielobjekts innerhalb des Sichtbereichs, der durch den Videodatenstrom bereitgestellt wird, zu erkennen. Zu Elementen gehören, ohne darauf einschränken zu wollen, ein oder mehrere Seiten, ein oder mehrere Strichcodes, Gebäude, Motorfahrzeuge, Boote, Personen und dergleichen. Die eigentliche Implementierung des Echtzeit-Verfahrens und der Algorithmen, die zum Erkennen der Existenz des Zielobjekts innerhalb des Videoblocks angewendet werden, sind unabhängig von diesem Dokument erläutert.
  • Sobald die Existenz des Zielobjekts in einem oder mehreren Blöcken des Datenstroms erkannt worden ist, wird entweder der Block identifiziert und durch Bildaufbereitungstechniken verarbeitet, etwa solche, die in einem anschaulichen Szenario durch elektronische virtuelle Neuabtastung (EVRS) erfolgen, oder für Geräte, die die erforderliche Fähigkeit unterstützen, wird die volle Auflösung (Foto), die dem Ziel-Videoblock entspricht, ermittelt und durch EVRS verarbeitet. Alternativ könnten mehrere Videoblöcke mit geringer Auflösung zu einem einzigen Bild mit höherer Auflösung kombiniert werden.
  • Ausgehend davon kann die mobile Anwendung die Bereitstellung möglichst vieler relevanter Objekt-Metadaten mit der kleinstmöglichen Latenzzeit ermöglichen. Relevante Metadaten können, ohne einschränken zu wollen, die Objektart, Objekteigenschaften, Feld-Metadaten, GPS-Informationen, Seitengröße, Strichcode-Wert(e), Fahrzeugart, Personengröße, Bootslänge etc. beinhalten.
  • Diese Fähigkeit würde es dem Benutzer ermöglichen, mehrere Objekte und Objektarten gleichzeitig aufzunehmen bzw. zu erfassen. Ferner können Objekte in einem speziellen nachgeordneten Prozess (beispielsweise einem geschäftlichen Vorgang, etwa eine Darlehensanwendung, ein Versicherungsanspruch, eine finanzielle Transaktion und dergleichen) rasch und einfach mit minimalem Zutun des Benutzers mit Ausnahme einer einfachen Klick-, Punkt- und Einfangfunktion zugeordnet werden.
  • Aus einer Warte können die die gesamte Aufnahme und Verarbeitung allgemein in einer logischen Reihenfolge stattfinden, die ähnlich zu dem nachfolgend gezeigten Flussdiagramm ist.
  • Zu beachten ist beim Studium der vorliegenden Beschreibungen, dass das nachfolgend gezeigte gesamte Flussdiagramm ein grobes Konzeptbeispiel ist, das in keiner Weise als beschränkend betrachtet werden soll. Die aktuell beschriebene Aufnahme und die Verarbeitung können in diversen Ausführungsformen eine beliebige Anzahl weiterer und/oder anderer Vorgänge enthalten, derartige Vorgänge können in unterschiedlicher Reihenfolge ausgeführt werden und/oder gewisse Vorgänge, die in dem Flussdiagramm gezeigt sind, können weglassen.
  • Bilder (beispielsweise Bilder, Figuren, grafische Schemadarstellungen, einzelne Blöcke aus Filmen, Videos, Filmszenen, Filmschnitte und dergleichen) sind vorzugsweise digitale Bilder, die durch Kameras, insbesondere Kameras in Mobilgeräten, aufgenommen bzw. erfasst werden. Im hierin verstandenen Sinne ist ein Mobilgerät eine beliebige Einrichtung, die in der Lage ist, Daten zu empfangen, ohne dass über eine physische Verbindung (beispielsweise Draht, Leitung, Kabel etc.) Leistung zugeführt wird, und die in der Lage ist, Daten ohne eine physische Datenverbindung (beispielsweise Draht, Leitung, Kabel und dergleichen) zu empfangen. Mobilgeräte, die innerhalb des Schutzbereichs der vorliegenden Offenbarung liegen, schließen anschauliche Geräte mit ein, etwa ein Mobiltelefon, ein intelligentes Telefon, ein Tablet, einen persönlichen digitalen Assistenten, Geräte in Form eines iPods®, eines iPads®, BLACKBERRY® und dergleichen.
  • Aus der Beschreibung der diversen Funktionen geht jedoch hervor, dass die gegenwärtig offenbarten mobilen Bildverarbeitungsalgorithmen, manchmal mit gewissen Modifizierungen, auf Bilder angewendet werden können, die aus Scannergeräten und Multifunktionsperipheriegeräten (MFPs) stammen. In ähnlicher Weise können Bilder, die unter Anwendung der aktuell offenbarten Verarbeitungsalgorithmen verarbeitet sind, in einigen Vorgehensweisen unter Anwendung konventioneller Scannerverarbeitungsalgorithmen weiterverarbeitet werden.
  • Selbstverständlich können die diversen hierin dargestellten Ausführungsformen durch Verwendung von Hardware, Software oder eine gewünschte Kombination davon implementiert werden. Diesbezüglich kann eine beliebige Art einer Logik eingesetzt werden, die in der Lage ist, die diversen hierin dargestellten Funktionen zu implementieren.
  • Ein Vorteil der Verwendung eines Mobilgeräts besteht darin, dass eine Datenplanung, eine Bildverarbeitung und eine Informationsverarbeitung auf der Grundlage aufgenommener Bilder in einer wesentlich bequemeren, geradlinigeren und integrierten Weise als in vergangenen Verfahren ausgeführt werden können, die die Anwesenheit eines Scannergerätes voraussetzten. Jedoch wurde die Verwendung von Mobilgeräten als Geräte zur Erfassung und/oder Verarbeitung von Dokumenten diesbezüglich aus mehreren Gründen als nicht möglich erachtet.
  • In einer Vorgehensweise kann ein Bild durch eine Kamera eines Mobilgeräts erfasst bzw. aufgenommen werden. Der Begriff „Kamera“ sollte in breiter Weise so verstanden werden, dass eine beliebige Art einer Einrichtung mit eingeschlossen ist, die in der Lage ist, ein Bild eines physischen Objekts, das außerhalb des Gerätes liegt, etwa eines Papierstücks, aufzunehmen. Der Begriff „Kamera“ umfasst nicht ein peripheres Scannergerät oder ein Multifunktionsgerät. Es kann eine beliebige Art von Kamera verwendet werden. In bevorzugten Ausführungsformen können Kameras mit einer höheren Auflösung, beispielsweise 8 MP oder höher, idealerweise 12 MP oder höher, verwendet werden. Das Bild kann in Farbe, in Graustufen, in Schwarzweiß oder in Bezug auf einen anderen bekannten optischen Effekt aufgenommen werden. Der Begriff „Bild“, wie er hierin verwendet wird, hat die Bedeutung, dass eine beliebige Art von Daten mit erfasst ist, die dem Ausgangssignal der Kamera entsprechen, wozu Rohdaten, verarbeitete Daten und dergleichen gehören.
  • Die Beschreibung wird hier angegeben, um einen Fachmann in die Lage zu versetzen, die Erfindung auszuführen und anzuwenden, und die Beschreibung wird im Zusammenhang von speziellen Anwendungen der Erfindung und ihren Erfordernissen bereitgestellt. Diverse Modifizierungen in Bezug auf die offenbarten Ausführungsformen ergeben sich für den Fachmann in einfacher Weise, und die hierin definierten allgemeinen Prinzipien können auf andere Ausführungsformen und Anwendungen angewendet werden, ohne von dem Grundgedanken und dem Schutzbereich der vorliegenden Erfindung abzuweichen. Daher soll die vorliegende Erfindung nicht auf die gezeigten Ausführungsformen eingeschränkt sein, sondern sie ist im breitesten Sinne zu verstehen, der mit den hierin offenbarten Prinzipien und Merkmalen konsistent ist.
  • Insbesondere sind diverse Ausführungsformen der hierin erläuterten Erfindung unter Anwendung des Internets als ein Mittel zur Kommunikation zwischen mehreren Computersystemen implementiert. Der Fachmann erkennt, dass die vorliegende Erfindung nicht auf die Verwendung des Internets als ein Kommunikationsmedium beschränkt ist, und dass alternative Verfahren der Erfindung unter Anwendung eines privaten Intranets, eines Nahbereichs-Netzwerks (LAN), eines Weitbereichs-Netzwerks (WAN) oder anderen Kommunikationsmitteln ausgeführt werden können. Des Weiteren können diverse Kombinationen aus verdrahteten, drahtlosen (beispielsweise mit Funkfrequenzen) Verbindungen und optischen Verbindungen eingesetzt werden.
  • Die Programmumgebung, in der eine Ausführungsform der Erfindung ausführbar ist, beinhaltet in anschaulicher Weise einen oder mehrere Computer für Allgemeinzwecke oder Geräte für Spezialzwecke, etwa Handcomputer. Details derartiger Geräte (beispielsweise Prozessor, Speicher, Datenspeicher, Eingabe- und Ausgabegeräte) sind gut bekannt und werden in Hinblick auf die Klarheit weggelassen.
  • Es sollte auch beachtet werden, dass die Techniken der vorliegenden Erfindung unter Anwendung einer Vielzahl von Techniken implementiert werden können. Beispielsweise können die hierin beschriebenen Verfahren in Software, die auf einem Computersystem ausgeführt wird, implementiert werden, oder können in Hardware unter Anwendung eines oder mehrerer Prozessoren und einer Logik (Hardware und/oder Software) zum Ausführen von Schritten des Verfahrens, von anwendungsspezifischen integrierten Schaltungen, programmierbaren Logikeinrichtungen, etwa vor Ort programmierbare Gatterarrays (FPGAs) und/oder diversen Kombinationen davon, implementiert werden. In einer anschaulichen Vorgehensweise können hierin beschriebene Verfahren durch eine Reihe aus computerausführbaren Befehlen implementiert werden, die in einem Speichermedium hinterlegt sind, etwa einem physischen (beispielsweise nicht-flüchtigen) computerlesbaren Medium. Obwohl ferner spezielle Ausführungsformen der Erfindung objektorientierte Softwareprogrammierkonzepte benutzen, ist die Erfindung nicht darauf beschränkt und sie kann in einfacher Weise so angepasst werden, dass andere Formen eingesetzt werden, um die Funktion eines Computers zu lenken.
  • Die Erfindung kann in Form eines Computerprogrammprodukts, das einen computerlesbaren Speicher aufweist, oder in Form eines Signalmediums mit Computercode darin, der durch eine Rechenvorrichtung (beispielsweise einen Prozessor) und/oder ein System ausgeführt werden kann, bereitgestellt werden. Ein computerlesbares Speichermedium kann ein beliebiges Medium umfassen, das in der Lage ist, darin Computercode zur Verwendung durch eine Recheneinrichtung oder ein System zu speichern, wozu optische Medien gehören, etwa nur-lesbare und beschreibbare CD und DVD, magnetische Speicher oder ein magnetisches Medium (beispielsweise eine Festplatte, ein Magnetband), ein Halbleiterspeicher (beispielsweise ein Flash-Speicher und andere mobile Speicherkarten und dergleichen), Firmware, die in einem Chip codiert ist, und dergleichen.
  • Ein computerlesbares Signalmedium ist eines, das nicht in die Klasse der zuvor genannten Speichermedien fällt. Beispielsweise übermitteln anschauliche computerlesbare Signalmedien flüchtige Signale oder übertragen flüchtige Signale anderweitig innerhalb eines Systems, zwischen Systemen, beispielsweise durch ein physisches oder virtuelles Netzwerk, und dergleichen.
  • 1 zeigt eine Architektur 100 gemäß einer Ausführungsform. Wie in 1 gezeigt ist, sind mehrere Fernnetzwerke 102 einschließlich eines ersten Fernnetzwerks 104 und eines zweiten Fernnetzwerks 106 vorgesehen. Ein Zugang bzw. Gateway 101 kann zwischen den Fernnetzwerken 102 und einem nahen bzw. lokalen Netzwerk 108 gekoppelt sein. Im Zusammenhang der vorliegenden Netzwerkarchitektur 100 können die Netzwerke 104, 106 jeweils eine beliebige Form annehmen, wozu, ohne einschränkend zu sein, ein LAN, ein WAN, etwa das Internet, ein öffentliches Telefonvermittlungsnetzwerk (PSTN), ein internes Telefonnetzwerk und dergleichen gehören.
  • Während des Betriebs dient das Gateway 101 als ein Eingangspunkt von den Fernnetzwerken 102 zu dem lokalen Netzwerk 108. Dadurch kann das Gateway 101 als ein Router, der zum Umlenken eines gegebenen Datenpakets, das an dem Gateway 101 eintrifft, in der Lage ist, und als ein Schalter bzw. eine Vermittlungseinheit dienen, die den tatsächlichen Pfad in und aus dem Gateway 101 für ein gegebenes Paket einrichtet.
  • Ferner ist mindestens ein Daten-Server 114 enthalten, der mit dem lokalen Netzwerk 108 gekoppelt ist, und auf den von den Fernnetzwerken 102 über das Gateway 101 zugegriffen wird. Es sollte beachtet werden, dass der oder die Daten-Server 114 eine beliebige Art einer Recheneinrichtung/Gruppenanordnung mit einschließen können. Mit jedem Daten-Server 114 sind mehrere Benutzergeräte 116 verbunden. Derartige Benutzergeräte 116 können einen Tischrechner, einen Laptop-Computer, einen Hand-Computer, einen Drucker oder eine andere Art einer Logikeinheit umfassen. Es sollte beachtet werden, dass ein Benutzergerät 111 in einer Ausführungsform auch direkt mit einem oder mehreren der Netzwerke verbunden sein kann.
  • Ein Peripheriegerät 120 oder mehrere Peripheriegeräte 120, beispielsweise Faxgeräte, Drucker, netzwerkfähige Speichereinheiten und dergleichen. können mit einem oder mehreren der Netzwerke 104, 106, 108 verbunden sein. Es sollte beachtet werden, dass Datenbanken, Server und/oder weitere Komponenten in Verbindung mit oder integriert in einer beliebigen Art eines Netzwerkelements, das mit den Netzwerken 104, 106, 108 verbunden ist, verwendet werden können. Im Zusammenhang der vorliegenden Beschreibung bezeichnet ein Netzwerkelement eine beliebige Komponente eines Netzwerks.
  • Gemäß einigen Vorgehensweisen können Verfahren und Systeme, die hierin beschrieben sind, mit und/oder in virtuellen Systemen und/oder Systemen, die eines oder mehrere andere Systeme nachbilden, etwa ein UNIX-System, das eine Mac OS-Umgebung nachbildet, ein UNIX-System, das virtuell eine Microsoft Windows-Umgebung beherbergt, ein Microsoft Windows-System, das eine Mac OS-Umgebung nachbildet und dergleichen, implementiert werden. Diese Virtualisierung und/oder Nachbildung kann in einigen Ausführungsformen durch die Verwendung von VMWARE-Software verbessert werden.
  • In mehreren Vorgehensweisen können ein oder mehrere Netzwerke 104, 106, 108 einen Cluster aus Systemen, das üblicherweise als eine „Wolke“ bzw. Cloud bezeichnet wird, repräsentieren. Beim Cloud-Computing werden gemeinsame Ressourcen, etwa Verarbeitungsleistung, Peripheriegeräte, Software, Datenverarbeitung und/oder Speicher, Server und dergleichen, für ein beliebiges System innerhalb der Cloud vorzugsweise nach Bedarf bereitgestellt, um damit Zugriff auf und Verteilung von Dienste(n) über viele Rechensysteme hinweg zu ermöglichen. Cloud-Computing bzw. Cloud-Verarbeitung beinhaltet typischerweise eine Internet-Verbindung oder eine andere Hochgeschwindigkeitsverbindung (beispielsweise 4G LTE, Faseroptik und dergleichen) zwischen den Systemen, die in der Cloud arbeiten, wobei auch andere Techniken zum Verbinden der Systeme eingesetzt werden können.
  • 1 zeigt eine Architektur 100 gemäß einer Ausführungsform. Wie in 1 gezeigt ist, sind mehrere Fernnetzwerke 102 vorgesehen, die ein erstes Fernnetzwerk 104 und ein zweites Fernnetzwerk 106 mit einschließen. Ein Zugang bzw. ein Gateway 101 kann zwischen den Fernnetzwerken 102 und einem nahen bzw. lokalen Netzwerk 108 gekoppelt sein. Im Zusammenhang der vorliegenden Architektur 100 können die Netzwerke 104, 106 jeweils eine beliebige Form annehmen, wozu, ohne einschränkend zu sein, ein LAN, ein WAN, etwa das Internet, ein öffentliches Telefonvermittlungsnetzwerk (PSTN), ein internes Telefonnetzwerk und dergleichen, gehören.
  • Während des Betriebs dient das Gateway 101 als ein Eingangspunkt von den Fernnetzwerken 102 zu dem nahe gelegenen Netzwerk 108. Dadurch kann das Gateway 101 als ein Router, der zum Umlenken eines gegebenen Datenpakets, das an dem Gateway 101 eintrifft, in der Lage ist, und als ein Schalter bzw. eine Vermittlungseinheit dienen, die den tatsächlichen Pfad in und aus dem Gateway 101 für ein gegebenes Paket einrichtet.
  • Ferner ist mindestens ein Daten-Server 114 enthalten, der mit dem lokalen Netzwerk 108 gekoppelt ist, und auf den von den Fernnetzwerken 102 über das Gateway 101 zugegriffen wird. Es sollte beachtet werden, dass der oder die Daten-Server 114 eine beliebige Art einer Recheneinrichtung/Gruppenanordnung mit einschließen können. Mit jedem Daten-Server 114 sind mehrere Benutzergeräte 116 verbunden. Derartige Benutzergeräte 116 können einen Tischrechner, einen Laptop-Computer, einen Hand-Computer, einen Drucker oder eine andere Art einer Logikeinheit umfassen. Es sollte beachtet werden, dass ein Benutzergerät 111 in einer Ausführungsform auch direkt mit einem oder mehreren der Netzwerke verbunden sein kann.
  • Ein Peripheriegerät 120 oder mehrere Peripheriegeräten 120, beispielsweise Faxgeräte, Drucker, netzwerkfähige Speichereinheiten und dergleichen. können mit einem oder mehreren der Netzwerke 104, 106, 108 verbunden sein. Es sollte beachtet werden, dass Datenbanken, Server und/oder weitere Komponenten in Verbindung mit oder integriert in eine beliebige Art eines Netzwerkelements, das mit den Netzwerken 104, 106, 108 verbunden ist, verwendet werden können. Im Zusammenhang der vorliegenden Beschreibung bezeichnet ein Netzwerkelement auf eine beliebige Komponente eines Netzwerks.
  • Gemäß einigen Vorgehensweisen können Verfahren und Systeme, die hierin beschrieben sind, mit und/oder in virtuellen Systemen und/oder Systemen, die eines oder mehrere andere Systeme nachbilden, etwa ein UNIX-System, das eine Mac OS-Umgebung nachbildet, ein UNIX-System, das virtuell eine Microsoft Windows-Umgebung beherbergt, ein Microsoft Windows-System, das eine Mac OS-Umgebung nachbildet und dergleichen, implementiert werden. Diese Virtualisierung und/oder Nachbildung kann durch die Verwendung von VMWARE-Software in einigen Ausführungsformen verbessert werden.
  • In mehreren Vorgehensweisen können ein oder mehrere Netzwerke 104, 106, 108 einen Cluster aus Systemen, das üblicherweise als eine „Wolke“ bzw. Cloud bezeichnet wird, repräsentieren. Beim Cloud-Computing werden gemeinsame Ressourcen, etwa Verarbeitungsleistung, Peripheriegeräte, Software, Datenverarbeitung und/oder Speicher, Server und dergleichen, für ein beliebiges System innerhalb der Cloud vorzugsweise nach Bedarf bereitgestellt, um damit Zugriff auf und Verteilung von Diensten über viele Rechensysteme hinweg zu ermöglichen. Cloud-Computing bzw. Cloud-Verarbeitung beinhaltet typischerweise eine Internet-Verbindung oder eine andere Hochgeschwindigkeitsverbindung (beispielsweise 4G LTE, Faseroptik und dergleichen) zwischen den Systemen, die in der Cloud arbeiten, wobei auch andere Techniken zum Verbinden der Systeme eingesetzt werden können.
  • 2 zeigt eine repräsentative Hardware-Umgebung, die mit einem Benutzergerät 116 und/oder Server 114 der 1 gemäß einer Ausführungsform in Zusammenhang steht. Diese Figur zeigt einen typischen Hardwareaufbau eines Arbeitsplatzrechners mit einer zentralen Verarbeitungseinheit 210, etwa einem Mikroprozessor, und einer Anzahl anderer Einheiten, die über einen Systembus 212 miteinander verbunden sind.
  • Der in 2 gezeigte Arbeitsplatzrechner beinhaltet einen Direktzugriffsspeicher (RAM) 214, einen Nur-Lese-Speicher (ROM) 216, einen I/O- bzw. Ein-/Aus-Adapter 218 für den Anschluss von peripheren Geräten, etwa von Diskettenspeichereinheiten 220, einen Bus 212, einen Benutzerschnittstellenadapter 222 zum Anschluss einer Tastatur 224, einer Maus 226, eines Lautsprechers 228, eines Mikrofon 232 und/oder andere Benutzerschnittstelleneinrichtungen, etwa einen berührungsempfindlichen Bildschirm und eine Digitalkamera (nicht gezeigt) mit dem Bus 212, einen Kommunikationsadapter 234 zum Verbinden des Arbeitsplatzrechners mit einem Kommunikationsnetz 235 (beispielsweise ein Datenverarbeitungsnetzwerk) und einen Anzeigeadapter 236 zum Verbinden des Busses 212 mit einer Anzeigeeinrichtung 238.
  • Der Arbeitsplatzrechner kann darauf ein residentes Betriebssystem haben, etwa das Betriebssystem (OS) Microsoft Windows®, ein Mac-OS, ein UNIX-OS und dergleichen. Zu beachten ist, dass eine bevorzugte Ausführungsform auch auf Plattformen und Betriebssystemen implementiert werden kann, die nicht die zuvor genannten Systeme sind. Eine bevorzugte Ausführungsform kann umgesetzt werden unter Anwendung der Sprachen JAVA, XML, C und/oder C++ oder unter Verwendung anderer Programmiersprachen, zusammen mit einem objektorientierten Programmieransatz. Es kann objektorientierte Programmierung (OOP), die zunehmend zur Entwicklung komplexer Anwendungen eingesetzt wird, verwendet werden.
  • Eine Anwendung kann auf dem Mobilgerät installiert, beispielsweise in einem nicht-flüchtigen Speicher des Geräts, gespeichert werden. In einer Vorgehensweise beinhaltet die Anwendung Befehle, um eine Verarbeitung an einem Bild in dem Mobilgerät auszuführen. In einer weiteren Vorgehensweise beinhaltet die Anwendung Befehle, um das Bild an einen entfernten Server, etwa einen Netzwerkserver, zu senden. In einer noch weiteren Vorgehensweise kann die Anwendung Befehle enthalten, um zu entscheiden, ob ein gewisser Teil oder die gesamte Verarbeitung in dem Mobilgerät ausgeführt werden soll und/oder ob das Bild an die entfernte Stelle gesendet werden soll.
  • In den diversen Ausführungsformen wird in den vorliegenden offenbarten Verfahren, Systemen und/oder Computerprogrammprodukten eine der Funktionen verwendet und/oder beinhaltet diese, die in der artverwandten US-Patentanmeldung mit der Nr. 13/740,123 offenbart sind, die am 11. Januar 2013 eingereicht wurde. Beispielsweise können digitale Bilder, die zur Verarbeitung geeignet sind, insgesamt oder teilweise unter Anwendung der vorliegend offenbarten Verfahren, Systeme und dergleichen, einen oder mehreren Bildverarbeitungsoperationen unterzogen werden, die in der zuvor genannten Patentanmeldung offenbart sind, etwa einer Seitenerkennung, einer Rechteckbildung, einer Erkennung ungleichmäßiger Beleuchtung, einer Beleuchtungsnormierung, einer Auflösungsabschätzung, einer Unschärferkennung und dergleichen.
  • In diversen Ausführungsformen können in den vorliegend offenbarten Verfahren, Systemen und/oder Computerprogrammprodukten eine oder mehrere der Funktionen verwendet werden, oder können eine oder mehrere dieser Funktionen enthalten, die in der artverwandten US-Patentanmeldung mit der Nr. 13/802,226 , die am 13. März 2013 eingereicht wurde, und in der vorläufigen US-Patentanmeldung mit der Nr. 61/780,747 , die am 13. März 2013 eingereicht wurde, offenbart sind. Beispielsweise können digitale Bilder, die zur Verarbeitung als Ganzes oder teilweise unter Anwendung der vorliegend offenbarten Verfahren, Systeme und dergleichen, geeignet sind, einer oder mehreren Klassifizierungs- und/oder Datenextraktionsoperationen unterzogen werden, die in den zuvor genannten Patentanmeldungen offenbart sind, wozu beispielsweise eine Klassifizierung von Objekten, die einem digitalen Bild dargestellt sind, entsprechend der Art, basierend zumindest teilweise auf den Eigenschaften des Objekts, ein Ausführen von auf den Kunden zugeschnittener Bildverarbeitung unter Anwendung von Information über die Objekteigenschaften und/oder die Objektklasse, das Bilden und/oder Benutzen von Eigenschaftsvektoren zum Ausführen einer Klassifizierung, das Bilden und/oder Verwenden von Eigenschaftsvektoren zur Entwicklung eines Datenextraktionsmodells für das Objekt und/oder die eine oder mehreren Projektklasse(n), das Verwenden der Datenextraktionsmodelle zum Extrahieren von Daten aus digitalen Bildern und dergleichen, gehören.
  • In einigen Ausführungsformen und vollständig unabhängig von den „Extraktionsoperationen“ und Techniken, die hierin offenbart sind, kann es zweckdienlich sein, die Bildaufnahme, die Auswertung und die Verarbeitung in der beschriebenen Weise auszuführen, und nachfolgend das resultierende Bild mit einer zielgerichteten optischen Zeichenerkennung (OCR) auszuwerten. Beispielsweise kann ein Benutzer einen Bereich eines verarbeiteten Bildes festlegen, an dem die OCR auszuführen ist, und kann ein Fenster über diesen Bereich des verarbeiteten Bildes schweben lassen. Anschließend kann der Benutzer OCR-Ergebnisse entweder entsprechend einer Anforderung, die der Benutzer (beispielsweise zum OCR des Fenstergebiets des Bildes) abgesetzt hat oder entsprechend automatisch in Echtzeit oder nahezu Echtzeit in Reaktion auf die Fensterposition (beispielsweise ein stets aktiver OCR-Prozess wird an dem einen Objekt in mehreren Bildbereichen ausgeführt, die innerhalb des OCR-Fensters liegen, und es können erkannte Zeichen auf dem Mobilgerät in Echtzeit angezeigt werden) erhalten.
  • Vorzugsweise wird gegebenenfalls die fensterbasierte OCR-Lösung eingesetzt, um ein Ermitteln, Verifizieren (beispielsweise einen beobachteten Wert, der durch OCR erhalten wird, durch vergleichen mit einem Referenzwert bestätigen) und/oder Validieren (beispielsweise, wie zuvor erwähnt ist und wie dies ferner in dem artverwandten US-Patent mit der Nr. 8,345,981 und/oder den US-Patentanmeldungen mit den Nrn. 14/175,999 (am 7. Februar 2014 eingereicht); 14/176,606 (am 7. Februar 2014 eingereicht) und/oder 14/078,402 (am 12. November 2013 eingereicht) beschrieben ist), von Textzeichen zu ermöglichen, die in dem dargestellten Objekt dargestellt sind. Noch bevorzugter wird gegebenenfalls der fensterbasierte OCR-Ansatz eingesetzt, um in spezieller Weise „identifizierende Information“ zu ermitteln, wie beispielsweise definiert und beschrieben ist in der damit in der artverwandten US-Patentanmeldung mit der Nr. 14/220,016 (am 19. März 2014 eingereicht).
  • Beispielsweise kann in einer Vorgehensweise die Klassifizierung das Ermitteln beinhalten, ob ein dargestelltes Objekt zu einer oder mehreren vorbestimmten Klassen gehört, und wenn dies nicht der Fall ist, das Anfordern einer Benutzereingabe, die eine neue Klasse definiert. Diese Vorgehensweise kann in einigen Ausführungsformen erweitert werden, indem automatisch definierende Eigenschaften für die neue Klasse auf der Grundlage der Benutzereingabe, des in dem einen oder den mehreren Bildern dargestellten Objekts, einer Kombination davon und/oder einer anderen relevanten beschreibenden Information ermittelt werden, die der Fachmann erkennen kann. Auf diese Weise ist es für die vorliegenden Systeme möglich, auf unbekannte Objektarten auf der Grundlage einer minimalen Eingabe von dem Benutzer und auf der Grundlage definierender Eigenschaften erweitert zu werden, die auf Basis einer Benutzereingabe, Bilddaten und/oder einer Kombination davon bestimmt sind.
  • In weiteren Vorgehensweisen können die vorliegend offenbarten Verfahren, Systeme und/oder Computerprogrammprodukte in vielen Anwendungen eingesetzt werden in Verbindung mit, implementiert werden in und/oder enthalten sein in einer oder mehrerer Benutzerschnittstellen, die ausgebildet sind, das Ausführen einer beliebigen Funktion, wie sie hierin und/ oder in der zuvor genannten verwandten Patentanmeldung offenbart ist, etwa eine mobile Bildverarbeitungsanwendung, eine Fallverwaltungsanwendung und/oder eine Klassifizierungsanwendung.
  • In noch weiteren Vorgehensweisen können die hier offenbarten Systeme, Verfahren und/oder Computerprogrammprodukte vorteilhaft auf Nutzungsverfahren und/oder Szenarien, die in der zuvor genannten artverwandten Patentanmeldung offenbart sind, unter anderem angewendet werden, wie der Fachmann leicht einsehen kann, wenn er diese Beschreibung studiert.
  • Ferner ist zu beachten, dass hierin repräsentierte Ausführungsformen in Form eines Dienstes bereitgestellt werden können, der an einen Kunden verteilt wird, um einen Dienst nach Bedarf anzubieten.
  • Videoaufnahme und -erkennung
  • In einigen Ausführungsformen kann mittels einer mobilen Anwendung ein Benutzer ein Video aufnehmen, das Video auswerten und anschließend einen Bildblock oder Bildblöcke mit voller Auflösung eines Fotos speichern. Um die rechnerische Effizienz zu verbessern, ist es möglich, Videodaten mit einer geringeren Auflösung als die volle Standbildauflösung von Blöcken zu verwenden, um in dem einen oder den mehreren Blöcken dargestellte Objekte zu erkennen. Beim Erkennen eines Zielobjekts werden in den diversen Ausführungsformen ein oder mehrere Blöcke mit einer hohen Auflösung eines Fotos für die weitere Verarbeitung verwendet.
  • Beispielsweise ist eine Videoaufnahme mit geringer Auflösung und eine Verarbeitung kleiner Dokumente, etwa von Führerscheinen oder Visitenkarten oder Schecks zumindest teilweise möglich, da in einigen Ausführungsformen die Bildaufnahme so weit vergrößert wird, dass selbst die geringe Auflösung der Videodaten eine ausreichende Auflösung zum Erkennen des kleinen Dokuments in dem Objekt ausreichend ist.
  • In einer Vorgehensweise kann eine Aufnahmekomponente einer mobilen Anwendung im Rahmen der vorliegenden Offenbarung es einem Benutzer ermöglichen, eine Mobilgerätkamera in einem Videoaufnahmemodus aufzurufen. Der Benutzer kann eine Eingabe bereitstellen, die die Aufnahmekomponente anweist, mit der Aufnahme von Videodaten zu beginnen. Die Anwendung kann in Reaktion auf den Empfang der „Beginne mit der Aufnahme“-Anweisung in Reaktion auf das Anzeigen einer Aufforderung für den Benutzer, die den Benutzer anweist, sich für das Aufnehmen von Daten vorzubereiten etc., eine geräteinterne Hardware, etwa einen Beschleunigungsmesser und/oder ein Gyroskop in Bezug auf Stabilitätsinformation abfragen. Wenn Bedingungen aus der geräteinternen Hardware erfasst werden, die einer Stabilitätsbedingung entsprechen, dann kann die Anwendung einen Autofokus erzwingen, Bildblöcke aufnehmen und anschließend einen Hintergrundprozess erzeugen, um eine Bildverarbeitung aufzurufen und/oder auszuführen.
  • Ferner können die aufgenommenen Bildblöcke durch eine Auflösung gekennzeichnet sein, die höher ist als eine Auflösung des Videodatenstroms (und der entsprechenden Daten), die dem Benutzer angezeigt werden, während die Stabilitätsermittlung, der Fokus, die Objekterkennung und dergleichen ausgeführt werden. In einigen Ausführungsformen kann für einen Benutzer, der einen Videodatenstrom betrachtet, gleichzeitig ein entsprechender hochauflösender Bildblock von Bilddaten präsentiert werden, um eine Rückmeldung und Benutzereingabe bezüglich der Aufnahme und/oder der Verarbeitung unter Anwendung der mobilen Anwendung des Mobilgeräts zu überwachen und/oder bereitzustellen.
  • In einigen Ausführungsformen kann die Aufnahmekomponente weiter verfeinert sein, so dass Objekte nach Art klassifiziert werden und dass selektiv der Aufnahmevorgang aktiviert wird. Beispielsweise wird gegebenenfalls das Aufnehmen nur dann aktiviert, wenn ermittelt wird, dass das Aufnahmefeld ein interessierendes Objekt umschließt, etwa ein Dokument, ein Tier, ein Fahrzeug, eine Person, eine spezielle Art eines Dokuments, eines Tieres, eines Fahrzeugs und dergleichen.
  • In noch weiteren Ausführungsformen kann die Aufnahmekomponente ferner so verbessert sein, dass eine Klassifizierung von Objekten ermittelt und/oder Eigenschaften von Objekten erfasst werden, und dass selektiv der Aufnahmevorgang in Reaktion darauf aktiviert wird, sodass eine erwartete Art einer Eigenschaft in dem Objekt erkannt wird. Beispielsweise kann ein Videodatenstrom eines Aufnahmefelds, das ein Dokument umschließt, eingesetzt werden, um die Art des Dokuments einzustufen und auf der Grundlage der Dokumentenklassifizierung kann der Videodatenstrom verwendet werden, um zu ermitteln, ob das Dokument spezielle Eigenschaften enthält, etwa einen speziellen Inhalt (beispielsweise einen speziellen Text, etwa einen Namen, eine Adresse, eine Kontonummer, ein spezielles Symbol, etwa einen Strichcode, ein Logo, ein Foto etc., wie sich dies für den Fachmann bei einem Studium der vorliegenden Beschreibung in einfacher Weise ergibt).
  • Durch die Bereitstellung einer zusätzlichen Klassifizierungsfähigkeit in dieser Art kann die mobile Anwendung ein unerwünschtes Aufnehmen von Videodaten bei Empfang einer Information vermeiden, die eine Stabilitätsbedingung bezeichnet, wobei aber das Aufnahmefeld auf ein Objekt ohne Interesse für die nachfolgende Verarbeitung fokussiert ist, (beispielsweise ist die mobile Anwendung in der Lage, selektiv das Aufnehmen von Videodaten eines Hundes als Teil eines übergeordneten Arbeitsablaufs zur Dokumentverarbeitung selektiv zu vermeiden). Vorzugsweise umfasst der Klassifizierungsvorgang eine anfängliche Auswertung mit hoher Geschwindigkeit, um das Vorhandensein des interessierenden Objekts in dem Videoblock zu erfassen. Jedoch kann die Klassifizierung auch eine beliebige Funktion beinhalten, wie sie in der artverwandten US-Patentanmeldung 13/802,226 erläutert ist.
  • In diversen Vorgehensweisen können beim Ermitteln, dass Stabilität besteht, bei Erhalt eines Fokus-Zustands und bei der Bestimmung desjenigen Aufnahmefeldes, das ein gewünschtes Aufnahmezielobjekt umfasst, eine oder mehrere Verarbeitungsvorgänge aktiviert werden. Als Eingabe für die Verarbeitungsvorgänge kann die mobile Anwendung den Videodatenstrom, Blöcke aus dem Videodatenstrom und/oder äquivalente Elemente mit hoher Auflösung davon bereitstellen.
  • Weitere Ausführungsformen beinhalten die Bereitstellung einer Funktion, um eine minimale Auflösung zu ermitteln, die erforderlich ist, um eine Objekterkennung, eine Bildverarbeitung oder jegliche andere, nachgeordnete Verarbeitungsprozesse auszuführen, so dass eine mobile Anwendung einen Benutzer in der Lage versetzen kann, die erforderlichen Daten für die nachfolgende Verarbeitung in der in rechentechnischer Hinsicht größtmöglichen Effizienz zu erfassen. Beispielsweise kann ein Benutzer eine Trainingskomponente der mobilen Anwendung aktivieren und er kann angewiesen werden, Videodaten aufzunehmen, die einem speziellen Objekt oder einer speziellen Objektart entsprechen; der Benutzer kann angewiesen werden, den Aufnahmevorgang mehrere Male zu wiederholen, und mit oder ohne Kenntnis des Benutzers können bei jeder Wiederholung Videodaten mit unterschiedlicher Auflösung aufgenommen werden, um eine vielseitige Anordnung aus Videodaten, die das Objekt repräsentieren, in einem Bereich von Auflösungen bereitzustellen.
  • Die mobile Anwendung kann in transparenter Weise eine Objekterkennung, eine Bildverarbeitung und dergleichen, ausführen, wobei eine oder mehrere der mehreren Videodatenproben mit unterschiedlicher Auflösung verwendet werden. Einige der Proben können akzeptable Ergebnisse liefern, während andere dies nicht tun. Die Anwendung kann Information bezüglich der Ergebnisse, die durch die Verwendung unterschiedlicher Eingangsproben erreicht wurden, verwenden, um eine Auflösung für eine nachfolgende Nutzung zu ermitteln, wenn die Objekte eine Aufnahme und/oder die Ausführung diverser Verarbeitungsschritte, die dem speziellen Objekt oder der Objektart entsprechen, für die ein Training ausgeführt wurde, ausgeführt werden.
  • In einer Vorgehensweise ist eine für die Objekterkennung ausreichende Auflösung eine Auflösung, die das Erkennen eines Kontrasts zwischen dem Vordergrund des Bildes, beispielsweise Gebieten des Bildes, die dem Objekt entsprechen, und dem Hintergrund des Bildes, beispielsweise Gebieten des Bildes, die nicht dem Objekt entsprechen, ermöglichen. Das Erkennen von Kontrast beinhaltet das Erkennen des Vorhandenseins eines Teilgebiets des Bildes, das eine mögliche Objektgrenze bzw. eine „Kandidaten“-Objektgrenze enthält. Für gewisse Objekte kann eine Auflösung in einem Bereich von etwa 25 Punkten pro Inch (DPI) bis ungefähr 50 DPI ausreichend sein, um den Kontrast und daher Objektgrenzen zu erkennen. Es kann eine anfängliche Verarbeitung, etwa eine Objekterkennung, ausgeführt werden, indem diese Bilder mit relativ geringer Auflösung verwendet werden, um Daten in äußerst effizienter Weise zu verarbeiten. Eine zusätzliche Verarbeitung kann ausgeführt werden unter Anwendung des Bildes mit geringer Auflösung oder eines entsprechenden Bildes mit hoher Auflösung, wie dies den Erfordernissen und/oder dem gewünschten Ergebnis des Prozesses entspricht.
  • In einigen Vorgehensweisen kann beim Erkennen eines Objekts in dem Videodatenstrom ein entsprechendes Bild mit hoher Auflösung aufgenommen bzw. erfasst werden und so zurechtgeschnitten werden, dass ein Teil oder der gesamte Hintergrund des Bildes entfernt wird.
  • In weiteren Ausführungsformen kann Benutzerrückmeldung angefordert, erhalten und/oder verwendet werden, um das Aufnehmen und/oder Verarbeiten von Videodaten zu ermöglichen, wie hierin beschrieben ist. Beispielsweise werden beim Ausführen einer Objekterkennung an Videodaten diverse Bildblöcke der Videodaten, in denen ein Objekt bekanntermaßen entdeckt wurde, für den Benutzer präsentiert werden. Der Benutzer kann das Erkennungsergebnis der Bestimmung bestätigen, modifizieren oder verneinen. Auf der Grundlage der Benutzereingabe kann der Erkennungsalgorithmus modifiziert werden. In einem weiteren Beispiel kann auf der Grundlage der Benutzereingabe eine minimale Aufnahmeauflösung ermittelt werden, wonach die diversen Bildblöcke unterschiedlichen Aufnahmeauflösungen entsprechen, wie dies zuvor in Hinblick auf das Trainieren der Aufnahmekomponente erläutert ist.
  • Superauflösung
  • Bei weiteren Vorgehensweisen kann es vorteilhaft sein, die Daten aus mehreren Blöcken des Bildes und/oder der Videodaten zu verwenden, um ein einziges, besseres, zusammengesetztes Bild für die Verarbeitung zu erzeugen. Beispielsweise kann ein Bild mit höherer Auflösung aus mehreren Bildblöcken aus Videodaten mit relativ niedriger Auflösung zusammengesetzt werden. Alternativ können mehrere Bilder mit hoher Auflösung zu einem Bild mit einer noch höheren Auflösung zusammengesetzt werden. Des Weiteren kann ein Gebiet mit relativ geringer Auflösung eines Bildes mit ansonsten hoher Auflösung oder ein unscharfes Gebiet (beispielsweise, wie es durch instabile Aufnahmebedingungen hervorgerufen werden kann) eines ansonsten scharfen Bildes verbessert werden, indem Daten aus mehreren Bildern und/oder Videoblöcken synthetisiert werden, um das Gebiet mit geringer Auflösung oder das unscharfe Gebiet erneut als Probe bereitzustellen und um ein zusammengesetztes Bild mit hoher Qualität (das heißt, hoher Auflösung/Schärfe) zu erzeugen. In einigen Ausführungsformen können die Bildblöcke binäre Bilddaten repräsentieren (das heißt, entsprechend zu Zweiton- oder „bitonalen“ Bildern), die verglichen, zusammengeführt und/oder benutzt werden, um Daten aus dem Bild, etwa Textzeichen, in einem Dokument zu extrahieren.
  • Metadaten
  • Das Abrufen, Empfangen und Bereitstellen von Metadaten sowie das Zuordnen von Metadaten zu digitalen Bilddaten ist eine weitere vorteilhafte Funktion innerhalb des Bereichs der hier beschriebenen mobilen Anwendung. Vorzugsweise ermöglicht die mobile Anwendung das Erhalten und Zuordnen aller verfügbaren Metadaten zu den entsprechenden Bilddaten. Beispielsweise nimmt in einer Situation ein Benutzer einen Videodatenstrom und/oder Bilddaten auf, die einem Dokument entsprechen. Das Dokument kann innerhalb der Bilddaten erkannt und als ein spezieller Dokumententyp klassifiziert werden. Auf der Grundlage der Klassifizierung können Metadaten aus einer Wissensdatenbank, die mehrere Dokumentklassen und zugehörige Metadaten umfasst, abgerufen werden. Die abgerufenen Metadaten können dann den Dokumentenbilddaten und/oder den Videodaten in beliebiger geeigneter Weise zugeordnet werden.
  • Metadaten können eine beliebige Information umfassen, die für ein Objekt, ein Bild eines Objekts und dergleichen relevant ist. Es sei weiterhin auf die anschauliche Situation verwiesen, in der ein Dokument als Objekt beteiligt ist, wonach anschauliche Metadaten die Dokumentenart, Textinhalt in dem Dokument, Kontext des Textes (beispielsweise Positionsangabe, Schriftart, Farbe, Größe und dergleichen), Seitengröße, Seitenauflösung, Farbenbittiefe etc. enthalten können. In anderen Ausführungsformen entsprechen die Metadaten Anweisungen für die nachfolgende Verarbeitung der Daten, etwa speziellen Parametern für das Ändern der Bildgröße, des Farbprofils und dergleichen, spezielle Parameter für das Extrahieren von Daten aus dem Bild und dergleichen, wie dies der Fachmann beim Studium der vorliegenden Beschreibung leicht nachvollziehen kann.
  • Bildauthentifizierung
  • In einigen Ausführungsformen können diverse Arten von Daten, einschließlich von Rohdaten und/oder verarbeiteten Bilddaten, Metadaten, die den Bilddaten zugeordnet sind, und dergleichen, wie dies der Fachmann beim Studium der vorliegenden Beschreibung leicht nachvollziehen kann, Authentifizierungsdaten enthalten und/oder diesen zugeordnet sein. Authentifizierungsdaten können verwendet werden, um sehr rasch und effizient einen Status von Daten zu ermitteln, etwa, ob eine spezielle Datei von einem vorhergehenden Zustand (beispielsweise durch Hinzufügen oder Entfernen von Metadaten zu bzw. von einer Bilddatei, durch Editieren von Metadaten, die einer Bilddatei zugeordnet sind, durch Verarbeiten oder erneutes Verarbeiten von Bilddaten mit unterschiedlichen Parametern und dergleichen) verändert worden ist.
  • In einer Ausführungsform kann die Bildauthentifizierung das Erzeugen einer oder mehrerer Authentifizierungszeichenketten aus einem Puffer in einem Speicher beinhalten. Die Zeichenkette kann von beliebiger Länge sein, ist vorzugsweise jedoch eine Zeichenkette mit 127 Bytes gemäß mindestens einigen Ausführungsformen. Insbesondere kann die Authentifizierung das Komprimieren eines Bildes (das Bilddaten und/oder zugehörige Metadaten enthalten kann) in einem Bildspeicher und das Erzeugen der Authentifizierungszeichenkette(n) für/aus einem oder mehreren Bereichen des Puffers beinhalten. Das Erzeugen der einen oder mehreren Authentifizierungszeichenkette(n) kann in einer Ausführungsform das Codieren von Daten in den Bereichen des Puffers zu der Authentifizierungszeichenkette beinhalten. Es kann eine beliebige Art der Codierung verwendet werden.
  • Beispielsweise kann das Authentifizieren eine Authentifizierungszeichenkette nur für das Bild, nur für die Metadaten, für das Bild und die zugeordneten Metadaten und dergleichen, erzeugen. Die Authentifizierungszeichenketten können in diversen Vorgehensweisen in den Puffer eingefügt, an diesen angehängt oder damit verknüpft werden, und werden vorzugsweise dem Puffer als eine oder mehrere Marke/n hinzugefügt, an welchem Punkt der Puffer in einen physischen Speicher (beispielsweise auf Diskette) als Datei ausgelagert wird. Zu beachten ist, dass diese Authentifizierungsweisen in gleicher Weise auf ein beliebiges Format eines Bildes und/oder aus Metadaten angewendet werden können, wozu ein beliebiges Komprimierformat gehört, das Metadaten-Marken, etwa JPEG- oder TIFF-Formate zulässt.
  • Zusätzlich und/oder alternativ kann die Authentifizierungszeichenkette in das Bild selbst, beispielsweise unter Anwendung eines Steganographie-Ansatzes, eingebettet werden.
  • Daten mit Authentifizierungszeichenketten, wie zuvor beschrieben ist, können nachfolgend authentifiziert werden, um zu bestimmen, ob die Daten seit der Erzeugung der Authentifizierungszeichenketten geändert worden sind. Insbesondere kann die Datei, die die Authentifizierungsmarken enthält, aus einem physischen Speicher in einen Speicherpuffer eingelesen werden, und die codierten Authentifizierungszeichenketten können aus den entsprechenden Marken extrahiert werden. Diese Zeichenketten können decodiert und mit einem oder mehreren entsprechenden Bereichen des Puffers verglichen werden, aus denen die codierte Authentifizierungszeichenkette erzeugt wurde. Wenn die decodierte Authentifizierungszeichenkette und der Bereich des Puffers, der zur Erzeugung der Authentifizierungszeichenkette verwendet wurde, übereinstimmen, dann ist der Bereich des Puffers, der zur Erzeugung der Authentifizierungszeichenkette verwendet wurde, nicht verändert worden, wodurch angezeigt wird, dass wahrscheinlich auch die gesamte Datei nicht verändert worden ist. Durch die Verwendung mehrerer Authentifizierungszeichenketten (mehrere Bereiche des Puffers) kann das Ermitteln, ob eine Datei geändert worden ist, mit höherem Zutrauen, jedoch zu Lasten der Recheneffizienz, ausgeführt werden.
  • In einer anschaulichen Vorgehensweise können die Videoaufnahme und die Verarbeitung in einer Weise ausgeführt werden, die im Wesentlichen ähnlich zu dem nachfolgend gezeigten Flussdiagramm ist. Wie in Hinblick auf andere Flussdiagramme, die zuvor präsentiert sind, angemerkt wurde, ist dieses anschauliche Beispiel in keiner Weise einschränkend, sondern es wird vielmehr bereitgestellt, um ein gründlicheres Verständnis der hierin präsentierten erfindungsgemäßen Konzepte zu ermöglichen.
  • Videoaufnahme-Benutzerschnittstelle
  • In noch weiteren Ausführungsformen können die hier beschriebenen Systeme, Verfahren und Computerprogrammprodukte über eine oder mehrere Benutzerschnittstellen implementiert werden, die ausgebildet sind, eine Aufnahme bzw. Erfassung und Verarbeitung von Information unter Anwendung von Videodaten zu ermöglichen.
  • Die Benutzerschnittstellen können ferner einen Benutzer in die Lage versetzen, in einfacher Weise Aufnahme- und Verarbeitungsvorgänge unter Anwendung von Videodaten auszuführen sowie auch die Ergebnisse derartiger Aufnahme- und/oder Verarbeitungsvorgänge in Echtzeit oder nahezu Echtzeit zu prüfen. Beispielsweise wird jedes Mal, wenn Bilddaten Bild- und/oder Videodaten aufgenommen werden und/oder verarbeitet werden, ein Miniaturbild, das dem Bild- und/oder den Videodaten entspricht, erzeugt und einem Benutzer präsentiert werden. Das Erzeugen des Miniaturbilds kann ein Vorgang sein, der in einigen Ausführungsformen asynchron im Hintergrund ausgeführt wird. Durch das Miniaturbild kann ein Benutzer die Ergebnisse davon erkennen, was aufgenommen und/oder verarbeitet wurde. Wenn der Benutzer mit dem Ergebnis nicht zufrieden ist oder das Ergebnis in anderer Weise als nicht akzeptabel ermittelt wird, beispielsweise gemäß einer oder mehreren vordefinierten Qualitätssicherungsmaßzahlen, dann kann eine Benutzerschnittstelle das erneute Aufnehmen und/oder das Ändern der ursprünglich erfassten Daten erleichtern.
  • Des Weiteren können Benutzerschnittstellen bereitgestellt werden, um es einem Benutzer zu ermöglichen und/oder zu erleichtern, Aufnahme- und/oder Verarbeitungsergebnisse, beispielsweise am Ende einer Aufnahme- und Verarbeitungssitzung, zu überarbeiten. Beispielsweise erhält in einer Ausführungsform ein Benutzer nach Ende eines Aufnahme- und/oder Verarbeitungsarbeitsablaufs (beispielsweise sind Videodaten und/oder Bilddaten aufgenommen worden und mindestens ein Verarbeitungsvorgang wurde an den Daten ausgeführt) die Gelegenheit, das Ergebnis des Arbeitsablaufes zu prüfen.
  • In einer weiteren Vorgehensweise kann eine Benutzerprüfung während des Videodatenaufnahmevorgangs aktiviert werden. Beispielsweise initiiert ein Benutzer die Videoaufnahmefunktion einer mobilen Anwendung und beginnt mit der Aufnahme von Videodaten. Wie zuvor beschrieben ist, beinhaltet der Aufnahmevorgang die Vorverarbeitung, etwa eine Stabilitätsermittlung und/oder Objekterkennung. Im Verlaufe der Aufnahme der Videodaten wird ein Objekt in dem Aufnahmefeld erfasst bzw. erkannt, und es wird eine Angabe bzw. Indikation bezüglich der Erkennung für den Benutzer präsentiert (beispielsweise das Erscheinen eines Abgrenzungsfeldes innerhalb des Aufnahmefeldes, wobei die Farbe von rot auf grün wechselt). Es wird ein Bild mit hoher Auflösung, ein Miniaturbild und dergleichen optional bei Erkennung des Objekts und beim Ermitteln, dass eine Stabilitätsbedingung existiert, aufgenommen und das Bild kann dem Benutzer zur unmittelbaren Prüfung innerhalb der Videoaufnahmebenutzerschnittstelle präsentiert werden. Beim Prüfen des Bildes, des Miniaturbilds und dergleichen, kann der Benutzer die Geeignetheit des aufgenommenen Bildes, des erzeugten Kleinbildes und dergleichen angeben. Wenn der Benutzer angibt, dass das Bild, das Miniaturbild und dergleichen akzeptabel ist, dann kann die Videoaufnahmebenutzerschnittstelle automatisch den Aufnahmevorgang beenden, oder kann optional den Benutzer anweisen, den Aufnahmevorgang zu beenden. Auf diese Weise kann die Benutzerprüfung eingesetzt werden, das Auftreten von unnötigen Vorgängen zum Aufnehmen und/oder zur Verarbeitung zu minimieren, wie dies ansonsten geschehen kann, wenn ein Benutzer fortgesetzt einen Aufnahmevorgang ausführt, nachdem bereits ein geeignetes Bild mit hoher Auflösung aufgenommen und/oder verarbeitet worden ist, in einer Weise, die den Erfordernissen für eine nachgeordnete Verarbeitung, etwa Bildqualität, Bildformat und dergleichen genügt.
  • Verfolgung bzw. Überwachung
  • In diversen Vorgehensweisen profitieren die hier offenbarten Techniken von dem Vorteil der Echtzeit- (oder nahezu Echtzeit-) Latenz. Anders ausgedrückt, da ein Benutzer, der mit einem Mobilgerät interagiert, einen Aufnahmevorgang, eine Auswertung und dergleichen, wie sie hierin offenbart sind, ausführt, können die zugrunde liegenden Vorgänge, die zum Bewerkstelligen jedes Vorgangs ausgeführt werden, parallel ausgeführt werden, das heißt, für mehrere Objekte gleichzeitig und in der Weise einer Nahezu-in-Echtzeit-Verarbeitung. Der Rechenaufwand ist auf ein Ausmaß reduziert worden, das erforderlich ist, um eine Echtzeit-Information bezüglich eines oder mehrerer Objekte, die in einer Mobilgerät-Ansichtenauffindungseinheit dargestellt sind, bereitzustellen, und dies repräsentiert einen wichtigen Vorteil für den Benutzer im Vergleich zu bestehenden Techniken, die diskrete Aufnahme-, Auswerte- und Eingabe-Techniken erfordern.
  • Folglich ist eine der vorteilhaften Ausführungsformen einer Echtzeitaufnahme, -verarbeitung, -auswertung und dergleichen, die Fähigkeit, Objekte im Verlaufe des Ausführens der hierin offenbarten Techniken zu „verfolgen“. „Verfolgen“ bzw. „Überwachen“ sollte so verstanden werden, dass ein Objekt innerhalb eines Sichtfeldes eines Mobilgeräts erkannt und/oder analysiert werden kann, und die Erkennung/Analyse bleibt gültig und/oder vorhanden in einer Reihe diskreter Blöcke aus Bilddaten und/oder Videodaten, da das Verfahren in der Lage ist, die Position von Objekten bei Erkennung dieser Objekte zu überwachen und kontinuierlich die erkannten Objekte auszuwerten, um zweckdienliche Information bereitzustellen.
  • Aus Anwendersicht wird die Verfolgung typischerweise dadurch umgesetzt, dass eine Abgrenzung (beispielsweise ein Feld, wie es hierin beschrieben ist) in Bezug auf ein erkanntes Objekt beibehalten wird, selbst wenn sich das Mobilgerät im dreidimensionalen Raum während des Aufnahmevorgangs bewegt (wodurch bewirkt wird, dass das erkannte Objekt sich scheinbar von der Perspektive des Referenzpunkts des Mobilgeräts weg bewegt), und/oder sogar wenn mehrere Objekte in dem Sichtfeld vorhanden sind. Tatsächlich ist die Verfolgung in der Lage, eine beliebige Anzahl an Objekten zu überwachen, die entsprechend den Eigenschaften, wie sie zuvor festgelegt sind, definiert sind.
  • Wie der Fachmann beim Studium dieser vorliegenden Offenbarungen erkennt, können beliebige Rohdaten und/oder verarbeitete Daten, etwa Bilddaten, Videodaten und dergleichen, diversen Metadaten zugeordnet werden, und sie können anderen Rohdaten oder verarbeiteten Daten und dergleichen, zugeordnet werden. Ferner kann jede der hier offenbarten Funktionen auf die Bildaufnahme und -verarbeitung, die Videoaufnahme und -verarbeitung und dergleichen, angewendet werden.
  • In einer bevorzugten Vorgehensweise beinhaltet beispielsweise das Verfolgen eines oder mehrere von: Neupositionieren oder Neufestlegen der Abgrenzung, um den Rand des Objekts in jedem der Blöcke zu umschließen, in denen das verfolgte Objekt innerhalb der Ansichtenauffindungseinheit dargestellt ist; und Neupositionierung oder erneutes Anzeigen der Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt die eine oder mehreren definierenden Eigenschaften zeigt.
  • Optional beinhaltet das Verfolgen ferner das Empfangen einer Echtzeit-Rückmeldung aus dem Mobilgerät. Die Echtzeit-Rückmeldung beruht zumindest teilweise, und idealerweise vollständig auf einer oder mehreren Messungen, die unter Anwendung von Hardwarekomponenten des Mobilgeräts ausgeführt werden, beispielsweise: einer Kamera und/oder eines Beschleunigungsmessers und/oder eines Gyroskops und/oder einer Uhr.
  • Gemäß einigen Techniken kann die Echtzeit-Rückmeldung eine Stabilitätsrückmeldung einschließlich der Tatsache, dass ein Orientierungswinkel des Mobilgeräts innerhalb eines vorbestimmten Orientierungsbereichs ist; und dass ein Bewegungsvektor des Mobilgeräts eine Größe hat, die kleiner als ein vorbestimmter Schwellenwert ist.
  • In einer weiteren Vorgehensweise wird der Bewegungsvektor des Mobilgeräts auf der Grundlage einer Echtzeit-Rückmeldung, die aus der Kamera erhalten wird und nicht auf der Grundlage einer Rückmeldung ermittelt, die aus dem Beschleunigungsmesser des Mobilgeräts erhalten wird. Kurz gesagt, die Verfolgungstechniken sind in der Lage, eine Größe und eine Richtung einer Geschwindigkeit zu berechnen, mit der die Kamera durch den dreidimensionalen Raum bewegt wird, wobei dies unabhängig von einer Änderung der Beschleunigung ist. Folglich muss sich das Gerät nicht mehr auf einen Beschleunigungsmesser stützen, um Geschwindigkeitsvektoren (wie dies im Falle einer konstanten Geschwindigkeit der Fall wäre) zu ermitteln.
  • Ein noch weiterer Vorteil, der sich durch die Verwendung von Videodaten im Zusammenhang mit den vorliegenden erfindungsgemäßen Techniken ergibt, ist die Fähigkeit, zusammengesetzte Bilder aus mehreren Blöcken zu erzeugen. In einer Situation wird dieser Vorteil ausgenutzt, wie nachfolgend erläutert ist in Verbindung mit der Superauflösung, die beispielsweise verwendet werden kann, um unscharfe oder körnige Gebiete eines Bildes mit ansonsten hoher Qualität deutlicher darzustellen.
  • In der zusätzlich vorteilhaften Technik wird die Synthese eines zusammengesetzten Bildes ausgenutzt, um in wirksamer Weise ein Objekt abzubilden, das ansonsten zu groß ist, um mit ausreichenden Details für die gewünschte Anwendung unter Anwendung von Bilddaten alleine aufgenommen zu werden. Es sei beispielsweise der Fall eines langen Dokuments betrachtet, etwa eines Belegs, oder eines rechtsbeständigen Formats. Das Dokument zeigt eine Fülle aus informativem Text, obwohl dies in einer relativ geringen Größe erfolgt. Um das gesamte Dokument in einem einzigen Bild zu erfassen, müsste der Benutzer das Dokument so weit entfernt von der Kamera anordnen, dass die Qualität des Informationstextes so weit beeinträchtigt würde, dass eine nachfolgende Extraktion und Verwendung der Information nicht praktizierbar oder unmöglich wäre.
  • Daher ist es ein weiterer Aspekt der hier offenbarten erfindungsgemäßen Techniken, dass ein langes Dokument unter Anwendung von Videodaten erfasst bzw. aufgenommen werden kann, und die diversen Blöcke der Videodaten können miteinander „verbunden“ werden, so dass ein zusammengesetztes Bild erzeugt wird, das das gesamte Objekt darstellt, das zu groß war, um mit ausreichender Deutlichkeit in eine einzige Aufnahme zu passen. Insbesondere bevorzugt sind Ausführungsformen, in denen das zusammengesetzte Bild einen hohen Grad an speziellen Eigenschaften und Details beibehält, was ansonsten nur durch Vergrößern des Objekts auf ein Maß möglich wäre, mit welchem das Aufnehmen des gesamten Objekts in einem einzigen Bild unmöglich ist.
  • Anders gesagt, in einer Vorgehensweise ist das zusammengesetzte Bild durch eine Höhe und eine Breite gekennzeichnet. Die Höhe des zusammengesetzten Bildes ist größer oder gleich der Höhe eines beliebigen einzelnen Blocks der Videodaten, und die Breite des zusammengesetzten Bildes ist größer oder gleich der Breite eines beliebigen einzelnen Blocks der Videodaten. Jeder der synthetisierten Blöcke der Videodaten stellt einen Bereich des Objekts dar, und das zusammengesetzte Bild zeigt das gesamte Objekt.
  • Des Weiteren beinhaltet das Synthetisieren des zusammengesetzten Bildes das Erkennen eines ersten Merkmals (beispielsweise eine obere Grenze einer Seite) des Objekts, das in der Ansichtenauffindungseinheit dargestellt ist; das automatische Initiieren eines Aufnahmevorgangs in Reaktion auf das Erkennen der ersten Grenze des Objekts; das einmalige oder mehrmalige Erfassen von Bilddaten mit hoher Auflösung und von Videodaten mit geringer Auflösung mittels der automatisch initiierten Erfassung, das Erkennen eines zweiten Merkmals (beispielsweise eine untere Grenze einer Seite) des in der Ansichtenauffindungseinheit dargestellten Objekts; einmaliges oder mehrmaliges Erfassen von Bilddaten mit hoher Auflösung und von Videodaten mit geringer Auflösung mittels des automatisch initiierten Aufnahmevorgangs; und automatisches Beenden des Aufnahmevorgangs in Reaktion darauf, dass das zweite Merkmal des Objekts erkannt wird.
  • Gemäß der vorhergehenden Vorgehensweise kann beispielsweise ein Benutzer den Vorgang des Aneinanderfügens initiieren, indem ein langes Dokument unter Anwendung eines langsamen Überstreichens von oben nach unten erfasst wird. Wie detaillierter zuvor erläutert ist, kann eine fenstergestützte OCR besonders vorteilhaft in Verbindung mit einer Lösung mit Zusammenfügen verwendet werden, um Textinformation, die in einem langen Dokument oder einem anderen großen Objekt dargestellt ist, das nicht mit einem gewünschten Grad an Detail oder Auflösung in einem einzigen Bildblock oder Videoblock erfasst werden kann, zu erfassen, zu ermitteln, auszuwerten und dergleichen.
  • Da beispielsweise in einigen Vorgehensweisen ein Benutzer diverse Teilbilder aufnehmen wird, aus denen er das zusammengesetzte Bild erzeugt, und da dieser Aufnahmevorgang im Allgemeinen (aber nicht notwendigerweise) ein relativ kontinuierliches, langsames Schwenken der Mobilgerätkamera in Bezug auf das gerade abgebildete Objekt beinhaltet, wird es für den Benutzer möglich sein, das große Objekt aufzunehmen und gleichzeitig eine gewisse Echtzeit- (oder nahezu Echtzeit-) OCR auf Fensterbasis auszuführen. Die Ergebnisse der fenstergestützten OCR können unabhängig oder in Verbindung mit anderen definierenden Eigenschaften des Objekts verwendet werden, um Eigenschaften des Objekts zu ermitteln.
  • Beispielsweise kann in einer Ausführungsform eine Objektklassifizierung oder eine relevante Information aus dem Objekt zeitgleich mit der Aufnahme der Videodaten und/oder Bilddaten für die nachfolgende Verwendung bei der Erzeugung des zusammengesetzten Bildes ermittelt werden.
  • In diversen Vorgehensweisen kann eine vorläufige Objektklassifizierung auf der Grundlage der definierenden Eigenschaften des Objekts ermittelt werden, und sie kann unter Anwendung fenstergestützter OCR-Ergebnisse validiert werden, beispielsweise durch die Anwesenheit eines Merkmals, eines Wertes oder einer Zeichenkette, von dem/der bekannt ist, dass es/er/se in Objekten vorhanden istie zu einer speziellen Klasse gehören. In ähnlicher Weise kann eine Objektklassifizierung lediglich auf Grundlage von fenstergestützten OCR-Ergebnissen anstatt auf Basis der Verwendung definierender Eigenschaften aus dem Objekt, wie dies zuvor beschrieben ist, ermittelt werden. Ferner können in einigen Ausführungsformen sowohl die definierenden Eigenschaften des Objekts als auch die fenstergestützten OCR-Ergebnisse berücksichtigt werden, wenn eine Klassifizierung des Objekts ermittelt wird.
  • Beispielsweise kann in einer Vorgehensweise eine Objektklassifizierung unabhängig auf Basis von (1) fenstergestützten OCR-Ergebnissen und (2) den definierenden Eigenschaften des Objekts ermittelt werden. Den unabhängig ermittelten Ergebnissen kann ein relatives Gewicht, ein Vertrauenswert und dergleichen, zugewiesen werden und sie können weiter ausgewertet werden, um eine Gesamtermittlung in Hinblick auf die Objektklassifizierung vorzunehmen.
  • Beispielsweise können diverse Objektarten einfacher klassifiziert werden aufgrund einer Textinformation, die an dem Objekt dargestellt ist, oder aus definierenden Eigenschaften des Objekts selbst. Dokumente können beispielsweise einfacher oder genauer auf der Grundlage einer Textinformation klassifiziert werden, die unter Anwendung einer fenstergestützten OCR-Vorgehensweise ermittelt wird, während Objekte, die eine kennzeichnende Markierung, etwa ein Logo, ein Emblem, einen Strichcode, ein Siegel und dergleichen, zeigen, einfacher oder genauer auf der Grundlage von definierenden Eigenschaften klassifiziert werden können, etwa Objektform, Kontur, Abmessungen, Farbprofil und dergleichen, wie dies der Fachmann im Besitze der vorliegenden Beschreibung leicht erkennen kann.
  • Dennoch kann es zweckdienlich sein, mehrere Arten von Informationen bei der Ermittlung einer Klassifizierung eines speziellen Objekts zu verwenden, selbst wenn a priori bekannt ist, dass das Objekt einfacher und genauer auf der Grundlage einer speziellen Art von Information klassifizierbar ist. In derartigen Fällen kann bzw. können die Form bzw. Formen der Information, von denen bekannt ist, dass sie reproduzierbare, genaue, zuverlässige Klassifizierungen eines speziellen Objekts erzeugen, verwendet werden, um eine Objektklassifizierung vorherzusagen, und es kann ihnen ein relatives Gewicht zugewiesen werden (beispielsweise definierende Eigenschaften, wie sie hierin definiert sind, können verwendet werden und können auf einer 0-1-Skala einen zugewiesenen Wert von 0,75 erhalten).
  • In gleicher Weise können eine oder mehrere andere Formen an Information bei der Ermittlung von Objektklassifizierungen hilfreich sein, gegebenenfalls zu einem geringerem Grade als die bevorzugte Informationsart, und diese können verwendet werden, um die Objektklassifizierung vorherzusagen, und es können ihnen relativ niedrige Gewichte im Vergleich zu der bevorzugten Informationsart zugewiesen werden (beispielsweise einer Textinformation, die durch fenstergestützte OCR ermittelt wird, kann verwendet werden, um die Objektklassifizierung vorherzusagen, und der Vorhersage kann ein Gewicht von 0,25 auf einer 0-1-Skala zugewiesen werden).
  • Es sei nun wieder auf das Konzept der Synthese eines zusammengesetzten Bildes verwiesen, um zu ermitteln, ob, und genauer wie, zwei Bilder zusammengefügt werden sollten, um das zusammengesetzte Bild zu erzeugen, wobei in einer Vorgehensweise das Synthetisieren bzw. das Zusammensetzen umfasst: Ausführen mindestens einer Homographietransformation an zwei oder mehr der Blöcke der Videodaten und Ausrichten von mindestens Bereichen der zwei oder mehr Blöcke der Videodaten zumindest teilweise auf der Grundlage der Homographietransformationen.
  • Einige anschauliche Verfahren, die im Bereich der vorliegenden Offenbarung liegen, werden mit speziellen Verweis auf 3 und 4 erläutert. Die nachfolgend präsentierten anschaulichen Ausführungsformen sollen nicht als eine Einschränkung auf den Bereich der aktuellen Offenbarung erachtet werden, sondern sie sind vielmehr angegeben, um mögliche Implementierungen des hierin offenbarten Gegenstands darzustellen.
  • In 3 ist ein Flussdiagramm eines Verfahrens 300 gemäß einer Ausführungsform gezeigt. Das Verfahren 300 kann in einer beliebigen geeigneten Umgebung ausgeführt werden, etwa unter anderen in solchen, die zuvor in 1-2 dargestellt sind. Ferner kann das Verfahren 300 eine beliebige Anzahl zusätzlicher und/oder alternativer Vorgänge jener beinhalten, die speziell in 3 dargestellt sind, wobei dies für einige Vorgehensweisen gilt. Die Schritte bzw. Operationen des Verfahrens 300 können in einer beliebigen geeigneten Reihenfolge ausgeführt werden, die der Fachmann auf dem Gebiet beim Studium dieser Offenbarung in Erwägung ziehen würde.
  • In Schritt 302 werden digitale Videodaten, die von einem Mobilgerät aufgenommen bzw. erfasst werden, empfangen.
  • Schritte 304-308 werden unter Anwendung eines Prozessors ausgeführt, der in diversen Ausführungsformen ein Prozessor des Mobilgeräts, ein Prozessor einer entfernten Einrichtung, etwa eines Servers oder eines weiteren Mobilgeräts ist, ein Prozessor einer oder mehrerer Ressourcen einer Cloud-Rechenumgebung und dergleichen, ist. Die Schritte 304-308 können unter Anwendung einer oder mehrerer derartiger Einrichtungen und/oder ihrer Prozessoren in diversen Ausführungsformen ausgeführt werden.
  • In Schritt 304 werden mehrere Blöcke der digitalen Videodaten ausgewertet.
  • In Schritt 306 werden ein oder mehrere Blöcke auf der Grundlage der Auswertung ermittelt, wobei die ermittelten Blöcke ein oder mehrere vordefinierte Qualitätskontrollkriterien erfüllen.
  • In Schritt 308 wird mindestens ein Block, der ein oder mehrere der vordefinierten Qualitätskontrollkriterien erfüllt, verarbeitet.
  • In einigen Vorgehensweisen können vordefinierte Qualitätskontrollkriterien beinhalten: einen minimalen Beleuchtungspegel, beispielsweise eine mittlere Beleuchtung über einem gewissen Schwellenwert; einen maximalen Beleuchtungspegel, beispielsweise eine mittlere Beleuchtung unterhalb eines gewissen Schwellenwerts; eine minimale Beleuchtungsgleichmäßigkeit, beispielsweise eine Beleuchtungsabweichung von einem vordefinierten Wert in Bezug auf eine mittlere Beleuchtung etc., die unterhalb eines gewissen Schwellenwerts liegt; eine minimale Auflösung; eine minimale Schärfe, beispielsweise der Anteil an Unschärfe unterhalb eines gewissen Schwellenwerts; und eine minimale Projektion, das heißt, der Einfluss von Projektionseffekten, etwa Winkel der Kameraorientierung, „Fisch-Bowling“ und dergleichen, liegt unterhalb einer gewissen Schwelle, die auf der Grundlage von Metadaten, die während des Aufnahmevorgangs gesammelt werden, oder auf der Grundlage von Eigenschaften des Bildes, ermittelt werden kann.
  • Zu Qualitätskontrollkriterien können ferner beispielsweise ein Schwellensichtbarkeitskriterium oder eine andere geeignete Angabe darüber gehören, ob das Dokument als Ganzes sichtbar ist, beispielsweise in Form einer Schwellenanzahl erwarteter Kanten, Ecken oder anderer definierender Merkmale, die innerhalb des Ansichtenauffindungsgebiets wahrnehmbar sind und/oder die ausreichend innerhalb des Ansichtenauffindungsgebiets liegen (beispielsweise die erste Ausführungsform ist ein binäres Ja/Nein, die zweite Ausführungsform ist ein weiterer Test, um zu erkennen, ob es ausreichend Platz um jede Kante des Objekts gibt, und dergleichen). Ferner können Qualitätskontrollkriterien in diversen Vorgehensweisen die Anwesenheit von Blendlicht; und eine Objektklassifizierung beinhalten.
  • Beispielsweise kann als eine Darstellung eines tatsächlichen rechteckigen Dokuments ausgewertet werden, dass der rechteckige „Charakter“ des dargestellten Dokuments ermittelt wird, das aufgrund eines ungenauen Aufnahmewinkels trapezförmig erscheinen kann. Bilder, die ein Dokument darstellen, dessen Erscheinungsform zu sehr von der „Rechteckform“ abweicht, können dann ignoriert werden. Das Ermitteln, ob eine Form im Wesentlichen rechteckigförmig ist, etwa eine Form, deren Seitenkanten eines Dokuments entsprechen, kann bewerkstelligt werden unter Anwendung eines im Stand der Technik bekannten Mittels, und in einer Ausführungsform kann dies das Ausführen einer oder mehrerer Transformationen beinhalten.
  • In weiteren Vorgehensweisen kann das Verfahren zusätzlich und/oder alternativ beinhalten: Ermitteln, ob der eine oder die mehreren Blöcke, die das eine oder die mehreren vordefinierten Kontrollkriterien erfüllen, einem Bild mit hoher Auflösung entsprechen, das in dem Mobilgerät gespeichert ist, Verarbeiten des Bilds mit hoher Auflösung, wenn ermittelt wird, dass der eine oder die mehreren Blöcke, die das eine oder die mehreren vordefinierten Kontrollkriterien erfüllen, dem Bild mit hoher Auflösung entsprechen. Anders ausgedrückt, wenn ein Mobilgeräts ein Bild mit hoher Auflösung eines Dokuments, das im Speicher abgelegt ist, aufweist und ein Videodatenstrom einen Block oder mehrere Blöcke des Dokuments mit relativ geringer Auflösung aufnimmt, wobei die Blöcke ansonsten akzeptabel sind, dass kann es bevorzugt sein, das Bild mit hoher Auflösung in der nachfolgenden Verarbeitung zu verwenden, es kann aber rechentechnisch effizienter sein, den einen Block oder die mehreren Blöcke mit der relativ geringen Auflösung, der bzw. die dem Bild mit hoher Auflösung entsprechen, auszuwerten und/oder vorzuverarbeiten.
  • In diversen Ausführungsformen, die insbesondere auf eine Dokumentenverarbeitung abzielen, beinhalten die digitalen Videodaten eine digitale Darstellung eines Dokuments. In dieser Situation kann das Verfahren auch das Aufnehmen der digitalen Videodaten unter Anwendung einer Kamera des Mobilgeräts und das Erkennen der digitalen Darstellung des Dokuments beinhalten.
  • Einige Vorgehensweisen, die Superauflösungsfähigkeiten beinhalten, wie sie hierin beschrieben sind, können ein Synthetisieren mindestens eines Bereichs aus zwei oder mehr Blöcken der digitalen Videodaten; und das Erzeugen eines zusammengesetzten Bildes auf der Grundlage der Synthese beinhalten. Zumindest ein Bereich des zusammengesetzten Bildes ist vorzugsweise durch eine relativ höhere Auflösung als die Auflösung jeweils der zwei oder mehr Blöcke der digitalen Videodaten gekennzeichnet, aus denen das zusammengesetzte Bild synthetisiert wurde. Das zusammengesetzte Bild kann verwendet werden, um eine Dokumenterkennung (oder eine Objekterkennung im Falle von Objekten, die keine Dokumente sind) auszuführen.
  • Selektive Auto-Aufnahme
  • Im Bereich der vorliegenden Offenbarung liegt auch die Funktion der selektiven Auto-Aufnahme, die in einer Ausführungsform gesamt oder teilweise als ein Verfahren eingerichtet werden kann, etwa ein Verfahren 400, das in 4 gezeigt ist. Das Verfahren 400 kann in einer beliebigen geeigneten Umgebung ausgeführt werden, unter anderem etwa in einer Umgebung, wie sie zuvor in 1-2 gezeigt ist. Ferner kann das Verfahren 400 eine beliebige Anzahl zusätzlicher und/oder alternativer Schritte neben jenen Schritten enthalten, die speziell in 4 gezeigt sind, wobei dies für einige Ausführungsformen gilt. Die Aktionen bzw. Schritte des Verfahrens 400 können in einer beliebigen Reihenfolge ausgeführt werden, die von einem Fachmann aufgrund des Studiums dieser Offenbarung in Betracht gezogen würde.
  • In Schritt 402 wird eine mobile Anwendung unter Anwendung eines Prozessors eines Mobilgeräts aufgerufen bzw. aktiviert. Die mobile Anwendung kann in beliebiger geeigneter Weise aktiviert werden, etwa durch Interaktion mit einer Benutzerschnittstelle des Mobilgeräts, durch die Ausgabe eines Sprachbefehls, durch Drücken eines Knopfs und dergleichen,
  • In Schritt 404 wird eine Videoaufnahmeschnittstelle der mobilen Anwendung aktiviert. Die Videoaufnahmeschnittstelle kann insbesondere von einem Benutzer aufgerufen werden, beispielsweise durch Interaktion mit einem Knopf oder einer Benutzerschnittstelle, die auf dem Bildschirm des Mobilgeräts angezeigt wird. Alternativ kann in diversen Vorgehensweisen die Videoaufnahmeschnittstelle automatisch aktiviert werden, auch als Teil einer vorbestimmten Routine, in Reaktion darauf, dass eine Vorbedingung erfüllt wird (etwa eine vorhergehende Ausführung für das Ende eines Prozesses) und dergleichen.
  • In Schritt 406 wird eine Benutzereingabe über die Aufnahmeschnittstelle empfangen. Die Benutzereingabe weist vorzugsweise die mobile Anwendung an, einen Aufnahmevorgang, beispielsweise unter Anwendung einer Aufnahmekomponente eines Mobilgeräts, zu aktivieren.
  • In Schritt 408 wird eine Echtzeit-Rückmeldung über das Mobilgerät angefordert. Die Echtzeit-Rückmeldung kann einen beliebigen relevanten Bereich einer Videoaufnahme und/ oder eine Verarbeitung betreffen, und in einer bevorzugten Ausführungsform betrifft die Echtzeit-Rückmeldung das Aufrufen bzw. Aktivieren eines Aufnahmevorgangs, etwa eine oder mehrere Eigenschaften von Daten, die mittels des Aufnahmevorgangs erfasst werden, Parameter zum Ausführen des Aufnahmevorgangs, Eigenschaften einer Aufnahmekomponente, die bei der Ausführung eines Aufnahmevorgangs zu verwenden ist, etwa eine Orientierung und/oder Beschleunigung eines Mobilgeräts (die unter Anwendung integrierter Hardwarekomponenten, etwa eines Gyroskops, eines Beschleunigungsmessers und dergleichen, ermittelt werden können), Information bezüglich des Ergebnisses eines Aufnahmevorgangs, die Geeignetheit von erfassten Daten für die nachfolgende Verarbeitung und dergleichen,
  • In einer speziellen Ausführungsform beinhaltet der Schritt 408 das Anfordern einer Stabilitätsinformation aus einer oder mehreren Hardwarekomponenten, die in dem mobilen Gerät enthalten sind. Die Aufnahmeschnittstelle fordert sichtbar Beschleunigungsdaten des Mobilgeräts aus einem integrierten Beschleunigungsmesser in Reaktion darauf an, dass die Benutzereingabe empfangen wird, die anweist, dass die Aufnahmeschnittstelle den Aufnahmevorgang aktiviert. Die Aufnahmeschnittstelle kann ebenfalls in sichtbarer Weise Orientierungsdaten des Mobilgeräts aus einem integrierten Gyroskop in Reaktion darauf anfordern, dass die Benutzereingabe empfangen wird, die die Aufnahmeschnittstelle anweist, den Aufnahmevorgang zu aktivieren. Bei Empfang der angeforderten Beschleunigungsdaten und Orientierungsdaten werden die Daten mit vorbestimmten Stabilitätsschwellenwertkriterien verglichen, die zuvor so bestimmt wurden, dass sie einer Stabilitätsbedingung genügen, das heißt, Bedingungen, die typischerweise dazu führen, dass Bilddaten und/oder Videodaten mit ausreichender Qualität für eine nachgeordnete Verarbeitung erfasst werden. Das Vergleichsergebnis kann verwendet werden, um zu ermitteln, ob die Stabilitätsbedingung existiert, und Daten können nur dann erfasst werden, wenn ermittelt wird, dass die Stabilitätsbedingung existiert, so dass die Wahrscheinlichkeit maximal wird, dass ein Bild, das mittels der Aufnahmeschnittstelle aufgenommen wird, für die gewünschte nachgeordnete Verarbeitung geeignet ist.
  • In Schritt 410 wird die Echtzeit-Rückmeldung empfangen. Wie nachfolgend detailliert beschrieben ist, kann die Echtzeit-Rückmeldung verwendet werden, um das Erfassen von Videodaten und/oder Bilddaten unter Bedingungen zu ermöglichen, die mit hoher Wahrscheinlichkeit zu Videodaten und/oder Bilddaten führen, die ausreichende Qualität für die nachgeordnete Verarbeitung haben. Beispielsweise kann eine Echtzeit-Rückmeldung verwendet werden, um eine angemessene Beleuchtung während der Aufnahme sicherzustellen, eine Unschärfe, Blendlicht, Streifenbildung und dergleichen, zu minimieren, um sicherzustellen, dass die Videodaten und/oder Bilddaten ein geeignetes Objekt oder eine Objektart und dergleichen, erfassen.
  • In Schritt 412 wird ein Aufnahmevorgang mittels der Aufnahmeschnittstelle aktiviert, wenn ermittelt wird, dass die Echtzeit-Rückmeldung ein oder mehrere vorbestimmte Kriterien erfüllt.
  • Die Echtzeit-Rückkopplung beruht vorzugsweise zumindest teilweise auf einer oder mehreren Messungen, die unter Anwendung einer oder mehrerer integrierter Hardwarekomponenten des Mobilgeräts ausgeführt werden. Zu anschaulichen integrierten Hardwarekomponenten gehören eine Kameras und/oder ein Beschleunigungsmesser und/oder ein Gyroskop und/oder eine Uhr, aber es kann eine beliebige Hardwarekomponente, die in einem Mobilgerät integriert ist, dazu gehören. Ferner kann die Echtzeit-Rückmeldung gänzlich oder teilweise eine Indikation sein, dass ein Dokument in einem Sichtfeld der Kamera, die in dem Mobilgerät integriert ist, liegt.
  • In einer besonders bevorzugten Vorgehensweise umfasst die Echtzeit-Rückmeldung eine Stabilitätsrückmeldung, etwa einen Orientierungswinkel des Mobilgeräts; einen Beschleunigungsvektor des Mobilgeräts (beispielsweise eine Größe und eine Richtung einer Beschleunigung pro Einheitszeit des Mobilgeräts), eine Beleuchtung eines Sichtfeldes der Kamera, eine Beleuchtung eines Zielobjekts in dem Sichtfeld der Kamera, eine Anwesenheit von Blendlicht in dem Sichtfeld der Kamera und dergleichen, wie dies der Fachmann aufgrund des Studiums der vorliegenden Beschreibung leicht erkennt. In einer Ausführungsform kann die Beleuchtung gekennzeichnet durch und/oder abgeleitet aus einer minimalen, maximalen, mittleren oder anderen statistischen Information bezüglich des Videodatenstroms und/oder der Bildintensität, der Helligkeit und dergleichen, die aus der Kamera direkt und/oder mit minimaler Vorverarbeitung während der Videodatenstromerfassung in diversen Vorgehensweisen erhalten werden können. In ähnlicher Weise kann Blendlicht durch ein oder mehrere Gebiete des Sichtfeldes gekennzeichnet werden, die übersättigt sind. Die Übersättigung kann ermittelt werden, wie dies im Wesentlichen in der artverwandten US-Patentanmeldung mit der Nr. 13/740,123 offenbart ist.
  • In diversen Implementierungen können vorbestimmte Kriterien verwendet werden, etwa ob der Winkel der Orientierung des Mobilgeräts innerhalb eines vorbestimmten Orientierungsbereichs liegt; und ob der Beschleunigungsvektor des Mobilgeräts eine Größe hat, die kleiner als ein vorbestimmter Schwellenwert ist.
  • In einer Vorgehensweise beinhaltet das Aktivieren des Aufnahmevorgangs das Aktivieren eines Autofokus-Vorgangs unter Anwendung einer Kamera des Mobilgeräts; das Aktivieren eines automatischen Blitz-Vorgangs unter Anwendung der Kamera; und das Aktivieren eines Datenerfassungsvorgangs unter Anwendung der Kamera.
  • In weiteren Vorgehensweisen kann die Datenerfassung das Erfassen von Daten beinhalten, die ein oder mehrere Standbilder und digitale Videos umfassen. Die Daten können eine digitale Darstellung eines Dokuments sein oder umfassen oder eine digitale Darstellung mehrerer Dokumente sein oder umfassen.
  • Noch weitere Ausführungsformen innerhalb des Bereichs dieser Offenbarung können zusätzlich und/oder alternativ das Ermitteln beinhalten, ob das eine oder die mehreren vordefinierten Kriterien erfüllt sind; und das Ermitteln, ob der Aufnahmevorgang Daten erfasste, die dem einen oder den mehreren vordefinierten Kriterien entsprechen, die erfüllt werden, in Reaktion darauf, dass ermittelt wird, dass das eine oder die mehreren vordefinierten Kriterien erfüllt werden. Beispielsweise beinhaltet eine Ausführungsform das Ermitteln, dass das Mobilgerät Daten unter Bedingungen erfasste, wonach die vordefinierten Kriterien erfüllt wurden, etwa eine minimale Stabilität, ein geeigneter Orientierungswinkel, eine minimale Bewegung in einer speziellen Richtung und dergleichen, wie sich das für den Fachmann beim Studium der vorliegenden Beschreibung in einfacher Weise ergibt.
  • Anschauliche Verfahren innerhalb des Bereichs der vorliegenden Beschreibung können ferner umfassen: Ausgeben einer Indikation an den Benutzer mittels einer Anzeige des Mobilgeräts in Reaktion darauf, dass ermittelt wird, dass der Aufnahmevorgang Daten erfasste, die dem einen oder den mehreren vordefinierten Kriterien entsprechen, die erfüllt werden. Die Indikation zeigt vorzugsweise an, dass durch den Aufnahmevorgang Daten, die dem einen oder den mehreren vordefinierten Kriterien entsprechen und dies erfüllen, erfasst werden. In einer Ausführungsform kann das Mobilgerät eine Begrenzung, ein Feld oder eine andere überlagernde Form um ein Objekt anzeigen, das in dem Sichtfeld der Kamera des Mobilgeräts dargestellt ist.
  • Die Abgrenzung bzw. das Begrenzungsfeld kann die Farbe wechseln, wenn ermittelt wird, dass der Aufnahmevorgang abgeschlossen ist und Daten unter Bedingungen erfasst werden, bei denen die vordefinierten Kriterien erfüllt waren. In einer Vorgehensweise zeigt das Mobilgerät ein weißes Begrenzungsfeld an, bevor das Objekt in dem Sichtfeld der Kamera erkannt wird, es zeigt ein gelbes Begrenzungsfeld an, wenn das Objekt vor dem Ende des Aufnahmevorgangs unter den gewünschten Bedingungen erkannt wird, und zeigt ein grünes Begrenzungsfeld bei Beendigung des Aufnahmevorgang unter den gewünschten Bedingungen an oder ein rotes Begrenzungsfeld, wenn der Abschluss des Aufnahmevorgang unter den gewünschten Bedingungen nicht gelingt.
  • Auf diese Weise kann der Benutzer in vorteilhafter Weise informiert werden, wenn der Versuch der Erfassung von Daten mittels der Aufnahmeschnittstelle der mobilen Anwendung zu beenden ist, und/oder ob es erforderlich ist, den Aufnahmevorgang für ein Objekt in dem Sichtfeld der Kamera zu wiederholen. Selbstverständlich kann in anderen Ausführungsformen, in denen mehrere Dokumente innerhalb des Sichtfelds der Kamera liegen, die Anzeige mehrere Begrenzungsfelder anzeigen.
  • In einer weiteren Ausführungsform können sich das eine oder die mehreren Begrenzungsfelder in Reaktion darauf ändern, dass ermittelt wird, ob eines oder mehrere von mehreren Dokumenten innerhalb des Sichtfelds der Kamera kürzlich aufgenommen und/oder verarbeitet worden sind. Wenn beispielsweise in einer Vorgehensweise mehrere Objekte, etwa Dokumente, im Sichtfeld einer Kamera liegen, können gewünschte Aufnahmebedingungen für jedes Objekt zu einem anderen Zeitpunkt oder an mehreren unterschiedlichen Zeitpunkten erreicht werden bzw. worden sein. Daher kann es vorteilhaft sein zu ermitteln, wann ein Objekt im Sichtfeld gemäß den gewünschten Aufnahmebedingungen aufgenommen worden ist, und der Versuch des Aufnehmens dieses Objektes kann beendet werden, während der Versuch des Aufnehmens eines anderen Objekts, das noch nicht mit den gewünschten Aufnahmebedingungen aufgenommen wurde, fortgesetzt wird. Sobald alle Objekte unter den gewünschten Aufnahmebedingungen aufgenommen worden sind, kann es zweckdienlich sein, eine Rückmeldung bereitzustellen, die anzeigt, dass alle in dem Sichtfeld dargestellten Objekte gemäß den gewünschten Aufnahmebedingungen aufgenommen worden sind, und der Aufnahmevorgang kann beendet werden.
  • In noch einer weiteren Ausführungsform, in der das Sichtfeld einer Kamera mehrere Objekte, etwa Dokumente, beinhaltet, kann es vorteilhaft sein, Objekte im Verlaufe des Aufnahmevorgangs auszuschließen oder zu ignorieren, wenn beispielsweise das Objekt zuvor unter geeigneten Bedingungen aufgenommen worden ist, oder wenn das Objekt zuvor verarbeitet worden ist durch eine Verarbeitung und/oder entsprechend einer Verarbeitung, für die beabsichtigt ist, unter Anwendung der aktuell gerade aufgenommenen Daten ausgeführt zu werden.
  • Es wird nun ein anschauliches Szenario für einen Einsatzzweck gemäß mehreren Ausführungsformen beschrieben. Der Fachmann erkennt leicht beim Studium dieser Beschreibung, dass der anschauliche Verwendungszweck nur zu anschaulichen Zwecken angegeben ist und in keiner Weise beschränkend sein soll. Andere Verwendungszwecke liegen ebenfalls im Bereich der vorliegenden Beschreibung und können die Anwendung einer Kombination von Merkmalen, die hierin offenbart sind, in beliebiger Weise mit einschließen.
  • Gemäß dem anschaulichen Verwendungsfall-Szenario werden die hier offenbarten erfindungsgemäßen Konzepte in einem Verfahren umgesetzt, das im Wesentlichen durch ein Verfahren 500 repräsentiert ist, das in 5 gezeigt ist. Das Verfahren 500 kann in einer beliebigen geeigneten Umgebung ausgeführt werden, wie sie hierin offenbart ist oder wie sie der Fachmann beim Studium der vorliegenden Beschreibung in einfacher Weise ableiten kann.
  • Wie in 5 gezeigt, beinhaltet das Verfahren 500 den Schritt 502, in welchem eine Aufnahmeschnittstelle mittels eines Mobilgeräts aktiviert bzw. aufgerufen wird. Die Aufnahmeschnittstelle beinhaltet eine Ansichtenauffindungseinheit, vorzugsweise eine rechteckige Ansichtenauffindungseinheit, die durch ein Zielrechteck definiert ist, das mittels des Mobilgeräts angezeigt wird.
  • Das Verfahren 500 beinhaltet ferner einen Schritt 504, in welchem mehrere erfasste Videodatenblöcke ausgewertet werden, um zu ermitteln, (1) ob ein Objekt, das vorbestimmte definierende Eigenschaften zeigt, ganz oder teilweise in dem Ansichtenauffindungsgebiet dargestellt ist, und (2) ob das Objekt Qualitätskontrollkriterien erfüllt. Zu definierenden Eigenschaft und zu Qualitätskontrollkriterien können jedes beliebige Merkmal gehören, wie es hierin beschrieben ist, vorzugsweise jene Eigenschaften, die zuvor und in den verwandten Anmeldungen, die hiermit durch Bezugnahme in Bezug auf die Bild- oder Objektklassifizierung mit eingeschlossen sind, erläutert sind. Eigenschaftsvektoren bzw. Merkmalsvektore repräsentieren Daten, die insbesondere zur Verwendung als „definierende Eigenschaften“ geeignet sind.
  • Gemäß dem Verfahren 500 und abhängig davon, ob das Objekt die definierenden Eigenschaften zeigt und die Qualitätskontrollkriterien erfüllt, können in Schritt 506 eine oder mehrere darauf reagierende Aktionen ausgeführt werden.
  • Wenn die zuvor genannten Kriterien erfüllt werden (Objekt erkannt, Qualität akzeptabel), dann kann eine Indikation bezüglich dieser Erkennung und/oder des Qualitätsstatus für den Benutzer, beispielsweise mittels der Geräteanzeige, angezeigt werden. Vorzugsweise werden diese Indikationen in Echtzeit oder nahezu Echtzeit angezeigt, wenn die Bildauswertung und/oder die Verarbeitung ausgeführt werden.
  • Wenn andererseits ein Objekt nicht erkannt wird oder wenn es die Qualitätskontrollkriterien nicht erfüllt, dann kann eine Indikation bezüglich einer oder mehrerer Nichterfüllungen in dieser Hinsicht in ähnlicher Weise mittels des Mobilgeräts angezeigt werden.
  • Ferner können ein oder mehrere Bilder mit einer Auflösung aufgenommen werden, die höher ist als die Auflösung der Videodatenblöcke (um mehr und/oder bessere Rohdaten bereitzustellen), und diese können verarbeitet oder gespeichert werden. In ähnlicher Weise können jene Blöcke aus Videodaten, in denen das Objekt in der Ansichtenauffindungseinheit dargestellt war und die Qualitätskontrollkriterien erfüllte, archiviert, markiert, bewahrt und in dem Speicher gespeichert werden und dergleichen, wie dies der Fachmann beim Studium der vorliegenden Beschreibung leicht erkennen kann.
  • Das Verfahren 500 kann ferner einen oder mehrere zusätzliche und/oder alternative Schritte in diversen Ausführungsformen beinhalten. Beispielsweise können in einer Vorgehensweise das eine oder die mehreren aufgenommenen Bilder und/oder der eine oder die mehreren Videoblöcke weiter verarbeitet werden. Beispielsweise kann die Verarbeitung das Klassifizieren eines oder mehrerer Objekte, die in dem einen oder den mehreren Bildern und/oder dem einen oder den mehreren Blöcken dargestellt sind, das Extrahieren von Daten aus diesem einen oder diesen mehreren Objekten, das Verfolgen von Objekten, die in einem Videodatenstrom dargestellt sind, in Echtzeit, das Anzeigen einer relevanten Information für einen Benutzer und dergleichen, beinhalten.
  • Ferner sind in den speziell bevorzugten Ausführungsformen die hierin offenbarten Techniken vollständig in der Lage, jegliche der offenbarten Verarbeitungsschritte in Echtzeit gleichzeitig auszuführen, wenn ein Videodatenstrom erfasst wird, und ferner sind die Ausführungsformen in der Lage, die Aufnahme, die Auswertung und/oder die Verarbeitungstechniken, die hierin offenbart sind, in Echtzeit oder nahezu Echtzeit für mehrere Objekte, die innerhalb eines einzigen Videodatenstroms (oder Bild) dargestellt sind, gleichzeitig auszuführen. Diese parallele Echtzeitfunktion sollte so verstanden werden, dass sie in diversen Vorgehensweisen in gleicher Weise für die Schritte zutrifft, die zuvor mit Verweis auf 5 erläutert sind.
  • In einer weiteren Darstellung einer Anwendungsmöglichkeit startet ein Benutzer eine mobile Anwendung auf seinem Mobilgerät. Dem Benutzer wird die Option präsentiert, ein optionales Modul, etwa ein „Auto-Assistenten“-Modul oder einen „Mobilen Aufnahmehelfer“ aufzurufen, um den Benutzer bei der Aufnahme von Bilddaten mit hoher Qualität für die nachfolgende Verarbeitung zu unterstützen. Der Benutzer kann mit einem Knopf interagieren, der auf der Anzeige des Mobilgeräts angezeigt wird, um das optionale „Auto-Assistenz“-Modul oder den „Mobilen Aufnahmehelfer“ aufzurufen, um ein Beispiel zu nennen. Alternativ kann das Modul in programmierter Weise aktiviert oder von dem Benutzer im Voraus eingestellt werden, beispielsweise in einer Schnittstelle für „Einstellungen“ der mobilen Aufnahmeanwendung. In diesem Verwendungsfall aktiviert der Benutzer den mobilen Aufnahmehelfer.
  • Wenn der mobile Aufnahmehelfer aktiviert wird, wird dem Benutzer über die Anzeige des Mobilgeräts eine Schnittstelle präsentiert, wobei die Schnittstelle mehrere Knöpfe enthält, die es dem Benutzer ermöglichen, selektiv in einem „Foto“-Modus oder einem „Video“-Modus aufzunehmen. Der Benutzer betätigt den „Video“-Knopf, so dass der mobilen Anwendung mitgeteilt wird, dass der Benutzer wünscht, einen Videodatenstrom aufzunehmen. Alternativ kann der Aufnahmemodus programmiert aufgerufen oder von dem Benutzer voreingestellt werden, beispielsweise in einer Schnittstelle für „Einstellungen“ der mobilen Aufnahmeanwendung.
  • Nach dem Anzeigen des Wunsches, einen Videodatenstrom aufzunehmen, kann der Benutzer einen Kamera-Knopf betätigen. In Reaktion darauf fragt der mobile Aufnahmeassistent den Gerätebeschleunigungsmesser und/oder das Geräte-Gyroskop ab, um die Geräteorientierung zu ermitteln, und wenn das Gerät nicht im Wesentlichen so orientiert ist, wie dies gewünscht ist (beispielsweise parallel zu einer ebenen, horizontalen Oberfläche, etwa einem Tisch, dem Boden und dergleichen für ein Dokument oder parallel zu einer vertikalen Oberfläche, etwa einem Poster, einer Fahrzeugfläche, die eine Fahrzeugidentifizierungsnummer zeigt und dergleichen), wird eine Benutzerrückmeldung dem Benutzer über die Mobilgerätanzeige präsentiert, beispielsweise in Form eines durchsichtigen Bildschirms, wobei die Rückmeldung die ungeeignete Geräteorientierung anzeigt. Die Benutzerrückmeldung kann dem sichtbaren Zugang der Aufnahmeschnittstelle überlagert sein, so dass der Benutzer ein Bild nicht aufnehmen kann, sofern nicht eine geeignete Geräteorientierung erreicht ist. Eine geeignete Geräteorientierung kann durch Programm ermittelt und/oder durch den Benutzer im Voraus eingestellt werden, so dass jede Geräteorientierung (beispielsweise als Winkel) in der Schnittstelle für Einstellungen enthalten ist.
  • Wenn der Benutzer die Orientierung des Geräts in eine „gewünschte Orientierung bzw. Soll-Orientierung“ überführt, dann fragt die mobile Anwendung periodisch den Gerätebeschleunigungsmesser und/oder das Geräte-Gyroskop ab, um die tatsächliche Orientierung des Geräts zu ermitteln. Während dieses Vorgangs wird eine bildschirminterne Benutzerrückmeldung angezeigt, die für den Benutzer angibt, wie die Orientierung des Gerätes für eine optimale Aufnahmeorientierung erstellt werden sollte.
  • Sobald die Orientierung innerhalb eines vorbestimmten Toleranzbereichs für eine Aspektverhältniskorrektur und Normierung liegt, verschwindet der durchsichtige Überlagerungsbildschirm und die mobile Anwendung beginnt mit der Auswertung der Videodaten in Echtzeit, die aus der Mobilgerätkamera erhalten werden, um Seitengrenzen zu erkennen.
  • Wenn Seitengrenzen erkannt werden, prüft das Mobilgerät optional periodisch die Gerätestabilität, und wenn ermittelt wird, dass das Gerät gemäß vorbestimmten Toleranzschwellwerten ausreichend stabil ist, wird eine weitere Benutzerrückmeldung bereitgestellt, die anzeigt, dass geeignete Bedingungen bestehen, um die erkannte Seite aufzunehmen. Beispielsweise kann eine Benutzerrückmeldung in Form eines gelben Begrenzungsfeldes bereitgestellt werden, das um die erkannten Seitengrenzen herum angezeigt wird.
  • Unabhängig davon, ob der optionale Vorgang für die zweite Orientierung und/oder Stabilität ausgeführt wird, wird beim Ermitteln, dass das Gerät stabil ist, geeignet orientiert ist und eine Seite erkannt worden ist, eine Benutzerrückmeldung mittels der Mobilgerätanzeige angezeigt, um anzugeben, dass Bedingungen für ein geeignetes Aufnehmen von Bilddaten mit hoher Qualität bestehen. Die mobile Anwendung geht dann automatisch weiter, um das Bild des Dokuments, das in dem Ansichtenfeld der Aufnahmeschnittstelle dargestellt ist, aufzunehmen.
  • Beim Aufnehmen durch die mobile Anwendung wird dann ein Autofokus-Vorgang unter Anwendung der Gerätekamera erzwungen und die mobile Anwendung nimmt den Videoblock, der die erkannte Seite enthält, auf, wobei dies eine Version mit hoher Auflösung, falls verfügbar, des ursprünglichen Videoblocks sein kann, der die erkannte Seite enthält. Alternativ können ein oder mehrere Videoblöcke, einschließlich des ursprünglichen Videoblocks mit relativ geringer Auflösung, in dem die Seite erkannt wurde, aufgenommen werden. Die mobile Anwendung zeigt das aufgenommene Bild in Echtzeit an, entweder direkt in der Aufnahmeschnittstelle oder in einer weiteren Schnittstelle, die auf der Mobilgerätanzeige angezeigt wird, nachdem der Vorgang des Aufnehmens mit hoher Auflösung abgeschlossen ist.
  • Eine vollständige Bildverarbeitung (die einen oder alle Schritte der Bildverarbeitung enthalten kann, die in den artverwandten US-Patentanmeldungen, die zuvor angegeben sind, offenbart sind) wird durch die mobile Anmeldung als ein im Hintergrund ablaufender asynchroner Programmfaden initiiert. Ferner wird ein Qualitätskontrollprozessmodul gleichzeitig initiiert und es wird eine Bildschirmangabe als eine Rückmeldung hinsichtlich einer Dokumentenbeleuchtung und/oder Unschärfe gegeben. Sobald die asynchrone Hintergrundverarbeitung abgeschlossen ist, wird das angezeigte Bild mit dem verarbeiteten Bild aufgefrischt (beispielsweise von oben nach unten auf der Mobilgerätanzeige). Zu beachten ist, dass die Bildverarbeitung unter Anwendung eines Prozessors des Mobilgeräts, eines Prozessors einer entfernten Einrichtung, etwa eines Servers, oder einer Kombination davon ausgeführt werden kann.
  • Die mobile Anwendung kann automatisch das ursprüngliche und das verarbeitete Bild speichern oder kann einen Benutzer nach Anweisungen hinsichtlich dessen abfragen, ob das ursprüngliche und/oder das verarbeitete Bild zu speichern sind, und kann die Bilder, die durch den Benutzer gekennzeichnet werden, entsprechend speichern. Die Daten können mit einer Host-Cloud oder einem Vor-Ort-System zur Speicherung zur weiteren Verarbeitung und/oder zur nachfolgenden Wiederverwendung synchronisiert werden.
  • In diversen Ausführungsformen kann das Speichern des Bildes, unabhängig davon, ob das ursprüngliche Bild, das verarbeitete Bild oder beliebige Varianten davon betroffen sind, das Speichern einer Datei kombiniert mit bildbetreffenden Metadaten, etwa Klassifizierungsergebnissen, Extraktionsergebnissen oder Umgebungs-Metadaten, etwa eine Geopositionsmarkierung, einen Datums-/Zeitstempel und dergleichen, jeweils innerhalb einer einzigen Datei (beispielsweise einem druckbaren Dokumentenformat (PDF), einer e-Form) beinhalten. Diese Art der Speicherung kann optional durch den Anwender in Echtzeit oder in einer Schnittstelle für Einstellungen aktiviert werden. Alternativ können die Bilddaten unverändert gespeichert werden, ohne dass sie mit Metadaten verknüpft werden.
  • Diverse Ausführungsformen können zusätzlich und/oder alternativ das Anzeigen einer Aufnahmeergebnisvorschau mittels einer Anzeige des Mobilgeräts; und das Empfangen einer Benutzereingabe in Reaktion auf die Aufnahmevorschau beinhalten. Ferner zeigt in mindestens einer Ausführungsform die Vorschau mindestens ein Objekt, das durch den Aufnahmevorgang erfasst wird.
  • Die erfindungsgemäßen Konzepte, die hierin offenbart sind, sind als Beispiele dargestellt, um die vielen Merkmale in vielen anschaulichen Szenarien, Ausführungsformen und/oder Implementierungen aufzuzeigen. Es sollte beachtet werden, dass die allgemein offenbarten Konzepte als modular betrachtet werden soll, und diese können in beliebiger Kombination, Permutation oder Zusammenfügung implementiert werden. Des Weiteren sollte jegliche Modifizierung, Änderung oder Äquivalente der gegenwärtig offenbarten Merkmale, Funktionen und Konzepte, die sich für den Fachmann beim Studium der vorliegenden Beschreibung ergeben, ebenfalls im Bereich dieser Offenbarung liegend erachtet werden.
  • Beispielsweise können ein Verfahren, ein System, die zum Ausführen eines logistischen Ablaufs und zum Ausführen eines Verfahrens geeignet sind, und/oder ein Computer-programmprodukt mit computerlesbaren Befehlen, die geeignet sind, einen Prozessor zu veranlassen, ein Verfahren auszuführen, eines oder mehrere der folgenden Merkmale beinhalten. In ähnlicher Weise können diverse Ausführungsformen einige oder alle Merkmale ausschließen, die nachfolgend angegeben sind. Im Allgemeinen können die folgenden Merkmale in einer beliebigen geeigneten Weise kombiniert werden, die sich für den Fachmann beim Studium der vorliegenden Beschreibung ergibt.
  • Es hier nochmals darauf hingewiesen, dass ein Verfahren, ein System und/oder ein Computerprogrammprodukt eine beliebige Kombination enthalten kann von: Aufrufen bzw. Aktivieren einer Bildaufnahmeschnittstelle mittels eines Mobilgeräts, wobei die Aufnahmeschnittstelle eine Ansichtenauffindungseinheit umfasst, die auf einer Anzeige des Mobilgeräts dargestellt wird; und Auswerten mehrerer Blöcke aus Videodaten, die mittels der Aufnahmeschnittstelle erfasst bzw. aufgenommen werden. Die Auswertung kann beinhalten: Ermitteln, ob ein Objekt, das eine oder mehrere definierende Eigenschaften zeigt, innerhalb der Ansichtenauffindungseinheit dargestellt wird; und wenn dies der Fall ist, ob das innerhalb der Ansichtenauffindungseinheit dargestellte Objekt einem oder mehreren vorbestimmten Qualitätskontrollkriterien genügt. In Reaktion auf das Ermitteln, dass ein Block ein oder mehrere der vorbestimmten Qualitätskontrollkriterien nicht erfüllt, können das Verfahren/System/Computerprogramm beinhalten: Anzeigen einer Indikation bezüglich der Nichterfüllung auf der Mobilgerätanzeige. Die Indikation bezüglich der Nichterfüllung kennzeichnet vorzugsweise das eine oder die mehreren Qualitätskontrollkriterien, die von dem einen oder den mehreren Blöcken nicht erfüllt werden, und beinhaltet optional eine Abgrenzung, die im Wesentlichen eine Peripherie des Objekts innerhalb der Ansichtenauffindungseinheit umgibt. In Reaktion darauf, dass ermittelt wird, dass das innerhalb der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren vorbestimmten Qualitätskontrollkriterien erfüllt, können das Verfahren/System/ Computerprogramm beinhalten: Anzeigen einer Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren definierenden Eigenschaften zeigt; und/oder automatisches Aufnehmen eines Bildes des Objekts, wobei das Bild durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung der Videodaten; und/oder automatisches Speichern, in einem Speicher, eines oder mehrerer der Blöcke, in denen das Objekt, das die vorbestimmten Qualitätskontrollkriterien erfüllt, in der Ansichtenauffindungseinheit dargestellt ist. Vorzugsweise kennzeichnet der Erfolgsindikator insbesondere eine Objektklassifizierung und beinhaltet optional eine Abgrenzung, die im Wesentlichen eine Peripherie des Objekts innerhalb der Ansichtenauffindungseinheit umgibt. In einigen Vorgehensweisen umfasst das Objekt ein Dokument mit einer oder mehreren Seiten, oder mehrere Dokumente mit jeweils einer oder mehreren Seiten. Das Verfahren/System/Computerprogramm kann beinhalten: Verarbeiten des automatisch aufgenommen Bildes und/oder des automatisch gespeicherten einen Blocks oder der mehreren Blöcke, zumindest teilweise unter Anwendung eines Prozessors des Mobilgeräts. Die Verarbeitung beinhaltet eine Verfolgung bzw. Überwachung des Objekts, das in der Ansichtenauffindungseinheit dargestellt ist, in Echtzeit oder nahezu Echtzeit. Klassifizieren des in der Ansichtenauffindungseinheit dargestellten Objekts; und/oder Extrahieren von Daten aus dem in der Ansichtenauffindungseinheit dargestellten Objekt. Die Verarbeitung wird optional in Bezug auf mindestens zwei der mehreren Dokumente oder in Bezug auf die mehreren Seiten ausgeführt, wenn diese vorhanden sind; beispielsweise können das Verfolgen, Klassifizieren und/oder Extrahieren gleichzeitig in Bezug zueinander und/oder für mehrere Dokumente oder Seiten eines einzigen Dokuments ausgeführt werden. Die gleichzeitige Verarbeitung kann vorzugsweise über mehrere Blöcke der Videodaten hinweg ausgeführt werden. Das Klassifizieren kann insbesondere beinhalten: Ermitteln einer oder mehrerer definierenden Eigenschaften des in der Ansichtenauffindungseinheit dargestellten Objekts; und Vergleichen der einen oder der mehreren ermittelten definierenden Eigenschaften, um Eigenschaften jeweils mehrerer Objektklassifikationen zu definieren. In einigen Situationen enthalten das Verfahren/System/Computerprogramm entweder: Ermitteln einer Objektklassifizierung, zumindest teilweise auf der Grundlage des Vergleichs; oder Ermitteln, dass das Objekt keiner der mehreren Objektklassifikationen entspricht, zumindest teilweise auf der Grundlage des Vergleichs. In Reaktion auf das Ermitteln, dass das Objekts keiner der mehreren Objektklassifikationen entspricht, beinhaltet das Verfahren/System/Computerprogramm: Anfordern einer Benutzereingabe in Bezug auf das Objekt: Empfangen der Benutzereingabe; Definieren einer neuen Objektklassifizierung zumindest teilweise auf Grundlage der Benutzereingabe; und Zuweisen des Objekts zu der neuen Objektklassifizierung. In ähnlicher Weise kann das Verfolgen bzw. Überwachen beinhalten: Neupositionieren oder Neudefinieren der Begrenzung, um die Peripherie des Objekts in jedem der Blöcke, in denen das Objekt dargestellt ist, innerhalb der Ansichtenauffindungseinheit zu umgeben; und/oder Neupositionieren oder Neuanzeigen der Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt die eine oder die mehreren definierenden Eigenschaften zeigt; und/oder Empfangen einer Echtzeit-Rückmeldung aus dem Mobilgerät, wobei die Echtzeit-Rückmeldung zumindest teilweise auf einer oder mehreren Messungen beruht, die unter Anwendung einer oder mehrerer Mobilgerätkomponenten ausgeführt werden, die ausgewählt sind aus: einer Kamera, einem Beschleunigungsmesser, einem Gyroskop und einer Uhr. Vorzugsweise beinhaltet die Echtzeit-Rückmeldung eine Stabilitätsrückmeldung, einschließlich eines Orientierungswinkels des Mobilgeräts, der in einem vorbestimmten Orientierungsbereich liegt; und einen Bewegungsvektor des Mobilgeräts, der eine Größe hat, die kleiner als ein vorbestimmter Schwellenwert ist. Der Bewegungsvektor wird in einigen Vorgehensweisen auf der Grundlage einer Echtzeit-Rückmeldung, die aus der Kamera empfangen wird, ermittelt und wird nicht auf der Grundlage einer Rückkopplung aus einem Beschleunigungsmesser ermittelt. In einigen Vorgehensweisen, insbesondere solchen, die eine Verfolgung oder Verarbeitung von langen/großen Objekte betreffen, beinhalten das Verfahren/System/Computerprogramm ferner ein Synthetisieren mindestens eines Teils von zwei oder mehr Blöcken der Videodaten; und Erzeugen eines zusammengesetzten Bildes auf der Grundlage der Synthese. Das zusammengesetzte Bild ist optional durch eine Höhe und eine Breite gekennzeichnet, und die Höhe des zusammengesetzten Bildes ist größer als oder gleich eine(r) Höhe eines einzigen Blocks der Videodaten, und/oder die Breite des zusammengesetzten Bildes ist in ähnlicher Weise größer als oder gleich eine(r) Breite jedes einzelnen Blocks der Videodaten. Jeder der synthetisierten Blöcke der Videodaten stellt idealerweise einen Teil des Objekts dar, während das zusammengesetzte Bild das gesamte Objekt darstellt. Das Synthetisieren des zusammengesetzten Bildes aus den diversen Videodatenblöcken beinhaltet vorzugsweise: Erfassen eines ersten Merkmals des Objekts, das in der Ansichtenauffindungseinheit dargestellt ist; automatisches Initiieren eines Aufnahmevorgangs in Reaktion auf das Erfassen der ersten Grenze des Objekts; Aufnehmen bzw. Erfassen von Bilddaten mit hoher Auflösung und/oder Videodaten mit geringer Auflösung mittels des automatisch initiierten Aufnahmevorgangs; Erfassen eines zweiten Merkmals des Objekts, das in der Ansichtenauffindungseinheit dargestellt ist; Aufnehmen bzw. Erfassen von Bilddaten mit hoher Auflösung und/oder Videodaten mit geringer Auflösung mittels des automatisch initiierten Aufnahmevorgangs; und automatisches Beenden des Aufnahmevorgangs in Reaktion darauf, dass das zweite Merkmal des Objekts erfasst wird. Synthetisieren kann auch oder stattdessen beinhalten: Ausführen mindestens einer Homographietransformation an zwei oder mehr der Blöcke der Videodaten und Ausrichten mindestens von Teilen der zwei oder mehr Blöcke der Videodaten zumindest teilweise auf der Grundlage der Homographietransformationen. Das unter Anwendung der zuvor genannten Synthesetechniken abgebildete Objekt zur Erzeugung eines zusammengesetzten Bildes ist vorzugsweise ein Dokument, das dadurch gekennzeichnet ist, dass mindestens eine Abmessung zu groß ist, um das gesamte Dokument innerhalb der Ansichtenauffindungseinheit zu umfassen, und um gleichzeitig eine gewünschte minimale Auflösung des Dokuments zu bewahren, beispielsweise eine Auflösung, die ausreichend ist, um Textinformation, die in dem Dokument dargestellt ist, aufzulösen. Ferner kann zumindest ein Bereich des zusammengesetzten Bildes durch eine höhere Auflösung als eine Auflösung eines der zwei oder mehr Blöcke der digitalen Videodaten gekennzeichnet sein. Dieses Ergebnis kann in einigen Ausführungsformen unter Anwendung einer „Superauflösungs“-Technik, wie sie hierin beschrieben ist, erreicht werden und kann ferner das Erfassen des Objekts in dem zusammengesetzten Bild zumindest teilweise auf der Grundlage des Bereichs des zusammengesetzten Bildes beinhalten, der durch die höhere Auflösung gekennzeichnet ist. Ermitteln, ob der eine oder die mehreren Blöcke das eine oder die mehreren vordefinierten Kontrollkriterien erfüllen, entsprechend zu einem Bild mit hoher Auflösung, das in dem Mobilgerät gespeichert ist, ist ein weiteres nützliches Merkmal, und dies kann verwendet werden, um zuvor aufgenommene und gespeicherte Bilder mit hoher Auflösung abzurufen, sowie das eine oder die mehreren gespeicherten Bilder mit hoher Auflösung zu verarbeiten. Es kann in einigen Situationen zweckdienlich sein, Metadaten mit gespeicherten Bilddaten und/oder Videodaten zu verknüpfen. In bevorzugten Vorgehensweisen können vorbestimmte Qualitätskontrollkriterien beinhalten: einen minimalen Beleuchtungspegel; und/oder einen maximalen Beleuchtungspegel; und/oder eine minimale Beleuchtungsgleichmäßigkeit; und/oder eine minimale Auflösung; und/oder eine minimale Schärfe; und/oder einen minimalen Projektionswinkel; und/oder einen maximalen Projektionswinkel; und/oder ein Schwellensichtbarkeitskriterium; und/oder eine Anwesenheit von Blendlicht; und/oder eine Objektklassifizierung.
  • Obwohl diverse Ausführungsformen zuvor beschrieben sind, sollte beachtet werden, dass diese lediglich als Beispiele und nicht als Einschränkung präsentiert sind. Daher sollen die Breite und der Schutzbereich einer Ausführungsform der vorliegenden Erfindung nicht als durch eine der zuvor beschriebenen anschaulichen Ausführungsformen eingeschränkt werden, sondern diese sollen nur in Übereinstimmung mit den folgenden Ansprüchen und ihren Äquivalenten festgelegt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 13/802226 [0048]
    • US 61/780747 [0048]
    • US 8345981 [0050]
    • US 14/175999 [0050]
    • US 14/220016 [0050]
    • US 13802226 [0061]

Claims (33)

  1. Computerprogrammprodukt mit einem computerlesbaren Speichermedium mit darin enthaltenem Programmcode, wobei der Programmcode durch einen Prozessor ausführbar ist, um den Prozessor zu veranlassen, die folgenden Operationen auszuführen: Aktivieren einer Bildaufnahmeschnittstelle mittels eines Mobilgeräts, wobei die Aufnahmeschnittstelle eine Ansichtenauffindungseinheit umfasst, die auf einer Anzeige des Mobilgeräts dargestellt wird; Auswerten mehrerer Blöcke aus Videodaten, die mittels der Aufnahmeschnittstelle erfasst werden, wobei das Auswerten umfasst: Ermitteln: ob ein Objekt, das eine oder mehrere definierende Eigenschaften zeigt, innerhalb der Ansichtenauffindungseinheit dargestellt ist; und ob das in der Ansichtenauffindungseinheit dargestellte Objekt ein oder mehrere vorbestimmte Qualitätskontrollkriterien erfüllt; und in Reaktion auf das Ermitteln, dass eine Nichterfüllung für einen Block in Hinblick auf ein oder mehrere der vorbestimmten Qualitätskontrollkriterien vorliegt, Anzeigen einer Indikation der Nichterfüllung auf der Mobilgerätanzeige; und in Reaktion auf das Ermitteln, dass das in der Ansichtenauffindungseinheit dargestellte Objekt das eine oder die mehreren vorbestimmten Qualitätskontrollkriterien erfüllt: Anzeigen einer Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt die eine oder die mehreren definierenden Eigenschaften zeigt; und/oder automatisches Aufnehmen eines Bildes des Objekts, wobei das Bild durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung der Videodaten; und/oder automatisches Speichern, in einem Speicher, eines oder mehrerer der Blöcke, in dem/denen das die vorbestimmten Qualitätskontrollkriterien erfüllende Objekt in der Ansichtenauffindungseinheit dargestellt ist.
  2. Computerprogrammprodukt nach Anspruch 1, wobei das Objekt ein Dokument umfasst.
  3. Computerprogrammprodukt nach Anspruch 1, das ferner einen Programmcode zur Verarbeitung des automatisch aufgenommenen Bildes und/oder des einen oder der mehreren automatisch gespeicherten Blöcke zumindest teilweise unter Anwendung eines Prozessors des Mobilgeräts umfasst, wobei der Programmcode zur Verarbeitung einen Programmcode umfasst zum: Verfolgen des in der Ansichtenauffindungseinheit dargestellten Objekts in Echtzeit; und/oder Klassifizieren des in der Ansichtenauffindungseinheit dargestellten Objekts; und/oder Extrahieren von Daten aus dem in der Ansichtenauffindungseinheit dargestellten Objekt.
  4. Computerprogrammprodukt nach Anspruch 3, wobei das Objekt mehrere Dokumente oder mehrere Seiten eines einzigen Dokuments umfasst.
  5. Computerprogrammprodukt nach Anspruch 4, wobei das Verarbeiten in Bezug auf mindestens zwei der mehreren Dokumente oder mehreren Seiten ausgeführt wird.
  6. Computerprogrammprodukt nach Anspruch 4, wobei der Programmcode zum Verarbeiten einen Programmcode zum gleichzeitigen Verfolgen mehrerer der mehreren Dokumente oder mehreren Seiten über mehrere der Blöcke hinweg umfasst.
  7. Computerprogrammprodukt nach Anspruch 4, wobei der Programmcode zum Verarbeiten einen Programmcode zum gleichzeitigen Klassifizieren mehrerer der mehreren Dokumente oder mehreren Seiten umfasst.
  8. Computerprogrammprodukt nach Anspruch 4, wobei der Programmcode zum Verarbeiten einen Programmcode zum gleichzeitigen Extrahieren zumindest einiger Daten aus mehreren der mehreren Dokumente oder mehreren Seiten umfasst.
  9. Computerprogrammprodukt nach Anspruch 3, wobei der Programmcode zum Klassifizieren einen Programmcode umfasst zum: Ermitteln einer oder mehrerer definierender Eigenschaften des innerhalb der Ansichtenauffindungseinheit dargestellten Objekts; und Vergleichen der einen oder der mehreren ermittelten definierenden Eigenschaften mit definierenden Eigenschaften jeder von mehreren Objektklassifizierungen.
  10. Computerprogrammprodukt nach Anspruch 9, das ferner einen Programmcode umfasst zum entweder: Ermitteln einer Objektklassifizierung zumindest teilweise auf der Grundlage des Vergleichs; oder Ermitteln zumindest teilweise auf der Grundlage des Vergleichs, dass das Objekt keiner der mehreren Objektklassifizierungen entspricht.
  11. Computerprogrammprodukt nach Anspruch 10, das ferner einen Programmcode umfasst, der ein Reagieren auf das Ermitteln, dass das Objekt keiner der mehreren Objektklassifizierungen entspricht, bewirkt durch: Anfordern einer Benutzereingabe in Bezug auf das Objekt; Empfangen der Benutzereingabe; Definieren einer neuen Objektklassifizierung zumindest teilweise auf der Grundlage der Benutzereingabe; und Zuordnen des Objekts zu der neuen Objektklassifizierung.
  12. Computerprogrammprodukt nach Anspruch 1, wobei die Indikation eine Abgrenzung aufweist, die eine Peripherie des innerhalb der Ansichtenauffindungseinheit dargestellten Objekts umschließt, und wobei das Computerprogrammprodukt einen Programmcode zum Anzeigen der Abgrenzung um eine Peripherie des Objekts herum beinhaltet.
  13. Computerprogrammprodukt nach Anspruch 12, wobei der Programmcode zum Verfolgen einen Programmcode umfasst zum: Neupositionieren oder Neudefinieren der Abgrenzung, um die Peripherie des Objekts in jedem der Blöcke zu umschließen, in welchen das Objekt innerhalb der Ansichtenauffindungseinheit dargestellt ist; und/oder Neupositionieren oder erneutes Anzeigen der Indikation, dass das in der Ansichtenauffindungseinheit dargestellte Objekt die eine oder die mehreren definierenden Eigenschaften zeigt.
  14. Computerprogrammprodukt nach Anspruch 3, wobei der Programmcode zum Verfolgen ferner einen Programmcode umfasst zum: Empfangen einer Echtzeit-Rückmeldung aus dem Mobilgerät, wobei die Echtzeit-Rückmeldung zumindest teilweise auf einer oder mehreren Messungen beruht, die unter Anwendung einer oder mehrerer Mobilgerätkomponenten ausgeführt werden: die ausgewählt sind aus: einer Kamera, einem Beschleunigungsmesser, einem Gyroskop und einer Uhr.
  15. Computerprogrammprodukt nach Anspruch 14, wobei die Echtzeit-Rückmeldung eine Stabilitätsrückkopplung einschließlich eines Orientierungswinkels des Mobilgeräts, der in einem vorbestimmten Orientierungsbereich liegt; und einen Bewegungsvektor des Mobilgeräts, der eine Größe hat, die kleiner als ein vorbestimmter Schwellenwert ist, umfasst.
  16. Computerprogrammprodukt nach Anspruch 15, wobei der Bewegungsvektor des Mobilgeräts auf der Grundlage einer Echtzeit-Rückmeldung, die aus der Kamera empfangen wird, ermittelt ist, und der Bewegungsvektor des Mobilgeräts nicht auf der Grundlage einer Rückmeldung aus dem Beschleunigungsmesser ermittelt ist.
  17. Computerprogrammprodukt Anspruch 1, das ferner einen Programmcode umfasst zum Synthetisieren mindestens eines Bereichs aus zwei oder mehr Blöcken der Videodaten; und Erzeugen eines zusammengesetzten Bildes auf der Grundlage der Synthetisierung.
  18. Computerprogrammprodukt nach Anspruch 17, wobei das zusammengesetzte Bild durch eine Höhe und eine Breite gekennzeichnet ist, wobei die Höhe des zusammengesetzten Bildes größer als oder gleich zu einer Höhe eines beliebigen einzelnen Blocks der Videodaten ist, und wobei die Breite des zusammengesetzten Bilds größer als oder gleich zu einer Breite eines beliebigen einzelnen Blocks der Videodaten ist.
  19. Computerprogrammprodukt nach Anspruch 17, wobei jeder der synthetisierten Blöcke der Videodaten einen Teil des Objekts darstellt und wobei das zusammengesetzte Bild das gesamte Objekt darstellt.
  20. Computerprogrammprodukt nach Anspruch 17, wobei der Programmcode zum Synthetisieren einen Programmcode umfasst zum: Erkennen eines ersten Merkmals des Objekts, das in der Ansichtenauffindungseinheit dargestellt ist; automatisches Initiieren eines Aufnahmevorgangs in Reaktion auf das Erkennen der ersten Grenze des Objekts; Aufnehmen von Bilddaten mit hoher Auflösung und/oder von Videodaten mit geringer Auflösung mittels des automatisch initiierten Aufnahmevorgangs; Erkennen eines zweiten Merkmals des in der Ansichtenauffindungseinheit dargestellten Objekts; Aufnehmen von Bilddaten mit hoher Auflösung und Videodaten mit geringer Auflösung mittels des automatisch initiierten Aufnahmevorgangs; und automatisches Beenden des Aufnahmevorgangs in Reaktion darauf, dass das zweite Merkmal des Objekts erkannt wird.
  21. Computerprogrammprodukt nach Anspruch 17, wobei der Programmcode zum Synthetisieren einen Programmcode umfasst zum: Ausführen mindestens einer Homographietransformation an zwei oder mehr der Blöcke der Videodaten, und Ausrichten von zumindest von Teilen der zwei oder mehr Blöcke der Videodaten, zumindest teilweise auf der Grundlage der Homographietransformationen.
  22. Computerprogrammprodukt nach Anspruch 21, wobei das Objekt ein Dokument ist, das gekennzeichnet ist dadurch, dass mindestens eine Abmessung zu groß ist, um das gesamte Dokument innerhalb der Ansichtenauffindungseinheit anzuordnen.
  23. Computerprogrammprodukt nach Anspruch 19, wobei mindestens ein Bereich des zusammengesetzten Bildes durch eine Auflösung gekennzeichnet ist, die höher ist als eine Auflösung eines beliebigen der zwei oder mehr Blöcke der digitalen Videodaten.
  24. Computerprogrammprodukt nach Anspruch 23, das ferner einen Programmcode umfasst zum Erkennen des Objekts in dem zusammengesetzten Bild, zumindest teilweise auf der Grundlage des Bereichs des zusammengesetzten Bilds, der durch die höhere Auflösung gekennzeichnet ist.
  25. Computerprogrammprodukt nach Anspruch 1, das ferner einen Programmcode umfasst zum: Ermitteln, ob der eine oder die mehreren Blöcke, die das eine oder die mehreren vordefinierten Kontrollkriterien erfüllen, einem Bild mit hoher Auflösung, das in dem Mobilgerät gespeichert ist, entsprechen; und Verarbeiten des gespeicherten Bilds mit hoher Auflösung.
  26. Computerprogrammprodukt nach Anspruch 1, das ferner einen Programmcode zum Verknüpfen von Metadaten mit den gespeicherten Daten umfasst.
  27. Computerprogrammprodukt nach Anspruch 1, wobei die Indikation der Nichterfüllung, die auf dem Mobilgerät angezeigt wird, insbesondere das eine oder die mehreren Qualitätskontrollkriterien kennzeichnet, die von dem einen oder den mehreren Blöcke nicht erfüllt werden.
  28. Computerprogrammprodukt nach Anspruch 1, wobei die vorbestimmten Qualitätskontrollkriterien umfassen: einen minimalen Beleuchtungspegel; und/oder einen maximalen Beleuchtungspegel; und/oder eine minimale Beleuchtungsgleichmäßigkeit; und/oder eine minimale Auflösung; und/oder eine minimale Schärfe; und/oder einen minimalen Projektionswinkel; und/oder einen maximalen Projektionswinkel; und/oder ein Schwellensichtbarkeitskriterium; und/oder eine Anwesenheit von Blendlicht; und/oder eine Objektklassifizierung.
  29. Computerprogrammprodukt nach Anspruch 1, wobei die definierenden Eigenschaften einen Eigenschaftsvektor umfassen.
  30. Computerprogrammprodukt nach Anspruch 29, wobei der Programmcode zum Klassifizieren einen Programmcode umfasst zum: Ermitteln eines oder mehrerer Eigenschaftsvektoren des in der Ansichtenauffindungseinheit dargestellten Objekts; und Vergleichen des einen oder der mehreren Eigenschaftsvektoren mit jeder von mehreren Objektklassifizierungen.
  31. Computerprogrammprodukt nach Anspruch 3, wobei der Programmcode zum Klassifizieren einen Programmcode umfasst zum: Ermitteln von Textinformation des Objekts unter Anwendung eines optischen Zeichenerkennungs- (OCR-) Ansatzes; und Erkennen des Vorhandenseins oder des Fehlens einer Eigenschaft, eines Werts oder einer Zeichenkette in der Textinformation, wobei die Eigenschaft, der Wert oder die Zeichenkette jeweils einer speziellen Objektklassifizierung aus mehreren Objektklassifizierungen entsprechen.
  32. Computerprogrammprodukt nach Anspruch 9, wobei der Programmcode zum Klassifizieren einen Programmcode umfasst zum: Ermitteln von Textinformation des Objekts unter Anwendung eines optischen Zeichenerkennungs- (OCR-) Ansatzes; und Erkennen des Vorhandenseins oder des Fehlens einer Eigenschaft, eines Werts oder einer Zeichenkette in der Textinformation, wobei die Eigenschaft, der Wert oder die Zeichenkette jeweils einer speziellen Objektklassifizierung aus mehreren Objektklassifizierungen entsprechen.
  33. System, mit: einem Prozessor; und einer Logik, die von dem Prozessor ausführbar ist, so dass der Prozessor veranlasst wird, die Aktionen in einem der Computerprogrammprodukt-Ansprüche 1-32 auszuführen.
DE202014011407.2U 2013-05-03 2014-05-02 Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos Expired - Lifetime DE202014011407U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361819463P 2013-05-03 2013-05-03
US61/819,463 2013-05-03
US14/268,876 US8885229B1 (en) 2013-05-03 2014-05-02 Systems and methods for detecting and classifying objects in video captured using mobile devices
US14/268,876 2014-05-02

Publications (1)

Publication Number Publication Date
DE202014011407U1 true DE202014011407U1 (de) 2020-04-20

Family

ID=51841303

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014011407.2U Expired - Lifetime DE202014011407U1 (de) 2013-05-03 2014-05-02 Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos

Country Status (6)

Country Link
US (4) US8885229B1 (de)
EP (1) EP2992481A4 (de)
JP (1) JP2016518790A (de)
CN (1) CN105518704A (de)
DE (1) DE202014011407U1 (de)
WO (1) WO2014179752A1 (de)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US9305230B2 (en) 2008-07-14 2016-04-05 Jumio Inc. Internet payment system using credit card imaging
US9269010B2 (en) 2008-07-14 2016-02-23 Jumio Inc. Mobile phone payment system using integrated camera credit card reader
US9349046B2 (en) 2009-02-10 2016-05-24 Kofax, Inc. Smart optical input/output (I/O) extension for context-dependent workflows
US8774516B2 (en) 2009-02-10 2014-07-08 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US10552697B2 (en) 2012-02-03 2020-02-04 Jumio Corporation Systems, devices, and methods for identifying user data
US20220036463A1 (en) 2012-08-16 2022-02-03 Allstate Insurance Company User devices in claims damage estimation
US8510196B1 (en) 2012-08-16 2013-08-13 Allstate Insurance Company Feedback loop in mobile damage assessment and claims processing
US10430885B1 (en) 2012-08-16 2019-10-01 Allstate Insurance Company Processing insured items holistically with mobile damage assessment and claims processing
US10580075B1 (en) 2012-08-16 2020-03-03 Allstate Insurance Company Application facilitated claims damage estimation
US11532048B2 (en) 2012-08-16 2022-12-20 Allstate Insurance Company User interactions in mobile damage assessment and claims processing
US12175540B2 (en) 2012-08-16 2024-12-24 Allstate Insurance Company Processing insured items holistically with mobile damage assessment and claims processing
US11455691B2 (en) * 2012-08-16 2022-09-27 Allstate Insurance Company Processing insured items holistically with mobile damage assessment and claims processing
US8712893B1 (en) 2012-08-16 2014-04-29 Allstate Insurance Company Enhanced claims damage estimation using aggregate display
US10783585B1 (en) 2012-08-16 2020-09-22 Allstate Insurance Company Agent-facilitated claims damage estimation
CN105283884A (zh) 2013-03-13 2016-01-27 柯法克斯公司 对移动设备捕获的数字图像中的对象进行分类
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
WO2014179752A1 (en) 2013-05-03 2014-11-06 Kofax, Inc. Systems and methods for detecting and classifying objects in video captured using mobile devices
JP2016538783A (ja) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法
US20150271400A1 (en) * 2014-03-19 2015-09-24 Htc Corporation Handheld electronic device, panoramic image forming method and non-transitory machine readable medium thereof
US9940511B2 (en) 2014-05-30 2018-04-10 Kofax, Inc. Machine print, hand print, and signature discrimination
US11100571B1 (en) 2014-06-10 2021-08-24 Wells Fargo Bank, N.A. Systems and methods for payee identification via camera
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
WO2016006971A1 (ko) * 2014-07-11 2016-01-14 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
EP3169072A4 (de) 2014-07-11 2017-11-15 LG Electronics Inc. -1- Verfahren und vorrichtung zum senden und empfangen eines rundfunksignals
WO2016017961A1 (ko) * 2014-07-29 2016-02-04 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
JP6511780B2 (ja) * 2014-11-13 2019-05-15 カシオ計算機株式会社 画像取得装置、及びプログラム
US10586193B2 (en) 2014-12-23 2020-03-10 The Travelers Indemnity Company Mobile assessment tool
US9792655B2 (en) * 2014-12-23 2017-10-17 The Travelers Indemnity Company Automated assessment
US10290060B2 (en) 2014-12-23 2019-05-14 The Travelers Indemnity Company Systems, methods, and apparatus for object classification based on localized information
US10380486B2 (en) * 2015-01-20 2019-08-13 International Business Machines Corporation Classifying entities by behavior
EP3254249A1 (de) * 2015-02-03 2017-12-13 Jumio Corporation Systeme und verfahren für bildgebung von identifikationsinformationen
US11334228B1 (en) * 2015-03-30 2022-05-17 Evernote Corporation Dynamic targeting of preferred objects in video stream of smartphone camera
US10582125B1 (en) * 2015-06-01 2020-03-03 Amazon Technologies, Inc. Panoramic image generation from video
US9489401B1 (en) * 2015-06-16 2016-11-08 My EyeSpy PTY Ltd. Methods and systems for object recognition
US10380166B2 (en) * 2015-06-29 2019-08-13 The Nielson Company (Us), Llc Methods and apparatus to determine tags for media using multiple media features
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
KR101841948B1 (ko) * 2015-10-02 2018-03-26 엘지전자 주식회사 차량 내 분실물 예방 서비스 제공장치, 제공방법 및 이동 단말기
WO2017126056A1 (ja) 2016-01-20 2017-07-27 株式会社Pfu モバイル端末、画像処理方法、および、プログラム
US10809895B2 (en) * 2016-03-11 2020-10-20 Fuji Xerox Co., Ltd. Capturing documents from screens for archival, search, annotation, and sharing
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
EP3465540A4 (de) * 2016-05-24 2019-06-05 Morphotrust USA, LLC Beurteilung der dokumentbildqualität
EP4358531A3 (de) * 2016-06-08 2024-06-26 Google LLC Erzeugung eines zusammengesetzten bildes aus einem physischen artikel
JP6551316B2 (ja) * 2016-06-10 2019-07-31 京セラドキュメントソリューションズ株式会社 画像読取装置および画像形成装置
CN106228198B (zh) * 2016-08-17 2019-05-07 广东工业大学 一种医疗ct图像的超分辨率识别方法
CN117257492A (zh) 2016-11-04 2023-12-22 阿莱恩技术有限公司 用于牙齿图像的方法和装置
CN110506276B (zh) * 2017-05-19 2021-10-15 谷歌有限责任公司 使用环境传感器数据的高效的图像分析
US10171695B1 (en) * 2017-06-14 2019-01-01 Intuit Inc. Out-of bounds detection of a document in a live camera feed
US10257375B2 (en) 2017-06-14 2019-04-09 Intuit, Inc. Detecting long documents in a live camera feed
US10097538B1 (en) 2017-08-12 2018-10-09 Growpath, Inc. User authentication systems and methods
US10839577B2 (en) 2017-09-08 2020-11-17 Apple Inc. Creating augmented reality self-portraits using machine learning
US11394898B2 (en) 2017-09-08 2022-07-19 Apple Inc. Augmented reality self-portraits
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN108875517B (zh) * 2017-12-15 2022-07-08 北京旷视科技有限公司 视频处理方法、装置和系统及存储介质
CN107920210A (zh) * 2017-12-27 2018-04-17 广东欧珀移动通信有限公司 图像拍摄方法、装置及终端
RU2020135990A (ru) * 2018-04-02 2022-05-04 Конинклейке Филипс Н.В. Способ и система для изображений телестоматологии
WO2019192987A1 (en) * 2018-04-02 2019-10-10 Koninklijke Philips N.V. Guidance method and system for teledentistry imaging
EP3741102A4 (de) * 2018-04-23 2020-11-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Verfahren zum automatischen umschalten der videoaufnahme- und -wiedergabe-bildfrequenz
US10609293B2 (en) * 2018-08-20 2020-03-31 Capital One Services, Llc Real-time glare detection inside a dynamic region of an image
CN109308490B (zh) * 2018-09-07 2020-03-17 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
US10331966B1 (en) * 2018-10-19 2019-06-25 Capital One Services, Llc Image processing to detect a rectangular object
US10423403B1 (en) 2018-11-29 2019-09-24 Capital One Services, Llc Utilizing a machine learning model to predict metrics for an application development process
US10977520B2 (en) * 2018-12-18 2021-04-13 Slyce Acquisition Inc. Training data collection for computer vision
US11064113B1 (en) 2018-12-27 2021-07-13 Gopro, Inc. Image capture device with an automatic image capture capability
EP3700189B1 (de) * 2019-02-21 2023-02-01 Vestel Elektronik Sanayi ve Ticaret A.S. Vertikaler erfassungsmodus eines mobiltelefons
WO2020183499A1 (en) * 2019-03-14 2020-09-17 Opendoors Fintech Pvt.Ltd An system for improving financial document digitization and extraction using high definition video captures
US11120273B2 (en) * 2019-06-21 2021-09-14 Gfycat, Inc. Adaptive content classification of a video content item
CN114424236B (zh) * 2019-09-30 2025-06-10 三菱电机株式会社 信息处理装置、计算机能读入的记录介质和信息处理方法
CN112463822B (zh) * 2020-11-27 2023-02-17 成都海光微电子技术有限公司 用于芯片的数据处理方法及装置、电子设备和存储介质
CN114663901B (zh) * 2020-12-04 2024-11-26 北京搜狗科技发展有限公司 图像处理方法、图像识别装置、电子设备及介质
US11374986B1 (en) * 2021-04-12 2022-06-28 International Business Machines Corporation Collaborative meeting interest analyzer based on capture attempts
US11831931B2 (en) * 2021-04-14 2023-11-28 Microsoft Technology Licensing, Llc Systems and methods for generating high-resolution video or animated surface meshes from low-resolution images
US11849220B2 (en) 2021-04-14 2023-12-19 Microsoft Technology Licensing, Llc Systems and methods for generating depth information from low-resolution images
WO2023283612A1 (en) * 2021-07-08 2023-01-12 Drake Alexander Technologies, Inc. System and method for image-based parking determination using machine learning
US12026932B2 (en) * 2021-07-15 2024-07-02 Innov8Tif Solutions Sdn. Bhd. Method to determine authenticity of security hologram
GB202111600D0 (en) * 2021-08-12 2021-09-29 Milestone Systems As Privacy preserving anomaly detection using semantic segmentation
US11423697B1 (en) * 2021-08-12 2022-08-23 Sdc U.S. Smilepay Spv Machine learning architecture for imaging protocol detector
US11995900B2 (en) * 2021-11-12 2024-05-28 Zebra Technologies Corporation Method on identifying indicia orientation and decoding indicia for machine vision systems

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345981B2 (en) 2009-02-10 2013-01-01 Kofax, Inc. Systems, methods, and computer program products for determining document validity

Family Cites Families (656)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1660102A (en) 1923-06-04 1928-02-21 William H Smyth High-speed tracklaying tractor
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US3696599A (en) 1971-07-16 1972-10-10 Us Navy Cable fairing system
US4558461A (en) 1983-06-17 1985-12-10 Litton Systems, Inc. Text line bounding system
US4836026A (en) 1984-06-01 1989-06-06 Science Applications International Corporation Ultrasonic imaging system
US4651287A (en) 1984-06-14 1987-03-17 Tsao Sherman H Digital image processing algorithm for output devices with discrete halftone gray scale capability
US4656665A (en) 1985-01-15 1987-04-07 International Business Machines Corporation Thresholding technique for graphics images using histogram analysis
DE3716787A1 (de) 1986-05-19 1987-11-26 Ricoh Kk Zeichenerkennungsverfahren
US4992863A (en) 1987-12-22 1991-02-12 Minolta Camera Kabushiki Kaisha Colored image reading apparatus
US5101448A (en) 1988-08-24 1992-03-31 Hitachi, Ltd. Method and apparatus for processing a document by utilizing an image
JPH02311083A (ja) 1989-05-26 1990-12-26 Ricoh Co Ltd 原稿読取装置
US5159667A (en) 1989-05-31 1992-10-27 Borrey Roland G Document identification by characteristics matching
US5020112A (en) 1989-10-31 1991-05-28 At&T Bell Laboratories Image recognition method using two-dimensional stochastic grammars
JP2940960B2 (ja) 1989-10-31 1999-08-25 株式会社日立製作所 画像の傾き検出方法および補正方法ならびに画像情報処理装置
US5063604A (en) 1989-11-08 1991-11-05 Transitions Research Corporation Method and means for recognizing patterns represented in logarithmic polar coordinates
IT1237803B (it) 1989-12-21 1993-06-17 Temav Spa Procedimento per la preparazione di polveri fini di alluminio nitruro
US5344132A (en) 1990-01-16 1994-09-06 Digital Image Systems Image based document processing and information management system and apparatus
JP2708263B2 (ja) 1990-06-22 1998-02-04 富士写真フイルム株式会社 画像読取装置
JPH0488489A (ja) 1990-08-01 1992-03-23 Internatl Business Mach Corp <Ibm> 一般化ハフ変換を用いた文字認識装置および方法
JPH04287290A (ja) 1990-11-20 1992-10-12 Imra America Inc ハフ変換画像処理装置
KR930010845B1 (ko) 1990-12-31 1993-11-12 주식회사 금성사 화상정보의 그림/문자 자동분리방법
JPH04270565A (ja) 1991-02-20 1992-09-25 Fuji Xerox Co Ltd 画像圧縮装置
US5313527A (en) 1991-06-07 1994-05-17 Paragraph International Method and apparatus for recognizing cursive writing from sequential input information
US5293429A (en) 1991-08-06 1994-03-08 Ricoh Company, Ltd. System and method for automatically classifying heterogeneous business forms
US5680525A (en) 1991-08-08 1997-10-21 Hitachi, Ltd. Three-dimensional graphic system with an editor for generating a textrue mapping image
DE69228741T2 (de) 1991-10-02 1999-09-02 Fujitsu Ltd. Verfahren zur bestimmung der lokalen orientierung eines kontursegmentes und zur bestimmung von linien und ecken
US5321770A (en) 1991-11-19 1994-06-14 Xerox Corporation Method for determining boundaries of words in text
JP3191057B2 (ja) 1991-11-22 2001-07-23 株式会社日立製作所 符号化画像データの処理方法および装置
US5359673A (en) 1991-12-27 1994-10-25 Xerox Corporation Method and apparatus for converting bitmap image documents to editable coded data using a standard notation to record document recognition ambiguities
DE9202508U1 (de) 1992-02-27 1992-04-09 Georg Karl geka-brush GmbH, 8809 Bechhofen Zahnreinigungsbürste
US5317646A (en) 1992-03-24 1994-05-31 Xerox Corporation Automated method for creating templates in a forms recognition and processing system
DE4310727C2 (de) 1992-04-06 1996-07-11 Hell Ag Linotype Verfahren und Einrichtung zur Analyse von Bildvorlagen
US5268967A (en) 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
US5596655A (en) 1992-08-18 1997-01-21 Hewlett-Packard Company Method for finding and classifying scanned information
US5594815A (en) 1992-10-19 1997-01-14 Fast; Bruce B. OCR image preprocessing method for image enhancement of scanned documents
US5848184A (en) 1993-03-15 1998-12-08 Unisys Corporation Document page analyzer and method
JPH06274680A (ja) 1993-03-17 1994-09-30 Hitachi Ltd 文書認識方法およびシステム
US6002489A (en) 1993-04-02 1999-12-14 Fujitsu Limited Product catalog having image evaluation chart
JPH06314339A (ja) 1993-04-27 1994-11-08 Honda Motor Co Ltd 画像の直線成分抽出装置
US5602964A (en) 1993-05-21 1997-02-11 Autometric, Incorporated Automata networks and methods for obtaining optimized dynamically reconfigurable computational architectures and controls
US7082426B2 (en) 1993-06-18 2006-07-25 Cnet Networks, Inc. Content aggregation method and apparatus for an on-line product catalog
US5353673A (en) 1993-09-07 1994-10-11 Lynch John H Brass-wind musical instrument mouthpiece with radially asymmetric lip restrictor
JP2720924B2 (ja) 1993-09-21 1998-03-04 富士ゼロックス株式会社 画像信号の符号化装置
US6219773B1 (en) 1993-10-18 2001-04-17 Via-Cyrix, Inc. System and method of retiring misaligned write operands from a write buffer
DE69432114T2 (de) 1993-11-24 2003-10-30 Canon K.K., Tokio/Tokyo System zum Identifizieren und Verarbeiten von Formularen
US5546474A (en) 1993-12-21 1996-08-13 Hewlett-Packard Company Detection of photo regions in digital images
US5671463A (en) 1993-12-28 1997-09-23 Minolta Co., Ltd. Image forming apparatus capable of forming a plurality of images from different originals on a single copy sheet
US5473742A (en) 1994-02-22 1995-12-05 Paragraph International Method and apparatus for representing image data using polynomial approximation method and iterative transformation-reparametrization technique
JP3163215B2 (ja) 1994-03-07 2001-05-08 日本電信電話株式会社 直線抽出ハフ変換画像処理装置
US5699244A (en) 1994-03-07 1997-12-16 Monsanto Company Hand-held GUI PDA with GPS/DGPS receiver for collecting agronomic and GPS position data
JP3311135B2 (ja) 1994-03-23 2002-08-05 積水化学工業株式会社 検査範囲認識方法
DE69516751T2 (de) 1994-04-15 2000-10-05 Canon Kk Bildvorverarbeitung für Zeichenerkennungsanlage
US5652663A (en) 1994-07-29 1997-07-29 Polaroid Corporation Preview buffer for electronic scanner
US5563723A (en) 1994-08-31 1996-10-08 Eastman Kodak Company Method of calibration of image scanner signal processing circuits
US5757963A (en) 1994-09-30 1998-05-26 Xerox Corporation Method and apparatus for complex column segmentation by major white region pattern matching
JP3494326B2 (ja) 1994-10-19 2004-02-09 ミノルタ株式会社 画像形成装置
US5696611A (en) 1994-11-08 1997-12-09 Matsushita Graphic Communication Systems, Inc. Color picture processing apparatus for reproducing a color picture having a smoothly changed gradation
EP0723247B1 (de) 1995-01-17 1998-07-29 Eastman Kodak Company System und Verfahren zur Bewertung der Abbildung eines Formulars
US5822454A (en) 1995-04-10 1998-10-13 Rebus Technology, Inc. System and method for automatic page registration and automatic zone detection during forms processing
US5857029A (en) 1995-06-05 1999-01-05 United Parcel Service Of America, Inc. Method and apparatus for non-contact signature imaging
DK71495A (da) 1995-06-22 1996-12-23 Purup Prepress As Fremgangsmåde og apparat til korrektion af farvestik i digitalt billede
JPH0962826A (ja) 1995-08-22 1997-03-07 Fuji Photo Film Co Ltd 画像読取装置
US5781665A (en) 1995-08-28 1998-07-14 Pitney Bowes Inc. Apparatus and method for cropping an image
US5825915A (en) 1995-09-12 1998-10-20 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus in which the position of a planar object is estimated by using hough transform
JP2000500887A (ja) 1995-09-25 2000-01-25 アドビ システムズ インコーポレイテッド 電子文書への最適アクセス
US6532077B1 (en) 1995-10-04 2003-03-11 Canon Kabushiki Kaisha Image processing system
JPH09116720A (ja) 1995-10-20 1997-05-02 Matsushita Graphic Commun Syst Inc Ocrファクシミリ装置とこの通信システム
US6009196A (en) 1995-11-28 1999-12-28 Xerox Corporation Method for classifying non-running text in an image
US5987172A (en) 1995-12-06 1999-11-16 Cognex Corp. Edge peak contour tracker
US6009191A (en) 1996-02-15 1999-12-28 Intel Corporation Computer implemented method for compressing 48-bit pixels to 16-bit pixels
US5923763A (en) 1996-03-21 1999-07-13 Walker Asset Management Limited Partnership Method and apparatus for secure document timestamping
US5937084A (en) * 1996-05-22 1999-08-10 Ncr Corporation Knowledge-based document analysis system
US5956468A (en) 1996-07-12 1999-09-21 Seiko Epson Corporation Document segmentation system
SE510310C2 (sv) 1996-07-19 1999-05-10 Ericsson Telefon Ab L M Förfarande jämte anordning för rörelse-esimering och segmentering
US6038348A (en) 1996-07-24 2000-03-14 Oak Technology, Inc. Pixel image enhancement system and method
US5696805A (en) 1996-09-17 1997-12-09 Eastman Kodak Company Apparatus and method for identifying specific bone regions in digital X-ray images
JP3685421B2 (ja) 1996-09-18 2005-08-17 富士写真フイルム株式会社 画像処理装置
US5899978A (en) 1996-10-07 1999-05-04 Title America Titling system and method therefor
JPH10117262A (ja) 1996-10-09 1998-05-06 Fuji Photo Film Co Ltd 画像処理装置
JP2940496B2 (ja) 1996-11-05 1999-08-25 日本電気株式会社 パタンマッチング符号化装置及び方法
US6104840A (en) 1996-11-08 2000-08-15 Ricoh Company, Ltd. Method and system for generating a composite image from partially overlapping adjacent images taken along a plurality of axes
US6512848B2 (en) 1996-11-18 2003-01-28 Canon Kabushiki Kaisha Page analysis system
JP3748141B2 (ja) 1996-12-26 2006-02-22 株式会社東芝 画像形成装置
US6098065A (en) 1997-02-13 2000-08-01 Nortel Networks Corporation Associative search engine
EP0860989B1 (de) 1997-02-19 2006-11-22 Canon Kabushiki Kaisha Abtastvorrichtung und Steuerverfahren dafür sowie Bildeingabesystem
JP2927350B2 (ja) 1997-03-27 1999-07-28 株式会社モノリス 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法
SE511242C2 (sv) 1997-04-01 1999-08-30 Readsoft Ab Förfarande och anordning för automatisk datafångst hos formulär
US6154217A (en) 1997-04-15 2000-11-28 Software Architects, Inc. Gamut restriction of color image
US6005958A (en) 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US6067385A (en) 1997-05-07 2000-05-23 Ricoh Company Limited System for aligning document images when scanned in duplex mode
US6433896B1 (en) 1997-06-10 2002-08-13 Minolta Co., Ltd. Image processing apparatus
KR100420819B1 (ko) 1997-06-25 2004-04-17 마쯔시다덴기산교 가부시키가이샤 휘도계조표시방법
JP3877385B2 (ja) 1997-07-04 2007-02-07 大日本スクリーン製造株式会社 画像処理パラメータ決定装置およびその方法
JP3061019B2 (ja) 1997-08-04 2000-07-10 トヨタ自動車株式会社 内燃機関
US5953388A (en) 1997-08-18 1999-09-14 George Mason University Method and apparatus for processing data from a tomographic imaging system
JP3891654B2 (ja) 1997-08-20 2007-03-14 株式会社東芝 画像形成装置
US6005968A (en) 1997-08-29 1999-12-21 X-Rite, Incorporated Scanner calibration and correction techniques using scaled lightness values
JPH1186021A (ja) 1997-09-09 1999-03-30 Fuji Photo Film Co Ltd 画像処理装置
JPH1178112A (ja) 1997-09-09 1999-03-23 Konica Corp 画像形成装置及び画像形成方法
US6011595A (en) 1997-09-19 2000-01-04 Eastman Kodak Company Method for segmenting a digital image into a foreground region and a key color region
JPH1191169A (ja) 1997-09-19 1999-04-06 Fuji Photo Film Co Ltd 画像処理装置
US6480624B1 (en) 1997-09-30 2002-11-12 Minolta Co., Ltd. Color discrimination apparatus and method
US6434620B1 (en) 1998-08-27 2002-08-13 Alacritech, Inc. TCP/IP offload network interface device
JP3608920B2 (ja) 1997-10-14 2005-01-12 株式会社ミツトヨ 非接触画像計測システム
US5867264A (en) 1997-10-15 1999-02-02 Pacific Advanced Technology Apparatus for image multispectral sensing employing addressable spatial mask
US6243722B1 (en) 1997-11-24 2001-06-05 International Business Machines Corporation Method and system for a network-based document review tool utilizing comment classification
US6222613B1 (en) 1998-02-10 2001-04-24 Konica Corporation Image processing method and apparatus
DE19809790B4 (de) 1998-03-09 2005-12-22 Daimlerchrysler Ag Verfahren zur Ermittlung einer Drallstruktur in der Oberfläche eines feinbearbeiteten zylindrischen Werkstücks
JPH11261821A (ja) 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
US6426806B2 (en) 1998-03-31 2002-07-30 Canon Kabushiki Kaisha Routing scanned documents with scanned control sheets
US6327581B1 (en) 1998-04-06 2001-12-04 Microsoft Corporation Methods and apparatus for building a support vector machine classifier
JP3457562B2 (ja) 1998-04-06 2003-10-20 富士写真フイルム株式会社 画像処理装置及び方法
US7194471B1 (en) 1998-04-10 2007-03-20 Ricoh Company, Ltd. Document classification system and method for classifying a document according to contents of the document
US6393147B2 (en) 1998-04-13 2002-05-21 Intel Corporation Color region based recognition of unidentified objects
US8955743B1 (en) 1998-04-17 2015-02-17 Diebold Self-Service Systems Division Of Diebold, Incorporated Automated banking machine with remote user assistance
JP3669203B2 (ja) 1998-04-23 2005-07-06 自動車電機工業株式会社 ワイパ用リンクコンロッド
US6789069B1 (en) 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US7617163B2 (en) 1998-05-01 2009-11-10 Health Discovery Corporation Kernels and kernel methods for spectral data
US7318051B2 (en) 2001-05-18 2008-01-08 Health Discovery Corporation Methods for feature selection in a learning machine
JPH11328408A (ja) 1998-05-12 1999-11-30 Advantest Corp データ処理装置および方法、情報記憶媒体
US6748109B1 (en) 1998-06-16 2004-06-08 Fuji Photo Film Co., Ltd Digital laboratory system for processing photographic images
US6192360B1 (en) 1998-06-23 2001-02-20 Microsoft Corporation Methods and apparatus for classifying text and for building a text classifier
US6161130A (en) 1998-06-23 2000-12-12 Microsoft Corporation Technique which utilizes a probabilistic classifier to detect "junk" e-mail by automatically updating a training and re-training the classifier based on the updated training set
EP0967792B1 (de) 1998-06-26 2011-08-03 Sony Corporation Drucker mit Bildkorrekturfähigkeit
US7253836B1 (en) 1998-06-30 2007-08-07 Nikon Corporation Digital camera, storage medium for image signal processing, carrier wave and electronic camera
US6456738B1 (en) 1998-07-16 2002-09-24 Ricoh Company, Ltd. Method of and system for extracting predetermined elements from input document based upon model which is adaptively modified according to variable amount in the input document
FR2781475B1 (fr) 1998-07-23 2000-09-08 Alsthom Cge Alcatel Utilisation d'un creuset en graphite poreux pour traiter des granules de silice
US6219158B1 (en) 1998-07-31 2001-04-17 Hewlett-Packard Company Method and apparatus for a dynamically variable scanner, copier or facsimile secondary reflective surface
US6385346B1 (en) 1998-08-04 2002-05-07 Sharp Laboratories Of America, Inc. Method of display and control of adjustable parameters for a digital scanner device
US6292168B1 (en) 1998-08-13 2001-09-18 Xerox Corporation Period-based bit conversion method and apparatus for digital image processing
JP2000067065A (ja) 1998-08-20 2000-03-03 Ricoh Co Ltd 文書画像識別方法および記録媒体
US6373507B1 (en) 1998-09-14 2002-04-16 Microsoft Corporation Computer-implemented image acquistion system
US7017108B1 (en) 1998-09-15 2006-03-21 Canon Kabushiki Kaisha Method and apparatus for reproducing a linear document having non-linear referential links
US6263122B1 (en) 1998-09-23 2001-07-17 Hewlett Packard Company System and method for manipulating regions in a scanned image
US6223223B1 (en) 1998-09-30 2001-04-24 Hewlett-Packard Company Network scanner contention handling method
US6575367B1 (en) 1998-11-05 2003-06-10 Welch Allyn Data Collection, Inc. Image data binarization methods enabling optical reader to read fine print indicia
US6370277B1 (en) 1998-12-07 2002-04-09 Kofax Image Products, Inc. Virtual rescanning: a method for interactive document image quality enhancement
US6480304B1 (en) 1998-12-09 2002-11-12 Scansoft, Inc. Scanning system and method
US6396599B1 (en) 1998-12-21 2002-05-28 Eastman Kodak Company Method and apparatus for modifying a portion of an image in accordance with colorimetric parameters
US6765685B1 (en) 1999-01-22 2004-07-20 Ricoh Company, Ltd. Printing electronic documents with automatically interleaved separation sheets
US7003719B1 (en) 1999-01-25 2006-02-21 West Publishing Company, Dba West Group System, method, and software for inserting hyperlinks into documents
US6614930B1 (en) 1999-01-28 2003-09-02 Koninklijke Philips Electronics N.V. Video stream classifiable symbol isolation method and system
JP2000227316A (ja) 1999-02-04 2000-08-15 Keyence Corp 検査装置
US6646765B1 (en) 1999-02-19 2003-11-11 Hewlett-Packard Development Company, L.P. Selective document scanning method and apparatus
JP2000251012A (ja) 1999-03-01 2000-09-14 Hitachi Ltd 帳票処理方法およびシステム
EP1049030A1 (de) 1999-04-28 2000-11-02 SER Systeme AG Produkte und Anwendungen der Datenverarbeitung Methode und Apparat zur Klassifizierung
US6590676B1 (en) 1999-05-18 2003-07-08 Electronics For Imaging, Inc. Image reconstruction architecture
EP1054331A3 (de) 1999-05-21 2003-11-12 Hewlett-Packard Company, A Delaware Corporation System und Verfahren zum Speichern und Wiederauffinden von Dokumentdaten
JP4453119B2 (ja) 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
JP2000354144A (ja) 1999-06-11 2000-12-19 Ricoh Co Ltd 文書読取装置
JP4626007B2 (ja) 1999-06-14 2011-02-02 株式会社ニコン 画像処理方法、画像処理プログラムを記録した機械読み取り可能な記録媒体、および画像処理装置
US7051274B1 (en) 1999-06-24 2006-05-23 Microsoft Corporation Scalable computing system for managing annotations
JP4114279B2 (ja) 1999-06-25 2008-07-09 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
US6501855B1 (en) 1999-07-20 2002-12-31 Parascript, Llc Manual-search restriction on documents not having an ASCII index
IL131092A (en) 1999-07-25 2006-08-01 Orbotech Ltd Optical inspection system
US6628808B1 (en) 1999-07-28 2003-09-30 Datacard Corporation Apparatus and method for verifying a scanned image
US6628416B1 (en) 1999-10-13 2003-09-30 Umax Data Systems, Inc. Method and user interface for performing a scan operation for a scanner coupled to a computer system
JP3501031B2 (ja) 1999-08-24 2004-02-23 日本電気株式会社 画像領域判定装置、画像領域判定方法及びそのプログラムを記憶した記憶媒体
JP3587506B2 (ja) 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
US6633857B1 (en) 1999-09-04 2003-10-14 Microsoft Corporation Relevance vector machine
US6601026B2 (en) 1999-09-17 2003-07-29 Discern Communications, Inc. Information retrieval by natural language querying
US7123292B1 (en) * 1999-09-29 2006-10-17 Xerox Corporation Mosaicing images with an offset lens
JP2001103255A (ja) 1999-09-30 2001-04-13 Minolta Co Ltd 画像処理システム
US6839466B2 (en) 1999-10-04 2005-01-04 Xerox Corporation Detecting overlapping images in an automatic image segmentation device with the presence of severe bleeding
US7430066B2 (en) 1999-10-13 2008-09-30 Transpacific Ip, Ltd. Method and user interface for performing an automatic scan operation for a scanner coupled to a computer system
JP4377494B2 (ja) 1999-10-22 2009-12-02 東芝テック株式会社 情報入力装置
JP4094789B2 (ja) 1999-11-26 2008-06-04 富士通株式会社 画像処理装置及び画像処理方法
US7735721B1 (en) 1999-11-30 2010-06-15 Diebold Self-Service Systems Division Of Diebold, Incorporated Method of evaluating checks deposited into a cash dispensing automated banking machine
US6751349B2 (en) 1999-11-30 2004-06-15 Fuji Photo Film Co., Ltd. Image processing system
US7337389B1 (en) 1999-12-07 2008-02-26 Microsoft Corporation System and method for annotating an electronic document independently of its content
US6665425B1 (en) 1999-12-16 2003-12-16 Xerox Corporation Systems and methods for automated image quality based diagnostics and remediation of document processing systems
US20010027420A1 (en) 1999-12-21 2001-10-04 Miroslav Boublik Method and apparatus for capturing transaction data
US6724916B1 (en) 2000-01-05 2004-04-20 The United States Of America As Represented By The Secretary Of The Navy Composite hough transform for multitarget multisensor tracking
US6778684B1 (en) 2000-01-20 2004-08-17 Xerox Corporation Systems and methods for checking image/document quality
JP2001218047A (ja) 2000-02-04 2001-08-10 Fuji Photo Film Co Ltd 画像処理装置
EP1128659A1 (de) 2000-02-24 2001-08-29 Xerox Corporation Graphische Benutzeroberfläche zur Vorschau von aufgenommenen Bilddaten von doppelseitigen oder gebundenen Dokumenten
US7149347B1 (en) 2000-03-02 2006-12-12 Science Applications International Corporation Machine learning of document templates for data extraction
US6859909B1 (en) 2000-03-07 2005-02-22 Microsoft Corporation System and method for annotating web-based documents
US6643413B1 (en) 2000-03-27 2003-11-04 Microsoft Corporation Manifold mosaic hopping for image-based rendering
US6757081B1 (en) 2000-04-07 2004-06-29 Hewlett-Packard Development Company, L.P. Methods and apparatus for analyzing and image and for controlling a scanner
SE0001312D0 (sv) 2000-04-10 2000-04-10 Abb Ab Industrirobot
US6337925B1 (en) 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
US20020030831A1 (en) 2000-05-10 2002-03-14 Fuji Photo Film Co., Ltd. Image correction method
US6469801B1 (en) 2000-05-17 2002-10-22 Heidelberger Druckmaschinen Ag Scanner with prepress scaling mode
US6763515B1 (en) 2000-06-05 2004-07-13 National Instruments Corporation System and method for automatically generating a graphical program to perform an image processing algorithm
US6701009B1 (en) 2000-06-06 2004-03-02 Sharp Laboratories Of America, Inc. Method of separated color foreground and background pixel improvement
US20030120653A1 (en) 2000-07-05 2003-06-26 Sean Brady Trainable internet search engine and methods of using
US6463430B1 (en) 2000-07-10 2002-10-08 Mohomine, Inc. Devices and methods for generating and managing a database
JP4023075B2 (ja) 2000-07-10 2007-12-19 富士ゼロックス株式会社 画像取得装置
JP4171574B2 (ja) 2000-07-21 2008-10-22 富士フイルム株式会社 画像処理条件決定装置および画像処理条件決定プログラム記憶媒体
US7624337B2 (en) 2000-07-24 2009-11-24 Vmark, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
US6675159B1 (en) 2000-07-27 2004-01-06 Science Applic Int Corp Concept-based search and retrieval system
EP1312038B1 (de) 2000-07-28 2013-10-16 RAF Technology, Inc. Orthogonaltechnologie zur mehrzeiligen zeichenerkennung
US6850653B2 (en) 2000-08-08 2005-02-01 Canon Kabushiki Kaisha Image reading system, image reading setting determination apparatus, reading setting determination method, recording medium, and program
US6901170B1 (en) 2000-09-05 2005-05-31 Fuji Xerox Co., Ltd. Image processing device and recording medium
JP3720740B2 (ja) 2000-09-12 2005-11-30 キヤノン株式会社 分散印刷システム、分散印刷制御方法、記憶媒体、及びプログラム
US7002700B1 (en) 2000-09-14 2006-02-21 Electronics For Imaging, Inc. Method and system for merging scan files into a color workflow
US7738706B2 (en) 2000-09-22 2010-06-15 Sri International Method and apparatus for recognition of symbols in images of three-dimensional scenes
DE10047219A1 (de) 2000-09-23 2002-06-06 Adolf Wuerth Gmbh & Co Kg Blechklammer
JP4472847B2 (ja) 2000-09-28 2010-06-02 キヤノン電子株式会社 画像処理装置及びその制御方法、画像入力装置及びその制御方法、並びに記憶媒体
JP2002109242A (ja) * 2000-09-29 2002-04-12 Glory Ltd 帳票処理方法および装置並びに帳票処理プログラムを記憶した記憶媒体
US6621595B1 (en) 2000-11-01 2003-09-16 Hewlett-Packard Development Company, L.P. System and method for enhancing scanned document images for color printing
US20050060162A1 (en) 2000-11-10 2005-03-17 Farhad Mohit Systems and methods for automatic identification and hyperlinking of words or other data items and for information retrieval using hyperlinked words or data items
US7043080B1 (en) 2000-11-21 2006-05-09 Sharp Laboratories Of America, Inc. Methods and systems for text detection in mixed-context documents using local geometric signatures
US6788308B2 (en) 2000-11-29 2004-09-07 Tvgateway,Llc System and method for improving the readability of text
EP1211594A3 (de) 2000-11-30 2006-05-24 Canon Kabushiki Kaisha Gerät und Verfahren um Gebraucherschnittstelle zu überwachen
US6921220B2 (en) 2000-12-19 2005-07-26 Canon Kabushiki Kaisha Image processing system, data processing apparatus, data processing method, computer program and storage medium
US6826311B2 (en) 2001-01-04 2004-11-30 Microsoft Corporation Hough transform supporting methods and arrangements
US7266768B2 (en) 2001-01-09 2007-09-04 Sharp Laboratories Of America, Inc. Systems and methods for manipulating electronic information using a three-dimensional iconic representation
US6522791B2 (en) 2001-01-23 2003-02-18 Xerox Corporation Dynamic user interface with scanned image improvement assist
US6882983B2 (en) 2001-02-05 2005-04-19 Notiva Corporation Method and system for processing transactions
US6950555B2 (en) 2001-02-16 2005-09-27 Parascript Llc Holistic-analytical recognition of handwritten text
JP2002247371A (ja) 2001-02-21 2002-08-30 Ricoh Co Ltd 画像処理装置および画像処理プログラムを記録した記録媒体
US6944602B2 (en) 2001-03-01 2005-09-13 Health Discovery Corporation Spectral kernels for learning machines
US7864369B2 (en) * 2001-03-19 2011-01-04 Dmetrix, Inc. Large-area imaging by concatenation with array microscope
JP2002300386A (ja) 2001-03-30 2002-10-11 Fuji Photo Film Co Ltd 画像処理方法
US7145699B2 (en) 2001-03-30 2006-12-05 Sharp Laboratories Of America, Inc. System and method for digital document alignment
US20020165717A1 (en) 2001-04-06 2002-11-07 Solmer Robert P. Efficient method for information extraction
US6658147B2 (en) 2001-04-16 2003-12-02 Parascript Llc Reshaping freehand drawn lines and shapes in an electronic document
JP3824209B2 (ja) 2001-04-18 2006-09-20 三菱電機株式会社 文書自動分割装置
US7023447B2 (en) 2001-05-02 2006-04-04 Eastman Kodak Company Block sampling based method and apparatus for texture synthesis
US7006707B2 (en) 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
US6944357B2 (en) 2001-05-24 2005-09-13 Microsoft Corporation System and process for automatically determining optimal image compression methods for reducing file size
WO2002099720A1 (en) 2001-06-01 2002-12-12 American Express Travel Related Services Company, Inc. System and method for global automated address verification
US20030030638A1 (en) 2001-06-07 2003-02-13 Karl Astrom Method and apparatus for extracting information from a target area within a two-dimensional graphical object in an image
FR2825817B1 (fr) 2001-06-07 2003-09-19 Commissariat Energie Atomique Procede de traitement d'images pour l'extraction automatique d'elements semantiques
US7403313B2 (en) 2001-09-27 2008-07-22 Transpacific Ip, Ltd. Automatic scanning parameter setting device and method
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US7154622B2 (en) 2001-06-27 2006-12-26 Sharp Laboratories Of America, Inc. Method of routing and processing document images sent using a digital scanner and transceiver
US7298903B2 (en) 2001-06-28 2007-11-20 Microsoft Corporation Method and system for separating text and drawings in digital ink
US7013047B2 (en) 2001-06-28 2006-03-14 National Instruments Corporation System and method for performing edge detection in an image
CA2457639C (en) 2001-08-13 2014-07-22 Accenture Global Services Gmbh A computer system for managing accounting data
US7506062B2 (en) 2001-08-30 2009-03-17 Xerox Corporation Scanner-initiated network-based image input scanning
US20030044012A1 (en) 2001-08-31 2003-03-06 Sharp Laboratories Of America, Inc. System and method for using a profile to encrypt documents in a digital scanner
JP5002099B2 (ja) 2001-08-31 2012-08-15 株式会社東芝 磁気共鳴イメージング装置
JP4564693B2 (ja) 2001-09-14 2010-10-20 キヤノン株式会社 文書処理装置及び方法
US7515313B2 (en) 2001-09-20 2009-04-07 Stone Cheng Method and system for scanning with one-scan-and-done feature
US7430002B2 (en) 2001-10-03 2008-09-30 Micron Technology, Inc. Digital imaging system and method for adjusting image-capturing parameters using image comparisons
US6732046B1 (en) 2001-10-03 2004-05-04 Navigation Technologies Corp. Application of the hough transform to modeling the horizontal component of road geometry and computing heading and curvature
US6922487B2 (en) 2001-11-02 2005-07-26 Xerox Corporation Method and apparatus for capturing text images
US6667774B2 (en) 2001-11-02 2003-12-23 Imatte, Inc. Method and apparatus for the automatic generation of subject to background transition area boundary lines and subject shadow retention
US6898316B2 (en) 2001-11-09 2005-05-24 Arcsoft, Inc. Multiple image area detection in a digital image
US6944616B2 (en) 2001-11-28 2005-09-13 Pavilion Technologies, Inc. System and method for historical database training of support vector machines
EP1317133A1 (de) 2001-12-03 2003-06-04 Kofax Image Products, Inc. Virtuelles Wiederholungs-Scannen, ein Verfahren zur interaktiven Verbesserung der Bildqualität von Dokumenten
US7937281B2 (en) 2001-12-07 2011-05-03 Accenture Global Services Limited Accelerated process improvement framework
US7286177B2 (en) 2001-12-19 2007-10-23 Nokia Corporation Digital camera
US7053953B2 (en) 2001-12-21 2006-05-30 Eastman Kodak Company Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image
JP2003196357A (ja) 2001-12-27 2003-07-11 Hitachi Software Eng Co Ltd 文書ファイリング方法及びシステム
US7346215B2 (en) 2001-12-31 2008-03-18 Transpacific Ip, Ltd. Apparatus and method for capturing a document
US7054036B2 (en) 2002-01-25 2006-05-30 Kabushiki Kaisha Toshiba Image processing method and image forming apparatus
US20030142328A1 (en) 2002-01-31 2003-07-31 Mcdaniel Stanley Eugene Evaluation of image processing operations
JP3891408B2 (ja) 2002-02-08 2007-03-14 株式会社リコー 画像補正装置、プログラム、記憶媒体及び画像補正方法
US7362354B2 (en) 2002-02-12 2008-04-22 Hewlett-Packard Development Company, L.P. Method and system for assessing the photo quality of a captured image in a digital still camera
CA2476895A1 (en) 2002-02-19 2003-08-28 Digimarc Corporation Security methods employing drivers licenses and other documents
US6985631B2 (en) 2002-02-20 2006-01-10 Hewlett-Packard Development Company, L.P. Systems and methods for automatically detecting a corner in a digitally captured image
US7020320B2 (en) 2002-03-06 2006-03-28 Parascript, Llc Extracting text written on a check
US7107285B2 (en) 2002-03-16 2006-09-12 Questerra Corporation Method, system, and program for an improved enterprise spatial system
WO2003085624A1 (en) 2002-04-05 2003-10-16 Unbounded Access Ltd. Networked accessibility enhancer system
JP4185699B2 (ja) 2002-04-12 2008-11-26 日立オムロンターミナルソリューションズ株式会社 帳票読み取りシステム、帳票読み取り方法及びそのためのプログラム
US20030210428A1 (en) 2002-05-07 2003-11-13 Alex Bevlin Non-OCR method for capture of computer filled-in forms
CA2526165A1 (en) 2002-05-23 2003-12-04 Phochron, Inc. System and method for digital content processing and distribution
US7636455B2 (en) 2002-06-04 2009-12-22 Raytheon Company Digital image edge detection and road network tracking method and system
US7409092B2 (en) 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
US7197158B2 (en) 2002-06-28 2007-03-27 Microsoft Corporation Generation of metadata for acquired images
US20040143547A1 (en) 2002-07-02 2004-07-22 Dean Mersky Automated accounts payable using image typing and type specific processing
US6999625B1 (en) 2002-07-12 2006-02-14 The United States Of America As Represented By The Secretary Of The Navy Feature-based detection and context discriminate classification for digital images
US7209599B2 (en) 2002-07-12 2007-04-24 Hewlett-Packard Development Company, L.P. System and method for scanned image bleedthrough processing
JP2004054640A (ja) 2002-07-19 2004-02-19 Sharp Corp 画像情報配信方法、画像情報配信システム、中央装置、端末装置、スキャナ装置、コンピュータプログラム、及び記録媒体
US7031525B2 (en) 2002-07-30 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Edge detection based on background change
US7365881B2 (en) 2002-08-19 2008-04-29 Eastman Kodak Company Halftone dot-growth technique based on morphological filtering
US7123387B2 (en) 2002-08-23 2006-10-17 Chung-Wei Cheng Image scanning method
US20040083119A1 (en) 2002-09-04 2004-04-29 Schunder Lawrence V. System and method for implementing a vendor contract management system
JP3741090B2 (ja) 2002-09-09 2006-02-01 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
US7349888B1 (en) 2003-11-10 2008-03-25 Zxibix, Inc. System and method to customize the facilitation of development of user thinking about and documenting of an arbitrary problem
US20040090458A1 (en) 2002-11-12 2004-05-13 Yu John Chung Wah Method and apparatus for previewing GUI design and providing screen-to-source association
DE10253903A1 (de) 2002-11-19 2004-06-17 OCé PRINTING SYSTEMS GMBH Verfahren, Anordnung und Computersoftware zum Bedrucken eines Trennblattes mit Hilfe eines elektrofotografischen Druckers oder Kopierers
EP1422920B1 (de) 2002-11-19 2013-01-23 Canon Denshi Kabushiki Kaisha Netzwerk-Scanning-System
FR2847344B1 (fr) 2002-11-20 2005-02-25 Framatome Anp Sonde de controle d'une paroi interne d'un conduit
KR100446538B1 (ko) 2002-11-21 2004-09-01 삼성전자주식회사 디지털 카메라 대여 시스템을 위한 온라인 디지털 사진처리 시스템
US7386527B2 (en) 2002-12-06 2008-06-10 Kofax, Inc. Effective multi-class support vector machine classification
JP2006511567A (ja) 2002-12-16 2006-04-06 キング・ファーマシューティカルズ・インコーポレーテッド 利尿薬を使用する又は利尿薬とaceインヒビターとの組合せを使用する、高血圧個体における心臓発作を軽減するための方法および剤形
US7181082B2 (en) 2002-12-18 2007-02-20 Sharp Laboratories Of America, Inc. Blur detection system
AU2003303499A1 (en) 2002-12-26 2004-07-29 The Trustees Of Columbia University In The City Of New York Ordered data compression system and methods
US20070128899A1 (en) 2003-01-12 2007-06-07 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US7174043B2 (en) 2003-02-25 2007-02-06 Evernote Corp. On-line handwriting recognizer
US20040169889A1 (en) 2003-02-27 2004-09-02 Toshiba Tec Kabushiki Kaisha Image processing apparatus and controller apparatus using thereof
US20040169873A1 (en) 2003-02-28 2004-09-02 Xerox Corporation Automatic determination of custom parameters based on scanned image data
US7765155B2 (en) 2003-03-13 2010-07-27 International Business Machines Corporation Invoice processing approval and storage system method and apparatus
US6729733B1 (en) 2003-03-21 2004-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for determining a largest inscribed rectangular image within a union of projected quadrilateral images
US7639392B2 (en) 2003-03-28 2009-12-29 Infoprint Solutions Company, Llc Methods, systems, and media to enhance image processing in a color reprographic system
US7665061B2 (en) 2003-04-08 2010-02-16 Microsoft Corporation Code builders
US7251777B1 (en) 2003-04-16 2007-07-31 Hypervision, Ltd. Method and system for automated structuring of textual documents
US7406183B2 (en) 2003-04-28 2008-07-29 International Business Machines Corporation System and method of sorting document images based on image quality
US7327374B2 (en) 2003-04-30 2008-02-05 Byong Mok Oh Structure-preserving clone brush
US20040223640A1 (en) 2003-05-09 2004-11-11 Bovyrin Alexander V. Stereo matching using segmentation of image columns
JP4864295B2 (ja) 2003-06-02 2012-02-01 富士フイルム株式会社 画像表示システム、画像表示装置およびプログラム
JP4261988B2 (ja) * 2003-06-03 2009-05-13 キヤノン株式会社 画像処理装置及び方法
US20040245334A1 (en) 2003-06-06 2004-12-09 Sikorski Steven Maurice Inverted terminal presentation scanner and holder
US8484066B2 (en) 2003-06-09 2013-07-09 Greenline Systems, Inc. System and method for risk detection reporting and infrastructure
US7389516B2 (en) 2003-06-19 2008-06-17 Microsoft Corporation System and method for facilitating interaction between a computer and a network scanner
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US20040263639A1 (en) 2003-06-26 2004-12-30 Vladimir Sadovsky System and method for intelligent image acquisition
JP4289040B2 (ja) 2003-06-26 2009-07-01 富士ゼロックス株式会社 画像処理装置及び方法
JP2005018678A (ja) 2003-06-30 2005-01-20 Casio Comput Co Ltd 帳票データ入力処理装置、帳票データ入力処理方法及びプログラム
US7362892B2 (en) 2003-07-02 2008-04-22 Lockheed Martin Corporation Self-optimizing classifier
WO2005010727A2 (en) 2003-07-23 2005-02-03 Praedea Solutions, Inc. Extracting data from semi-structured text documents
US20050030602A1 (en) 2003-08-06 2005-02-10 Gregson Daniel P. Scan templates
US20050050060A1 (en) 2003-08-27 2005-03-03 Gerard Damm Data structure for range-specified algorithms
JP2005071262A (ja) * 2003-08-27 2005-03-17 Casio Comput Co Ltd 伝票処理システム
US8937731B2 (en) 2003-09-01 2015-01-20 Konica Minolta Business Technologies, Inc. Image processing apparatus for receiving a request relating to image processing from an external source and executing the received request
JP3951990B2 (ja) 2003-09-05 2007-08-01 ブラザー工業株式会社 無線ステーション,プログラムおよび動作制御方法
JP4725057B2 (ja) 2003-09-09 2011-07-13 セイコーエプソン株式会社 画質調整情報の生成および画質調整情報を用いた画質調整
JP2005085173A (ja) 2003-09-10 2005-03-31 Toshiba Corp データ管理システム
US7797381B2 (en) 2003-09-19 2010-09-14 International Business Machines Corporation Methods and apparatus for information hyperchain management for on-demand business collaboration
US7844109B2 (en) 2003-09-24 2010-11-30 Canon Kabushiki Kaisha Image processing method and apparatus
US20050080844A1 (en) 2003-10-10 2005-04-14 Sridhar Dathathraya System and method for managing scan destination profiles
JP4139760B2 (ja) 2003-10-10 2008-08-27 富士フイルム株式会社 画像処理方法および装置ならびに画像処理プログラム
EP1530357A1 (de) 2003-11-06 2005-05-11 Ricoh Company, Ltd. Verfahren, Programm und Vorrichtung zum genauen Erkennen spezifischer Information in Bilddaten eines Originalbildes und Medium zum Speichern des Programms
US20050193325A1 (en) 2003-11-12 2005-09-01 Epstein David L. Mobile content engine with enhanced features
US7553095B2 (en) 2003-11-27 2009-06-30 Konica Minolta Business Technologies, Inc. Print data transmitting apparatus, image forming system, printing condition setting method and printer driver program
JP4347677B2 (ja) 2003-12-08 2009-10-21 富士フイルム株式会社 帳票ocrプログラム、方法及び装置
US8693043B2 (en) 2003-12-19 2014-04-08 Kofax, Inc. Automatic document separation
JP2005208861A (ja) * 2004-01-21 2005-08-04 Oki Electric Ind Co Ltd 来店受付システムおよびその来店受付方法
US7184929B2 (en) 2004-01-28 2007-02-27 Microsoft Corporation Exponential priors for maximum entropy models
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7298897B1 (en) 2004-02-11 2007-11-20 United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Optimal binarization of gray-scaled digital images via fuzzy reasoning
US7379587B2 (en) 2004-02-12 2008-05-27 Xerox Corporation Systems and methods for identifying regions within an image having similar continuity values
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US7636479B2 (en) 2004-02-24 2009-12-22 Trw Automotive U.S. Llc Method and apparatus for controlling classification and classification switching in a vision system
JP2005267457A (ja) 2004-03-19 2005-09-29 Casio Comput Co Ltd 画像処理装置、撮影装置、画像処理方法及びプログラム
FR2868185B1 (fr) 2004-03-23 2006-06-30 Realeyes3D Sa Procede d'extraction de donnees brutes d'une image resultant d'une prise de vue
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
JP5238249B2 (ja) 2004-04-01 2013-07-17 グーグル インコーポレイテッド レンダリングされた文書からのハンドヘルド装置を用いたデータ取得
US7505056B2 (en) 2004-04-02 2009-03-17 K-Nfb Reading Technology, Inc. Mode processing in portable reading machine
TWI240067B (en) 2004-04-06 2005-09-21 Sunplus Technology Co Ltd Rapid color recognition method
US7366705B2 (en) 2004-04-15 2008-04-29 Microsoft Corporation Clustering based text classification
US20050246262A1 (en) 2004-04-29 2005-11-03 Aggarwal Charu C Enabling interoperability between participants in a network
JP3800227B2 (ja) 2004-05-17 2006-07-26 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置及びそれに用いる情報処理方法並びに情報処理プログラム
US7430059B2 (en) 2004-05-24 2008-09-30 Xerox Corporation Systems, methods and graphical user interfaces for interactively previewing a scanned document
MY140267A (en) 2004-05-26 2009-12-31 Guardian Technologies International Inc System and method for identifying objects of interest in image data
WO2005116866A1 (en) 2004-05-28 2005-12-08 Agency For Science, Technology And Research Method and system for word sequence processing
US7272261B2 (en) 2004-06-04 2007-09-18 Xerox Corporation Method and system for classifying scanned-media
US20050273453A1 (en) 2004-06-05 2005-12-08 National Background Data, Llc Systems, apparatus and methods for performing criminal background investigations
US7392426B2 (en) 2004-06-15 2008-06-24 Honeywell International Inc. Redundant processing architecture for single fault tolerance
US20060219773A1 (en) 2004-06-18 2006-10-05 Richardson Joseph L System and method for correcting data in financial documents
JP2006031379A (ja) 2004-07-15 2006-02-02 Sony Corp 情報提示装置及び情報提示方法
US7339585B2 (en) 2004-07-19 2008-03-04 Pie Medical Imaging B.V. Method and apparatus for visualization of biological structures with use of 3D position information from segmentation results
US20060023271A1 (en) 2004-07-30 2006-02-02 Boay Yoke P Scanner with color profile matching mechanism
WO2006015379A2 (en) 2004-08-02 2006-02-09 Cornell Research Foundation, Inc. Electron spin resonance microscope for imaging with micron resolution
JP2006054519A (ja) * 2004-08-09 2006-02-23 Ricoh Co Ltd 撮像装置
US7515772B2 (en) 2004-08-21 2009-04-07 Xerox Corp Document registration and skew detection system
US7299407B2 (en) 2004-08-24 2007-11-20 International Business Machines Corporation Marking and annotating electronic documents
EP1810182A4 (de) * 2004-08-31 2010-07-07 Kumar Gopalakrishnan Verfahren und system zur bereitstellung von für visuelles abbilden relevanten informationsdiensten
US7643665B2 (en) 2004-08-31 2010-01-05 Semiconductor Insights Inc. Method of design analysis of existing integrated circuits
US20070223815A1 (en) 2004-09-02 2007-09-27 Koninklijke Philips Electronics N.V. Feature Weighted Medical Object Contouring Using Distance Coordinates
US20070118794A1 (en) 2004-09-08 2007-05-24 Josef Hollander Shared annotation system and method
US7739127B1 (en) 2004-09-23 2010-06-15 Stephen Don Hall Automated system for filing prescription drug claims
US8005831B2 (en) * 2005-08-23 2011-08-23 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment with geographic location information
US9530050B1 (en) 2007-07-11 2016-12-27 Ricoh Co., Ltd. Document annotation sharing
US7991778B2 (en) * 2005-08-23 2011-08-02 Ricoh Co., Ltd. Triggering actions with captured input in a mixed media environment
US8332401B2 (en) 2004-10-01 2012-12-11 Ricoh Co., Ltd Method and system for position-based image matching in a mixed media environment
US7639387B2 (en) * 2005-08-23 2009-12-29 Ricoh Co., Ltd. Authoring tools using a mixed media environment
US20060089907A1 (en) 2004-10-22 2006-04-27 Klaus Kohlmaier Invoice verification process
US7464066B2 (en) 2004-10-26 2008-12-09 Applied Intelligence Solutions, Llc Multi-dimensional, expert behavior-emulation system
JP2006126941A (ja) * 2004-10-26 2006-05-18 Canon Inc 画像処理装置、画像処理方法、画像処理制御プログラム、及び記憶媒体
US7492943B2 (en) 2004-10-29 2009-02-17 George Mason Intellectual Properties, Inc. Open set recognition using transduction
US20060095372A1 (en) 2004-11-01 2006-05-04 Sap Aktiengesellschaft System and method for management and verification of invoices
US20060095374A1 (en) 2004-11-01 2006-05-04 Jp Morgan Chase System and method for supply chain financing
US7475335B2 (en) * 2004-11-03 2009-01-06 International Business Machines Corporation Method for automatically and dynamically composing document management applications
KR100653886B1 (ko) 2004-11-05 2006-12-05 주식회사 칼라짚미디어 혼합코드 및 혼합코드 인코딩 방법과 장치
US7782384B2 (en) 2004-11-05 2010-08-24 Kelly Douglas J Digital camera having system for digital image composition and related method
US20060112340A1 (en) 2004-11-22 2006-05-25 Julia Mohr Portal page conversion and annotation
JP4345651B2 (ja) 2004-11-29 2009-10-14 セイコーエプソン株式会社 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
US7428331B2 (en) 2004-11-30 2008-09-23 Seiko Epson Corporation Page background estimation using color, texture and edge features
GB0426523D0 (en) 2004-12-02 2005-01-05 British Telecomm Video processing
JP2006190259A (ja) 2004-12-06 2006-07-20 Canon Inc 手ぶれ判定装置及び画像処理装置及びその制御方法及びプログラム
US7742641B2 (en) 2004-12-06 2010-06-22 Honda Motor Co., Ltd. Confidence weighted classifier combination for multi-modal identification
US7168614B2 (en) 2004-12-10 2007-01-30 Mitek Systems, Inc. System and method for check fraud detection using signature validation
US7249717B2 (en) 2004-12-10 2007-07-31 Mitek Systems, Inc. System and method for check fraud detection using signature validation
US7201323B2 (en) 2004-12-10 2007-04-10 Mitek Systems, Inc. System and method for check fraud detection using signature validation
JP4460528B2 (ja) 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
US8676165B2 (en) 2004-12-28 2014-03-18 St-Ericsson Sa Method and apparatus for peer-to-peer instant messaging
KR100670003B1 (ko) 2004-12-28 2007-01-19 삼성전자주식회사 적응형 문턱치를 이용한 영상의 평탄 영역 검출장치 및 그방법
KR100729280B1 (ko) 2005-01-08 2007-06-15 아이리텍 잉크 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법
WO2006077481A1 (en) 2005-01-19 2006-07-27 Truecontext Corporation Policy-driven mobile forms applications
WO2006136958A2 (en) 2005-01-25 2006-12-28 Dspv, Ltd. System and method of improving the legibility and applicability of document pictures using form based image enhancement
JP2006209588A (ja) 2005-01-31 2006-08-10 Casio Electronics Co Ltd 証憑書類発行装置、及び証憑書類情報のデータベース化装置
US20060195491A1 (en) 2005-02-11 2006-08-31 Lexmark International, Inc. System and method of importing documents into a document management system
GB0503970D0 (en) 2005-02-25 2005-04-06 Firstondemand Ltd Method and apparatus for authentication of invoices
US7487438B1 (en) 2005-03-08 2009-02-03 Pegasus Imaging Corporation Method and apparatus for recognizing a digitized form, extracting information from a filled-in form, and generating a corrected filled-in form
US7822880B2 (en) 2005-03-10 2010-10-26 Konica Minolta Systems Laboratory, Inc. User interfaces for peripheral configuration
US20070002348A1 (en) 2005-03-15 2007-01-04 Kabushiki Kaisha Toshiba Method and apparatus for producing images by using finely optimized image processing parameters
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US9137417B2 (en) 2005-03-24 2015-09-15 Kofax, Inc. Systems and methods for processing video data
US7545529B2 (en) 2005-03-24 2009-06-09 Kofax, Inc. Systems and methods of accessing random access cache for rescanning
US8749839B2 (en) 2005-03-24 2014-06-10 Kofax, Inc. Systems and methods of processing scanned data
US7570816B2 (en) 2005-03-31 2009-08-04 Microsoft Corporation Systems and methods for detecting text
US7412425B2 (en) 2005-04-14 2008-08-12 Honda Motor Co., Ltd. Partially supervised machine learning of data classification based on local-neighborhood Laplacian Eigenmaps
CA2604490C (en) 2005-04-18 2012-04-24 Research In Motion Limited System and method for enabling assisted visual development of workflow for application tasks
JP2006301835A (ja) 2005-04-19 2006-11-02 Fuji Xerox Co Ltd 取引書類管理方法及びシステム
US7941744B2 (en) 2005-04-25 2011-05-10 Adp, Inc. System and method for electronic document generation and delivery
AU2005201758B2 (en) 2005-04-27 2008-12-18 Canon Kabushiki Kaisha Method of learning associations between documents and data sets
US7760956B2 (en) 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
US20060256392A1 (en) 2005-05-13 2006-11-16 Microsoft Corporation Scanning systems and methods
US7636883B2 (en) 2005-05-18 2009-12-22 International Business Machines Corporation User form based automated and guided data collection
JP4561474B2 (ja) 2005-05-24 2010-10-13 株式会社日立製作所 電子化文書保管システム
US20060282762A1 (en) 2005-06-10 2006-12-14 Oracle International Corporation Collaborative document review system
US20060282463A1 (en) 2005-06-10 2006-12-14 Lexmark International, Inc. Virtual coversheet association application
US7957018B2 (en) 2005-06-10 2011-06-07 Lexmark International, Inc. Coversheet manager application
US20060288015A1 (en) 2005-06-15 2006-12-21 Schirripa Steven R Electronic content classification
JP4756930B2 (ja) 2005-06-23 2011-08-24 キヤノン株式会社 ドキュメント管理システム、ドキュメント管理方法、画像形成装置および情報処理装置
US20070002375A1 (en) 2005-06-30 2007-01-04 Lexmark International, Inc. Segmenting and aligning a plurality of cards in a multi-card image
US7937264B2 (en) 2005-06-30 2011-05-03 Microsoft Corporation Leveraging unlabeled data with a probabilistic graphical model
US7515767B2 (en) 2005-07-01 2009-04-07 Flir Systems, Inc. Image correction across multiple spectral regimes
US20070035780A1 (en) 2005-08-02 2007-02-15 Kabushiki Kaisha Toshiba System and method for defining characteristic data of a scanned document
JP4525519B2 (ja) 2005-08-18 2010-08-18 日本電信電話株式会社 四辺形評価方法及び装置及びプログラム
US8120665B2 (en) 2005-08-25 2012-02-21 Ricoh Company, Ltd. Image processing method and apparatus, digital camera, and recording medium recording image processing program
US8643892B2 (en) 2005-08-29 2014-02-04 Xerox Corporation User configured page chromaticity determination and splitting method
US7801382B2 (en) 2005-09-22 2010-09-21 Compressus, Inc. Method and apparatus for adjustable image compression
US7450740B2 (en) 2005-09-28 2008-11-11 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7831107B2 (en) 2005-10-17 2010-11-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
US8176004B2 (en) 2005-10-24 2012-05-08 Capsilon Corporation Systems and methods for intelligent paperless document management
CN1955977A (zh) * 2005-10-26 2007-05-02 汉王科技股份有限公司 带有拍摄功能的指纹身份鉴别方法及装置
US7495784B2 (en) 2005-11-14 2009-02-24 Kabushiki Kiasha Toshiba Printer with print order calculation based on print creation time and process ratio
CN100392403C (zh) * 2005-12-09 2008-06-04 天津理工大学 一种对血液显微图像中白细胞个数自动计数方法
KR100664421B1 (ko) 2006-01-10 2007-01-03 주식회사 인지소프트 구비된 카메라를 이용한 명함 인식을 위한 휴대용 단말기및 명함 인식 방법
WO2007082534A1 (en) 2006-01-17 2007-07-26 Flemming Ast Mobile unit with camera and optical character recognition, optionally for conversion of imaged text into comprehensible speech
US7720206B2 (en) 2006-01-18 2010-05-18 Teoco Corporation System and method for intelligent data extraction for telecommunications invoices
US7639897B2 (en) * 2006-01-24 2009-12-29 Hewlett-Packard Development Company, L.P. Method and apparatus for composing a panoramic photograph
US8385647B2 (en) 2006-01-25 2013-02-26 Kofax, Inc. Method of image analysis using sparse Hough transform
US7738730B2 (en) 2006-01-25 2010-06-15 Atalasoft, Inc. Method of image analysis using sparse hough transform
JP4341629B2 (ja) 2006-01-27 2009-10-07 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
JP5155145B2 (ja) 2006-02-23 2013-02-27 パナソニック株式会社 画像補正装置、方法、プログラム、集積回路、システム
US20070204162A1 (en) 2006-02-24 2007-08-30 Rodriguez Tony F Safeguarding private information through digital watermarking
US7330604B2 (en) 2006-03-02 2008-02-12 Compulink Management Center, Inc. Model-based dewarping method and apparatus
US7657091B2 (en) 2006-03-06 2010-02-02 Mitek Systems, Inc. Method for automatic removal of text from a signature area
US7562060B2 (en) 2006-03-31 2009-07-14 Yahoo! Inc. Large scale semi-supervised linear support vector machines
US8775277B2 (en) 2006-04-21 2014-07-08 International Business Machines Corporation Method, system, and program product for electronically validating invoices
US8136114B1 (en) 2006-04-21 2012-03-13 Sprint Communications Company L.P. Business process management system having dynamic task assignment
US8213687B2 (en) 2006-04-28 2012-07-03 Hewlett-Packard Development Company, L.P. Image processing methods, image processing systems, and articles of manufacture
TWI311679B (en) 2006-04-28 2009-07-01 Primax Electronics Ltd A method of evaluating minimum sampling steps of auto focus
US20070260588A1 (en) 2006-05-08 2007-11-08 International Business Machines Corporation Selective, contextual review for documents
JP2007306259A (ja) 2006-05-10 2007-11-22 Sony Corp 設定画面表示制御装置、サーバー装置、画像処理システム、印刷装置、撮像装置、表示装置、設定画面表示制御方法、プログラム及びデータ構造
US7478332B2 (en) 2006-05-24 2009-01-13 170 Systems Inc. System for and method of providing a user interface for a computer-based software application
US7787695B2 (en) 2006-06-06 2010-08-31 Mitek Systems, Inc. Method for applying a signature simplicity analysis for improving the accuracy of signature validation
US20080005081A1 (en) 2006-06-28 2008-01-03 Sun Microsystems, Inc. Method and apparatus for searching and resource discovery in a distributed enterprise system
US7626612B2 (en) 2006-06-30 2009-12-01 Motorola, Inc. Methods and devices for video correction of still camera motion
EP1924926A4 (de) 2006-07-12 2016-08-17 Kofax Inc Verfahren und systeme zur transduktiven datenklassifizierung und datenklassifizierungsverfahren unter verwendung maschineller lerntechniken
US20080086432A1 (en) 2006-07-12 2008-04-10 Schmidtler Mauritius A R Data classification methods using machine learning techniques
US7937345B2 (en) 2006-07-12 2011-05-03 Kofax, Inc. Data classification methods using machine learning techniques
US7958067B2 (en) 2006-07-12 2011-06-07 Kofax, Inc. Data classification methods using machine learning techniques
US7761391B2 (en) 2006-07-12 2010-07-20 Kofax, Inc. Methods and systems for improved transductive maximum entropy discrimination classification
US8096584B2 (en) * 2006-07-24 2012-01-17 3M Innovative Properties Company Document authentication using template matching with fast masked normalized cross-correlation
US8073263B2 (en) 2006-07-31 2011-12-06 Ricoh Co., Ltd. Multi-classifier selection and monitoring for MMR-based image recognition
JP4172512B2 (ja) 2006-08-30 2008-10-29 船井電機株式会社 パノラマ撮像装置
US20080235766A1 (en) 2006-09-01 2008-09-25 Wallos Robert Apparatus and method for document certification
JP2008134683A (ja) 2006-11-27 2008-06-12 Fuji Xerox Co Ltd 画像処理装置および画像処理プログラム
US8081227B1 (en) 2006-11-30 2011-12-20 Adobe Systems Incorporated Image quality visual indicator
US20080133388A1 (en) 2006-12-01 2008-06-05 Sergey Alekseev Invoice exception management
US7416131B2 (en) 2006-12-13 2008-08-26 Bottom Line Technologies (De), Inc. Electronic transaction processing server with automated transaction evaluation
US9282446B2 (en) 2009-08-06 2016-03-08 Golba Llc Location-aware content and location-based advertising with a mobile device
US20080147561A1 (en) 2006-12-18 2008-06-19 Pitney Bowes Incorporated Image based invoice payment with digital signature verification
US20100062491A1 (en) 2007-01-05 2010-03-11 Novozymes A/S Overexpression of the Chaperone BIP in a Heterokaryon
US20080177643A1 (en) 2007-01-22 2008-07-24 Matthews Clifton W System and method for invoice management
US7899247B2 (en) 2007-01-24 2011-03-01 Samsung Electronics Co., Ltd. Apparatus and method of segmenting an image according to a cost function and/or feature vector and/or receiving a signal representing the segmented image in an image coding and/or decoding system
WO2008094470A1 (en) 2007-01-26 2008-08-07 Magtek, Inc. Card reader for use with web based transactions
US20080183576A1 (en) 2007-01-30 2008-07-31 Sang Hun Kim Mobile service system and method using two-dimensional coupon code
EP1956517A1 (de) 2007-02-07 2008-08-13 WinBooks s.a. Computerunterstütztes Verfahren zu Verarbeitung von Buchhaltungsvorgängen und Softwareprodukt zur Umsetzung dieses Verfahrens
US8320683B2 (en) 2007-02-13 2012-11-27 Sharp Kabushiki Kaisha Image processing method, image processing apparatus, image reading apparatus, and image forming apparatus
US20080201617A1 (en) 2007-02-16 2008-08-21 Brother Kogyo Kabushiki Kaisha Network device and network system
JP4123299B1 (ja) 2007-02-21 2008-07-23 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
GB2486832A (en) 2007-03-09 2012-06-27 Cummins Allison Corp Document processing system using blind balancing
JP4877013B2 (ja) 2007-03-30 2012-02-15 ブラザー工業株式会社 スキャナ
US8244031B2 (en) 2007-04-13 2012-08-14 Kofax, Inc. System and method for identifying and classifying color regions from a digital image
CN101681432B (zh) 2007-05-01 2013-11-06 计算机连接管理中心公司 图片文档分割方法和系统
US8279465B2 (en) 2007-05-01 2012-10-02 Kofax, Inc. Systems and methods for routing facsimiles based on content
KR101157654B1 (ko) 2007-05-21 2012-06-18 삼성전자주식회사 화상형성장치에서 전자메일을 전송하는 방법 및 전자메일의전송이 가능한 화상형성장치
US7894689B2 (en) 2007-05-31 2011-02-22 Seiko Epson Corporation Image stitching
JP2009014836A (ja) 2007-07-02 2009-01-22 Canon Inc アクティブマトリクス型表示装置及びその駆動方法
JP4363468B2 (ja) 2007-07-12 2009-11-11 ソニー株式会社 撮像装置及び撮像方法並びに映像信号処理プログラム
EP2183703A1 (de) 2007-08-01 2010-05-12 Yeda Research And Development Company Limited Multiskalare kantenerkennung und faserverstärkung durch unterschiedlich ausgerichtete mittel
US8503797B2 (en) 2007-09-05 2013-08-06 The Neat Company, Inc. Automatic document classification using lexical and physical features
US7825963B2 (en) * 2007-09-19 2010-11-02 Nokia Corporation Method and system for capturing an image from video
US20090089078A1 (en) 2007-09-28 2009-04-02 Great-Circle Technologies, Inc. Bundling of automated work flow
US8094976B2 (en) 2007-10-03 2012-01-10 Esker, Inc. One-screen reconciliation of business document image data, optical character recognition extracted data, and enterprise resource planning data
CN101196989B (zh) * 2007-10-11 2011-04-27 北京海鑫科金高科技股份有限公司 网络嵌入式多路车牌检测系统及车牌检测方法
US8244062B2 (en) 2007-10-22 2012-08-14 Hewlett-Packard Development Company, L.P. Correction of distortion in captured images
US7655685B2 (en) 2007-11-02 2010-02-02 Jenrin Discovery, Inc. Cannabinoid receptor antagonists/inverse agonists useful for treating metabolic disorders, including obesity and diabetes
US7809721B2 (en) 2007-11-16 2010-10-05 Iac Search & Media, Inc. Ranking of objects using semantic and nonsemantic features in a system and method for conducting a search
US8732155B2 (en) 2007-11-16 2014-05-20 Iac Search & Media, Inc. Categorization in a system and method for conducting a search
US8194965B2 (en) 2007-11-19 2012-06-05 Parascript, Llc Method and system of providing a probability distribution to aid the detection of tumors in mammogram images
US8311296B2 (en) 2007-11-21 2012-11-13 Parascript, Llc Voting in mammography processing
US8035641B1 (en) 2007-11-28 2011-10-11 Adobe Systems Incorporated Fast depth of field simulation
US8103048B2 (en) 2007-12-04 2012-01-24 Mcafee, Inc. Detection of spam images
US8532374B2 (en) 2007-12-05 2013-09-10 Canon Kabushiki Kaisha Colour document layout analysis with multi-level decomposition
US8194933B2 (en) 2007-12-12 2012-06-05 3M Innovative Properties Company Identification and verification of an unknown document according to an eigen image process
US8566752B2 (en) 2007-12-21 2013-10-22 Ricoh Co., Ltd. Persistent selection marks
US8150547B2 (en) 2007-12-21 2012-04-03 Bell and Howell, LLC. Method and system to provide address services with a document processing system
US20130297353A1 (en) 2008-01-18 2013-11-07 Mitek Systems Systems and methods for filing insurance claims using mobile imaging
US8379914B2 (en) 2008-01-18 2013-02-19 Mitek Systems, Inc. Systems and methods for mobile image capture and remittance processing
US8582862B2 (en) * 2010-05-12 2013-11-12 Mitek Systems Mobile image quality assurance in mobile document image processing applications
US7978900B2 (en) 2008-01-18 2011-07-12 Mitek Systems, Inc. Systems for mobile image capture and processing of checks
US9298979B2 (en) 2008-01-18 2016-03-29 Mitek Systems, Inc. Systems and methods for mobile image capture and content processing of driver's licenses
US10102583B2 (en) 2008-01-18 2018-10-16 Mitek Systems, Inc. System and methods for obtaining insurance offers using mobile image capture
US9292737B2 (en) 2008-01-18 2016-03-22 Mitek Systems, Inc. Systems and methods for classifying payment documents during mobile image processing
US8483473B2 (en) 2008-01-18 2013-07-09 Mitek Systems, Inc. Systems and methods for obtaining financial offers using mobile image capture
US8577118B2 (en) 2008-01-18 2013-11-05 Mitek Systems Systems for mobile image capture and remittance processing
US10528925B2 (en) 2008-01-18 2020-01-07 Mitek Systems, Inc. Systems and methods for mobile automated clearing house enrollment
US20090204530A1 (en) 2008-01-31 2009-08-13 Payscan America, Inc. Bar coded monetary transaction system and method
RU2460187C2 (ru) 2008-02-01 2012-08-27 Рокстек Аб Переходная рама с встроенным прижимным устройством
US7992087B1 (en) 2008-02-27 2011-08-02 Adobe Systems Incorporated Document mapped-object placement upon background change
US9082080B2 (en) 2008-03-05 2015-07-14 Kofax, Inc. Systems and methods for organizing data sets
US20090324025A1 (en) 2008-04-15 2009-12-31 Sony Ericsson Mobile Communicatoins AB Physical Access Control Using Dynamic Inputs from a Portable Communications Device
US8135656B2 (en) 2008-04-22 2012-03-13 Xerox Corporation Online management service for identification documents which prompts a user for a category of an official document
US20090285445A1 (en) 2008-05-15 2009-11-19 Sony Ericsson Mobile Communications Ab System and Method of Translating Road Signs
US7949167B2 (en) 2008-06-12 2011-05-24 Siemens Medical Solutions Usa, Inc. Automatic learning of image features to predict disease
KR20100000671A (ko) 2008-06-25 2010-01-06 삼성전자주식회사 영상 처리 방법
US8154611B2 (en) 2008-07-17 2012-04-10 The Boeing Company Methods and systems for improving resolution of a digitally stabilized image
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
JP4623388B2 (ja) 2008-09-08 2011-02-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9177218B2 (en) 2008-09-08 2015-11-03 Kofax, Inc. System and method, and computer program product for detecting an edge in scan data
WO2010030056A1 (en) 2008-09-10 2010-03-18 Bionet Co., Ltd Automatic contour detection method for ultrasonic diagnosis appartus
JP2010098728A (ja) 2008-09-19 2010-04-30 Sanyo Electric Co Ltd 投写型映像表示装置及び表示システム
US9037513B2 (en) 2008-09-30 2015-05-19 Apple Inc. System and method for providing electronic event tickets
EP2352321B1 (de) 2008-10-31 2019-09-11 ZTE Corporation Verfahren und vorrichtung zur authentifikationsverarbeitung für ein mobiles endgerät
US8189965B2 (en) 2008-11-17 2012-05-29 Image Trends, Inc. Image processing handheld scanner system, method, and computer readable medium
US8306327B2 (en) 2008-12-30 2012-11-06 International Business Machines Corporation Adaptive partial character recognition
US8774516B2 (en) 2009-02-10 2014-07-08 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8879846B2 (en) * 2009-02-10 2014-11-04 Kofax, Inc. Systems, methods and computer program products for processing financial documents
US8406480B2 (en) 2009-02-17 2013-03-26 International Business Machines Corporation Visual credential verification
WO2010096191A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Automatically capturing information, such as capturing information using a document-aware device
US8265422B1 (en) * 2009-02-20 2012-09-11 Adobe Systems Incorporated Method and apparatus for removing general lens distortion from images
JP4725657B2 (ja) 2009-02-26 2011-07-13 ブラザー工業株式会社 画像合成出力プログラム、画像合成出力装置及び画像合成出力システム
US8498486B2 (en) 2009-03-12 2013-07-30 Qualcomm Incorporated Response to detection of blur in an image
US20100280859A1 (en) 2009-04-30 2010-11-04 Bank Of America Corporation Future checks integration
RS51531B (en) 2009-05-29 2011-06-30 Vlatacom D.O.O. MANUAL PORTABLE DEVICE FOR VERIFICATION OF PASSENGERS AND PERSONAL DOCUMENTS, READING BIOMETRIC DATA
US20100331043A1 (en) 2009-06-23 2010-12-30 K-Nfb Reading Technology, Inc. Document and image processing
US8478052B1 (en) 2009-07-17 2013-07-02 Google Inc. Image classification
JP5397059B2 (ja) 2009-07-17 2014-01-22 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP4772894B2 (ja) 2009-08-03 2011-09-14 シャープ株式会社 画像出力装置、携帯端末装置、撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
JP4856263B2 (ja) 2009-08-07 2012-01-18 シャープ株式会社 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
US8249299B1 (en) * 2009-08-17 2012-08-21 Adobe Systems Incorporated Systems and methods of tracking objects in video
US8655733B2 (en) 2009-08-27 2014-02-18 Microsoft Corporation Payment workflow extensibility for point-of-sale applications
CN101639760A (zh) 2009-08-27 2010-02-03 上海合合信息科技发展有限公司 联系信息输入方法及系统
US9779386B2 (en) 2009-08-31 2017-10-03 Thomson Reuters Global Resources Method and system for implementing workflows and managing staff and engagements
US8819172B2 (en) * 2010-11-04 2014-08-26 Digimarc Corporation Smartphone-based methods and systems
KR101611440B1 (ko) 2009-11-16 2016-04-11 삼성전자주식회사 이미지 처리 방법 및 장치
US8406554B1 (en) 2009-12-02 2013-03-26 Jadavpur University Image binarization based on grey membership parameters of pixels
US20120019614A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Variable Stereo Base for (3D) Panorama Creation on Handheld Device
US8532419B2 (en) 2010-01-13 2013-09-10 iParse, LLC Automatic image capture
US20110249905A1 (en) 2010-01-15 2011-10-13 Copanion, Inc. Systems and methods for automatically extracting data from electronic documents including tables
US8600173B2 (en) 2010-01-27 2013-12-03 Dst Technologies, Inc. Contextualization of machine indeterminable information based on machine determinable information
JP5426422B2 (ja) 2010-02-10 2014-02-26 株式会社Pfu 画像処理装置、画像処理方法及び画像処理プログラム
KR101630688B1 (ko) 2010-02-17 2016-06-16 삼성전자주식회사 움직임 예측 장치 및 방법과 영상 처리 장치
US8433775B2 (en) 2010-03-31 2013-04-30 Bank Of America Corporation Integration of different mobile device types with a business infrastructure
US8515208B2 (en) 2010-04-05 2013-08-20 Kofax, Inc. Method for document to template alignment
US8787618B2 (en) * 2010-04-13 2014-07-22 Sony Corporation Content information processing device, content information processing method, content information processing program, and personal digital assistant
US8595234B2 (en) 2010-05-17 2013-11-26 Wal-Mart Stores, Inc. Processing data feeds
US8600167B2 (en) 2010-05-21 2013-12-03 Hand Held Products, Inc. System for capturing a document in an image signal
US9047531B2 (en) 2010-05-21 2015-06-02 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
EP2395461A1 (de) 2010-06-08 2011-12-14 Deutsche Post AG System zur Optimierung von Abhol- und/oder Lieferfahrten
JP5500480B2 (ja) * 2010-06-24 2014-05-21 株式会社日立情報通信エンジニアリング 帳票認識装置及び帳票認識方法
US8745488B1 (en) 2010-06-30 2014-06-03 Patrick Wong System and a method for web-based editing of documents online with an editing interface and concurrent display to webpages and print documents
US20120008856A1 (en) 2010-07-08 2012-01-12 Gregory Robert Hewes Automatic Convergence Based on Face Detection for Stereoscopic Imaging
US8548201B2 (en) 2010-09-02 2013-10-01 Electronics And Telecommunications Research Institute Apparatus and method for recognizing identifier of vehicle
JP5738559B2 (ja) * 2010-09-07 2015-06-24 株式会社プリマジェスト 保険業務処理システム及び保険業務処理方法
US20120077476A1 (en) 2010-09-23 2012-03-29 Theodore G. Paraskevakos System and method for utilizing mobile telephones to combat crime
US20120092329A1 (en) 2010-10-13 2012-04-19 Qualcomm Incorporated Text-based 3d augmented reality
US9282238B2 (en) * 2010-10-29 2016-03-08 Hewlett-Packard Development Company, L.P. Camera system for determining pose quality and providing feedback to a user
US20120116957A1 (en) 2010-11-04 2012-05-10 Bank Of America Corporation System and method for populating a list of transaction participants
US8995012B2 (en) 2010-11-05 2015-03-31 Rdm Corporation System for mobile image capture and processing of financial documents
US8744196B2 (en) 2010-11-26 2014-06-03 Hewlett-Packard Development Company, L.P. Automatic recognition of images
US8754988B2 (en) 2010-12-22 2014-06-17 Tektronix, Inc. Blur detection with local sharpness map
JP5736796B2 (ja) * 2011-01-24 2015-06-17 株式会社ニコン 電子カメラ、プログラム及び記録媒体
US20120194692A1 (en) 2011-01-31 2012-08-02 Hand Held Products, Inc. Terminal operative for display of electronic record
US8675953B1 (en) 2011-02-02 2014-03-18 Intuit Inc. Calculating an object size using images
US8811711B2 (en) 2011-03-08 2014-08-19 Bank Of America Corporation Recognizing financial document images
JP2012191486A (ja) 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム
US9785835B2 (en) * 2011-03-22 2017-10-10 Rochester Institute Of Technology Methods for assisting with object recognition in image sequences and devices thereof
JP5231667B2 (ja) * 2011-04-01 2013-07-10 シャープ株式会社 撮像装置、撮像装置における表示方法、撮像装置における画像処理方法、プログラムおよび記録媒体
US8533595B2 (en) 2011-04-19 2013-09-10 Autodesk, Inc Hierarchical display and navigation of document revision histories
US9342886B2 (en) 2011-04-29 2016-05-17 Qualcomm Incorporated Devices, methods, and apparatuses for homography evaluation involving a mobile device
US8751317B2 (en) 2011-05-12 2014-06-10 Koin, Inc. Enabling a merchant's storefront POS (point of sale) system to accept a payment transaction verified by SMS messaging with buyer's mobile phone
US20120293607A1 (en) * 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
US20120300020A1 (en) 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US20120308139A1 (en) 2011-05-31 2012-12-06 Verizon Patent And Licensing Inc. Method and system for facilitating subscriber services using mobile imaging
US9400806B2 (en) 2011-06-08 2016-07-26 Hewlett-Packard Development Company, L.P. Image triggered transactions
US9418304B2 (en) 2011-06-29 2016-08-16 Qualcomm Incorporated System and method for recognizing text information in object
US20130027757A1 (en) 2011-07-29 2013-01-31 Qualcomm Incorporated Mobile fax machine with image stitching and degradation removal processing
US8559766B2 (en) 2011-08-16 2013-10-15 iParse, LLC Automatic image capture
US8813111B2 (en) 2011-08-22 2014-08-19 Xerox Corporation Photograph-based game
US8660943B1 (en) 2011-08-31 2014-02-25 Btpatent Llc Methods and systems for financial transactions
US8525883B2 (en) 2011-09-02 2013-09-03 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for automatic video quality assessment
CN102982396B (zh) 2011-09-06 2017-12-26 Sap欧洲公司 通用过程建模框架
US9710821B2 (en) 2011-09-15 2017-07-18 Stephan HEATH Systems and methods for mobile and online payment systems for purchases related to mobile and online promotions or offers provided using impressions tracking and analysis, location information, 2D and 3D mapping, mobile mapping, social media, and user behavior and
US8768834B2 (en) 2011-09-20 2014-07-01 E2Interactive, Inc. Digital exchange and mobile wallet for digital currency
US9123005B2 (en) 2011-10-11 2015-09-01 Mobiwork, Llc Method and system to define implement and enforce workflow of a mobile workforce
US10810218B2 (en) 2011-10-14 2020-10-20 Transunion, Llc System and method for matching of database records based on similarities to search queries
US8442265B1 (en) * 2011-10-19 2013-05-14 Facebook Inc. Image selection from captured video sequence based on social components
EP2587745A1 (de) 2011-10-26 2013-05-01 Swisscom AG Verfahren und System zum Erhalt von Kontaktinformationen für eine Person oder eine Entität
US9087262B2 (en) 2011-11-10 2015-07-21 Fuji Xerox Co., Ltd. Sharpness estimation in document and scene images
US8701166B2 (en) 2011-12-09 2014-04-15 Blackberry Limited Secure authentication
US9483794B2 (en) 2012-01-12 2016-11-01 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US20170111532A1 (en) 2012-01-12 2017-04-20 Kofax, Inc. Real-time processing of video streams captured using mobile devices
US9275281B2 (en) 2012-01-12 2016-03-01 Kofax, Inc. Mobile image capture, processing, and electronic form generation
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US9058580B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
TWI588778B (zh) 2012-01-17 2017-06-21 國立臺灣科技大學 動作辨識方法
US20130198358A1 (en) 2012-01-30 2013-08-01 DoDat Process Technology, LLC Distributive on-demand administrative tasking apparatuses, methods and systems
JP5914045B2 (ja) 2012-02-28 2016-05-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US8990112B2 (en) 2012-03-01 2015-03-24 Ricoh Company, Ltd. Expense report system with receipt image processing
JP5734902B2 (ja) 2012-03-19 2015-06-17 株式会社東芝 建設工程管理システムおよびその管理方法
US20130268430A1 (en) 2012-04-05 2013-10-10 Ziftit, Inc. Method and apparatus for dynamic gift card processing
US20130268378A1 (en) 2012-04-06 2013-10-10 Microsoft Corporation Transaction validation between a mobile communication device and a terminal using location data
US20130271579A1 (en) 2012-04-14 2013-10-17 Younian Wang Mobile Stereo Device: Stereo Imaging, Measurement and 3D Scene Reconstruction with Mobile Devices such as Tablet Computers and Smart Phones
US8639621B1 (en) 2012-04-25 2014-01-28 Wells Fargo Bank, N.A. System and method for a mobile wallet
US9916514B2 (en) 2012-06-11 2018-03-13 Amazon Technologies, Inc. Text recognition driven functionality
US8441548B1 (en) 2012-06-15 2013-05-14 Google Inc. Facial image quality assessment
US9064316B2 (en) 2012-06-28 2015-06-23 Lexmark International, Inc. Methods of content-based image identification
US8781229B2 (en) 2012-06-29 2014-07-15 Palo Alto Research Center Incorporated System and method for localizing data fields on structured and semi-structured forms
US9092773B2 (en) 2012-06-30 2015-07-28 At&T Intellectual Property I, L.P. Generating and categorizing transaction records
US20140012754A1 (en) 2012-07-06 2014-01-09 Bank Of America Corporation Financial document processing system
US8705836B2 (en) 2012-08-06 2014-04-22 A2iA S.A. Systems and methods for recognizing information in objects using a mobile device
US8817339B2 (en) * 2012-08-22 2014-08-26 Top Image Systems Ltd. Handheld device document imaging
US9928406B2 (en) 2012-10-01 2018-03-27 The Regents Of The University Of California Unified face representation for individual recognition in surveillance videos and vehicle logo super-resolution system
US20140181691A1 (en) 2012-12-20 2014-06-26 Rajesh Poornachandran Sharing of selected content for data collection
CN105283884A (zh) 2013-03-13 2016-01-27 柯法克斯公司 对移动设备捕获的数字图像中的对象进行分类
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US10140511B2 (en) 2013-03-13 2018-11-27 Kofax, Inc. Building classification and extraction models based on electronic forms
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9384566B2 (en) 2013-03-14 2016-07-05 Wisconsin Alumni Research Foundation System and method for simulataneous image artifact reduction and tomographic reconstruction
GB2500823B (en) 2013-03-28 2014-02-26 Paycasso Verify Ltd Method, system and computer program for comparing images
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
WO2014179752A1 (en) 2013-05-03 2014-11-06 Kofax, Inc. Systems and methods for detecting and classifying objects in video captured using mobile devices
RU2541353C2 (ru) 2013-06-19 2015-02-10 Общество с ограниченной ответственностью "Аби Девелопмент" Автоматическая съемка документа с заданными пропорциями
US20150006361A1 (en) 2013-06-28 2015-01-01 Google Inc. Extracting Card Data Using Three-Dimensional Models
US20150006362A1 (en) 2013-06-28 2015-01-01 Google Inc. Extracting card data using card art
US10140257B2 (en) 2013-08-02 2018-11-27 Symbol Technologies, Llc Method and apparatus for capturing and processing content from context sensitive documents on a mobile device
US10769362B2 (en) 2013-08-02 2020-09-08 Symbol Technologies, Llc Method and apparatus for capturing and extracting content from documents on a mobile device
US20150120564A1 (en) 2013-10-29 2015-04-30 Bank Of America Corporation Check memo line data lift
US9373057B1 (en) 2013-11-01 2016-06-21 Google Inc. Training a neural network to detect objects in images
JP2016538783A (ja) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法
US20150161765A1 (en) 2013-12-06 2015-06-11 Emc Corporation Scaling mobile check photos to physical dimensions
US9251431B2 (en) 2014-05-30 2016-02-02 Apple Inc. Object-of-interest detection and recognition with split, full-resolution image processing pipeline
US9904956B2 (en) 2014-07-15 2018-02-27 Google Llc Identifying payment card categories based on optical character recognition of images of the payment cards
US20160034775A1 (en) 2014-08-02 2016-02-04 General Vault, LLC Methods and apparatus for bounded image data analysis and notification mechanism
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345981B2 (en) 2009-02-10 2013-01-01 Kofax, Inc. Systems, methods, and computer program products for determining document validity

Also Published As

Publication number Publication date
US8885229B1 (en) 2014-11-11
US20140327940A1 (en) 2014-11-06
US20140368890A1 (en) 2014-12-18
WO2014179752A1 (en) 2014-11-06
US9253349B2 (en) 2016-02-02
US20170104885A1 (en) 2017-04-13
CN105518704A (zh) 2016-04-20
JP2016518790A (ja) 2016-06-23
US9819825B2 (en) 2017-11-14
US20160112645A1 (en) 2016-04-21
US9584729B2 (en) 2017-02-28
EP2992481A4 (de) 2017-02-22
EP2992481A1 (de) 2016-03-09

Similar Documents

Publication Publication Date Title
DE202014011407U1 (de) Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos
DE112019001310B4 (de) Systeme und Verfahren zum Reduzieren der Menge an Datenspeicher beim maschinellen Lernen
DE10308014B4 (de) System und Verfahren zum Lokalisieren eines nichttextlichen Bereichs eines elektronischen Dokumentes oder Bildes, der mit einer benutzerdefinierten Beschreibung des Bereichs übereinstimmt
DE102021001438A1 (de) Belichtungsdefektklassifizierung von Bildern unter Nutzung eines neuronalen Netzwerkes
DE10195927B4 (de) Verallgemeinerte Textlokalisation in Bildern
DE102018121808A1 (de) Verfeinern von synthetischen daten mit einem generative adversarial network unter verwendung von hilfseingaben
DE60314553T2 (de) Umwandlung von Bildern
DE60318111T2 (de) Dateispeicherbaustein, dateispeicherprogramm und dateispeicherverfahren
DE69832411T2 (de) Speicherverwaltungssystem für bilddokumenten-datenbank
DE10250597A1 (de) Systeme und Verfahren zum Erzeugen von digitalen Bildern, die Bildmetadaten aufweisen, die mit den Bilddaten kombiniert sind
DE112011102043T5 (de) Objekterfassungsmetadaten
DE10322725A1 (de) System und Verfahren zum Erzeugen von Bildkommentarinformationen
DE102013206153A1 (de) Verfahren und system zur robusten neigungseinstellung und zum zuschneiden von nummernschildbildern
DE102013210375A1 (de) Auffinden von text in natürlichen szenen
JP2009225443A (ja) フォトガイドの自動生成
DE102013206009A1 (de) Robustes Zuschneiden von Nummernschildbildern
DE112007002904T5 (de) Vorrichtung und Verfahren zum Erzeugen photorealistischer Bild-Thumbnails
DE102007029630A1 (de) Systeme und Verfahren zum Erfassen von Objektbildern
DE112020006492T5 (de) Verfahren zum Erzeugen eines Quick-Response-Codes und Druckvorrichtung
DE112006001017T5 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE102018003475A1 (de) Formbasierte Grafiksuche
DE202011110874U1 (de) System zur Bestimmung von Gebäudenummern
DE60123441T2 (de) Verfahren und mittel zur mobilen erfassung, verarbeitung, speicherung und übertragung von text und gemischten informationen, die zeichen und bilder enthalten
DE102020120953A1 (de) Digitalzwilling-überwachungssysteme und -verfahren
DE112016002252T5 (de) Automatische erkennung von panoramagesten

Legal Events

Date Code Title Description
R150 Utility model maintained after payment of first maintenance fee after three years
R207 Utility model specification
R151 Utility model maintained after payment of second maintenance fee after six years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载