[go: up one dir, main page]

DE69630928T2 - Vorrichtung und Verfahren zum Anzeigen einer Übersetzung - Google Patents

Vorrichtung und Verfahren zum Anzeigen einer Übersetzung Download PDF

Info

Publication number
DE69630928T2
DE69630928T2 DE69630928T DE69630928T DE69630928T2 DE 69630928 T2 DE69630928 T2 DE 69630928T2 DE 69630928 T DE69630928 T DE 69630928T DE 69630928 T DE69630928 T DE 69630928T DE 69630928 T2 DE69630928 T2 DE 69630928T2
Authority
DE
Germany
Prior art keywords
translation
original
sentence
translated
sentences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69630928T
Other languages
English (en)
Other versions
DE69630928D1 (de
Inventor
Akira Kumano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of DE69630928D1 publication Critical patent/DE69630928D1/de
Publication of DE69630928T2 publication Critical patent/DE69630928T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Übersetzungsanzeigevorrichtung und ein Verfahren zum Übersetzen natürlichsprachlichen Textes aus einer ersten Sprache in eine zweite Sprache unter Verwendung eines Rechners.
  • BESCHREIBUNG DES TECHNISCHEN STANDS
  • Auf dem Gebiet der Verarbeitungstechnik für natürliche Sprache unter Verwendung eines Rechners ist eine maschinelle Übersetzungsvorrichtung zum Übersetzen eines Dokuments aus einer ersten Sprache (zum Beispiel Englisch) in eine zweite Sprache (zum Beispiel Japanisch) verwendet worden.
  • Herkömmlicherweise wird die maschinelle Übersetzungsvorrichtung als ein Unterstützungssystem verwendet, um ein großes Dokumentenvolumen effektiv zu übersetzen. Zuerst wird eine große Zahl von Ursprungssätzen in der ersten Sprache (zum Beispiel in Englisch) in die maschinelle Übersetzungsvorrichtung eingegeben. Danach wird die große Zahl von Ursprungssätzen nacheinander in der Reihenfolge von Satzeinheiten in die zweite Sprache (zum Beispiel Japanisch) übersetzt. Jedoch geschieht es oft, daß ein Nutzer, nachdem die große Zahl von Ursprungssätzen in die maschinelle Übersetzungsvorrichtung eingegeben ist, die Übersetzung nur einiger Sätze will, die einigen Ursprungssätzen entsprechen. In diesem herkömmlichen Fall wird zuerst die große Zahl von Ursprungssätzen auf einem Ursprungssatzbereich der Anzeige angezeigt, wobei der Anzeigebereich aus einem Ursprungssatzbereich, einem Bereich der übersetzten Sätze und einem Befehlsmenübereich besteht. Danach zeichnet der Nutzer unter Verwendung einer Maus oder eines Zeigegeräts einen zum Übersetzen ausgewählten Ursprungssatz nach und bezeichnet durch Auswählen aus dem Menü einen Übersetzungsbefehl. Der ausgewählte Ursprungssatz (Englisch) wird durch das maschinelle Übersetzungsprogramm verarbeitet und in einen übersetzten Satz (Japanisch) übersetzt. Zuletzt wird der übersetzte Satz auf dem Bereich für übersetzte Sätze der Anzeige angezeigt. Bei dieser herkömmlichen Vorrichtung gibt es zwei Probleme.
  • Als ein erstes Problem muß der Nutzer im Fall des Auswählens des zu übersetzenden Ursprungssatzes den Ursprungssatz genau auf der Anzeige nachzeichnen und den Übersetzungsbefehl bezeichnen. Kurz gesagt, der Nutzer muß zwei Arten von Operationen eingeben. Diese Operationen erlegen dem Nutzer eine beträchtliche Last auf.
  • Als ein zweites Problem wird die Übersetzung im Bereich für übersetzte Sätze angezeigt, der sich auf der Anzeige an einer anderen Position befindet als der Ursprungssatzbereich. Dementsprechend muß der Nutzer seinen Blickpunkt vom Ursprungssatzbereich zum Bereich für übersetzte Sätze bewegen, und die Augen des Nutzers ermüden, während sie auf die Anzeige blicken.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist ein Ziel der vorliegenden Erfindung, eine Übersetzungsanzeigevorrichtung und ein Verfahren für den Nutzer bereitzustellen, die mit einer minimalen Zahl von Bezeichnungsoperationen zu bedienen sind.
  • Es ist ein weiteres Ziel der vorliegenden Erfindung, eine Übersetzungsanzeigevorrichtung und ein Verfahren für den Nutzer bereitzustellen, bei denen die Augenermüdung auf ein Minimum verringert wird.
  • Nach der vorliegenden Erfindung wird eine Übersetzungsanzeigevorrichtung bereitgestellt, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Bereichsextrahiermittel zum Extrahieren eines der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich und Übersetzungsmittel zum Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel den übersetzten Satz im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich anzeigt.
  • Weiterhin wird nach der vorliegenden Erfindung eine Übersetzungsanzeigevorrichtung bereitgestellt, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Extrahiermittel zum Extrahieren der auf dem Anzeigemittel angezeigten Vielzahl von Ursprungssätzen und Übersetzungsmittel zum Übersetzen der vom Extrahiermittel extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel aus allen durch das Übersetzungsmittel übersetzten Sätzen einen übersetzten Satz, der einem der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich entspricht, extrahiert und den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
  • Weiterhin wird nach der vorliegenden Erfindung ein Verfahren zum Anzeigen eines übersetzten Satzes bereitgestellt, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren eines der Ursprungssätze im bezeichneten Bereich, Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache und Anzeigen des übersetzten Satzes in dem beim Bezeichnungsschritt bezeichneten Bereich.
  • Weiterhin wird nach der vorliegenden Erfindung ein Verfahren zum Anzeigen eines übersetzten Satzes bereitgestellt, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren der angezeigten Vielzahl von Ursprungssätzen, Übersetzen der beim Extrahierschritt extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, Extrahieren eines der übersetzten Sätze, der dem Ursprungssatz im bezeichneten Bereich entspricht, aus allen beim Übersetzungsschritt übersetzten Sätzen und Anzeigen des extrahierten übersetzten Satzes im bezeichneten Bereich.
  • Weiterhin wird nach der vorliegenden Erfindung ein rechnerlesbarer Speicher bereitgestellt, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich des angezeigten Ursprungssatzes bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner einen der Ursprungssätze im bezeichneten Bereich extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten Ursprungssatz aus der ersten Sprache in eine zweite Sprache übersetzt, und Befehlsmittel, um zu bewirken, daß ein Rechner den übersetzten Satz im bezeichneten Bereich anzeigt.
  • Weiterhin wird nach der vorliegenden Erfindung ein rechnerlesbarer Speicher bereitgestellt, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich der angezeigten Ursprungssätze bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner die angezeigte Vielzahl von Ursprungssätzen extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner die extrahierte Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache übersetzt, Befehlsmittel, um zu bewirken, daß ein Rechner aus allen übersetzten Sätzen einen der übersetzten Sätze extrahiert, der dem Ursprungssatz im bezeichneten Bereich entspricht, und Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein schematisches Diagramm nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 2 zeigt ein Ablaufdiagramm der Verarbeitung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 3A zeigt ein Beispiel einer Anzeige eines Ursprungssatzbereichs.
  • 3B zeigt ein Beispiel einer Anzeige des Ursprungssatzbereichs einschließlich eines Bereichs für übersetzte Sätze.
  • 4A zeigt ein Beispiel einer Anzeige eines Bildes einschließlich eines Ursprungssatzes.
  • 4B zeigt ein Beispiel einer Anzeigesituation des Bildes einschließlich eines übersetzten Satzes.
  • 5 zeigt ein schematisches Diagramm nach einem zweiten Ausführungsbeispiel der vorliegenden Erfindung.
  • 6A zeigt ein Beispiel des Inhalts eines Ursprungssatzspeichers 210 in 5.
  • 6B zeigt ein Beispiel des Inhalts eines Speichers 220 für übersetzte Sätze in 5.
  • 6C zeigt ein Beispiel des Inhalts eines Entsprechungsverhältnisspeichers 230 in 5.
  • 7A zeigt ein Ablaufdiagramm der Verarbeitung nach dem zweiten Ausführungsbeispiel der vorliegenden Erfindung.
  • 7B zeigt ein Ablaufdiagramm der detaillierten Verarbeitung beim Extrahieren von Textdaten in 7A.
  • 7C zeigt ein Ablaufdiagramm der detaillieren Verarbeitung beim Extrahieren des übersetzten Satzes in 7A.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Im folgenden werden unter Bezugnahme auf die Zeichnungen Ausführungsbeispiele der vorliegenden Erfindung beschrieben.
  • 1 ist ein schematisches Diagramm einer maschinellen Übersetzungsvorrichtung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung. Bei diesem Ausführungsbeispiel wird ein Beispiel von Übersetzungsverarbeitung aus dem Englischen ins Japanische erläutert. Wie in 1 gezeigt, schließt die Übersetzungsvorrichtung einen Übersetzungsbereich-Bezeichnungsabschnitt 101, einen Bereichsextrahierabschnitt 102, einen Anzeigespeicher 102a, einen Zeichenerkennungsbereich 103, ein Zeichenerkennungswissen-Wörterbuch 104, einen Übersetzungsabschnitt 105, ein Übersetzungswissen-Wörterbuch 106 und einen Anzeigebereich 107 für übersetzte Sätze ein.
  • Der Übersetzungsbereich-Bezeichnungsabschnitt 101 gibt den zu übersetzenden Bereich der Ursprungssätze von allen Ursprungssätzen auf der Anzeige ein. Zum Beispiel bezeichnet der Nutzer den zu übersetzenden Bereich durch ein Eingabegerät (nicht gezeigt), d. h., eine Maus oder eine Tastatur. Der Übersetzungsbereich-Bezeichnungsabschnitt 101 gibt den Bereich entsprechend der Bezeichnung des Nutzers ein und führt den Bereich dem Bereichsextrahierabschnitt 102 zu. Der Bereich kann ein Teil des Anzeigeinhalts (Bild, Text) sein. Der Bereichsextrahierabschnitt 102 extrahiert den Inhalt des Bereichs aus dem Anzeigespeicher 102a entsprechend dem durch den Übersetzungsbereich-Bezeichnungsabschnitt 101 zugeführten Bereich. Im Fall, daß der Anzeigespeicher 102a Textdaten (Zeichencode) speichert, die angezeigt werden, wird der Zeichencode des Bereichs dem Übersetzungsabschnitt 105 zugeführt. Im Fall, daß der Anzeigespeicher 102a Bilddaten (Bitmuster) speichert, die angezeigt werden, wird der Zeichencode des Bereichs dem Zeichenerkennungsabschnitt 103 zugeführt. Der Zeichenerkennungsabschnitt 103 extrahiert den Zeichenteil aus den Bilddaten und erkennt unter Verwendung des Zeichenerkennungswissen-Wörterbuchs 104 den Zeichenteil. Danach wird das Erkennungsergebnis als Zeichencode dem Übersetzungsabschnitt 105 zugeführt. Das Zeichenerkennungswissen-Wörterbuch 104 speichert Wörterbuchdaten (Zeichenerkennungswissen), um den Zeichenteil zu erfassen und Zeichen zu erkennen. Zum Beispiel wird im Fall eines Musterabgleichs ein Standardmuster für jedes zu erkennende Zeichen registriert. Der Übersetzungsabschnitt 105 übersetzt die durch den Bereichsextrahierabschnitt 102 oder den Zeichenerkennungsabschnitt 103 zugeführten Textdaten (Zeichencodes) unter Verwendung des Übersetzungswissen-Wörterbuchs 106 ins Japanische und gibt den übersetzten Satz an den Anzeigebereich 107 für übersetzte Sätze aus. Falls der durch den Bereichsextrahierabschnitt 102 extrahierte Bereich einen Teil eines Worts oder einen Teil eines Satzes einschließt (was zum Beispiel geschehen kann, falls eine Grenze des Bereichs einen Satz/ein Wort auf der Anzeige in Teile teilt), ist der dem Übersetzungsabschnitt 105 zugeführte Zeichencode grammatisch unvollständig und wird nicht richtig übersetzt. In diesem Fall wird für den Zeichencode in dem der Grenze des Bereichs vorangehenden und folgenden Bereich eine Position des Startpunkts oder des Endpunkts des Satzes gesucht, und ein vollständiger Satz wird zum Übersetzen extrahiert.
  • Der Anzeigeabschnitt 107 für übersetzte Sätze zeigt den übersetzten Satz in dem durch den Übersetzungsbereich-Bezeichnungsabschnitt 101 bezeichneten Bereich an. Falls die Länge des übersetzten Satzes (Japanisch) größer ist als eine Länge des Ursprungssatzes (Englisch), werden Zeichengröße oder Zeichenabstand verändert, um den gesamten übersetzten Satz im Bereich anzuzeigen.
  • Als nächstes wird das Verarbeiten beim ersten Ausführungsbeispiel der vorliegenden Erfindung erläutert. 2 zeigt ein Ablaufdiagramm der Verarbeitung des ersten Ausführungsbeispiels. 3A zeigt ein Beispiel einer Anzeige des Ursprungssatzbereichs (Englisch). 3B zeigt ein Beispiel einer Anzeige des Ursprungssatzbereichs einschließlich des Bereichs für übersetzte Sätze (Japanisch). 4A zeigt ein Beispiel einer Anzeige der Bilddaten einschließlich eines Ursprungssatzes (Englisch). 4B zeigt ein Beispiel von Bilddaten einschließlich eines übersetzten Satzes (Japanisch).
  • Zuerst bezeichnet der Nutzer, wie in 3A gezeigt, durch ein Fenster 31 den zu übersetzenden Bereich des Ursprungssatzes. In diesem Fall werden die ersten drei Textzeilen durch das Fenster umschlossen. Dieses Fenster wird auf der Anzeige frei bewegt und in der Größe verändert. Daher kann der Nutzer seinen gewünschten zu übersetzenden Ursprungssatz durch Bewegung und Größenveränderung des Fensters auf der Anzeige bezeichnen. Der Übersetzungsbereich-Bezeichnungsabschnitt 101 gibt den Übersetzungsbereich entsprechend der Bezeichnung des Nutzers ein (bezeichnet denselben) und liefert den Übersetzungsbereich an den Bereichsextrahierabschnitt 102 (Schritt A01). Der Bereichsextrahierabschnitt 102 extrahiert den Inhalt aus dem Übersetzungsbereich im Anzeigespeicher 102a und prüft die Datenart des extrahierten Inhalts (Schritt A02, A03). Wie in 4A gezeigt, wird, falls der Nutzer Bilddaten einschließlich von zu übersetzenden Zeichendaten 41 bezeichnet, die Art der extrahierten Daten (Zeichendaten 41) als Bilddaten bestimmt. In diesem Fall führt der Bereichsextrahierabschnitt 102 die Bilddaten der Zeichen dem Zeichenerkennungsabschnitt 103 zu. Falls andererseits, wie in 3A gezeigt, die Art der extrahierten Daten als Zeichencode bestimmt wird, führt der Bereichsextrahierabschnitt 102 den Zeichencode des Bereichs dem Übersetzungsbereich 105 zu. Der Zeichenerkennungsbereich 103 erkennt die vom Bereichsextrahierabschnitt 102 zugeführten Bilddaten (Schritt A04). Kurz gesagt, der Zeichenerkennungsbereich 103 extrahiert durch Einheiten von einzelnen Zeichen ein Zeichenmuster aus den Bilddaten, identifiziert jedes Zeichen durch Bezugnahme auf das Zeichenerkennungswissen-Wörterbuch 104 und gibt den Zeichencode (Text) aus. Der Übersetzungsabschnitt 105 übersetzt die durch den Bereichsextrahierabschnitt 102 oder den Zeichenerkennungsbereich 103 zugeführten Zeichencodes (Textdaten) durch Bezugnahme auf das Übersetzungswissen-Wörterbuch 106 und erzeugt den übersetzten Satz (Schritt A05). Der Übersetzungsanzeigeabschnitt 107 zeigt den übersetzten Satz im bezeichneten Übersetzungsbereich an (Schritt A06). Genauer gesagt, werden die übersetzten Sätze an Stelle der Ursprungssätze im bezeichneten Bereich angezeigt. Zum Beispiel werden, wie in 3B gezeigt, die übersetzten Sätze (Japanisch) im Fenster 32 angezeigt, welches das gleiche ist wie das vom Nutzer bezeichnete Fenster 31. Wie in 4B gezeigt, wird der übersetzte Satz (Japanisch) auf der Anzeige in der gleichen Position 42 des Ursprungssatzes (Englisch) angezeigt.
  • Folglich wird der Ursprungssatz im Bereich durch Bezeichnen des Übersetzungsbereichs auf der Anzeige übersetzt. Unter allen Ursprungssätzen wird nur der Ursprungssatz des bezeichneten Bereichs übersetzt. Daher dauert es vom Bezeichnen des Übersetzungsbereichs bis zum Anzeigen des übersetzten Satzes keine lange Zeit. Darüber hinaus wird der übersetzte Satz an Stelle des Ursprungssatzes in dem Bereich angezeigt. Daher ist es für den Nutzer nicht notwendig, seinen Blickpunkt auf der Anzeige vom Ursprungssatz zum übersetzten Satz zu bewegen.
  • Beim ersten Ausführungsbeispiel kann die Verarbeitung von Schritt A01 bis Schritt A06 in Echtzeit ausgeführt werden. Zum Beispiel wird in dem Fall, daß der Übersetzungsbereich durch Bewegen des Fensters auf der Anzeige bezeichnet wird, der Ursprungssatz im dem sich bewegenden Fenster entsprechenden Bereich in Echtzeit übersetzt, und der übersetzte Satz wird in jedem bezeichneten Bereich in der Reihenfolge des Bezeichnens angezeigt.
  • Als nächstes wird das zweite Ausführungsbeispiel der vorliegenden Erfindung beschrieben. 5 zeigt ein schematisches Diagramm der Übersetzungsanzeigevorrichtung nach dem zweiten Ausführungsbeispiel der vorliegenden Erfindung. Wie in 5 gezeigt, schließt die Übersetzungsanzeigevorrichtung einen Übersetzungsbereich-Bezeichnungsabschnitt 201, einen Textextrahierabschnitt 202, einen Zeichenerkemmungsabschnitt 203, ein Zeichenerkennungswissen-Wörterbuch 204, einen Übersetzungsabschnitt 205, ein Übersetzungswissen-Wörterbuch 206, einen Übersetzungssatzanzeigeabschnitt 207, einen Ursprungssatzspeicher 210, einen Übersetzungssatzspeicher 220 und einen Entsprechungsverhältnisspeicher 230 ein.
  • Der Übersetzungsbereich-Bezeichnungsabschnitt 201 gibt den Bereich des Ursprungssatzes von allen Ursprungssätzen auf der Anzeige ein. Zum Beispiel bezeichnet der Nutzer den Bereich durch ein Eingabegerät (nicht gezeigt), d. h., eine Maus oder eine Tastatur. Der Übersetzungsbereich-Bezeichnungsabschnitt 201 gibt den Bereich entsprechend der Bezeichnung des Nutzers ein und führt den Bereich dem Textextrahierabschnitt 202 zu. Der Bereich kann ein Teil des Anzeigeinhalts (Bild, Text) sein. Der Textextrahierabschnitt 202 extrahiert alle Ursprungssätze einschließlich des durch den Übersetzungsbereich-Bezeichnungsabschnitt 201 zugeführten Bereichs und gibt die Ursprungssatz-Zeichendaten aller Ursprungssätze an den Ursprungssatzspeicher 210 aus. Kurz gesagt, selbst, wenn der Übersetzungsbereich-Bezeichnungsabschnitt 201 einen Teil der Textdaten bezeichnet, extrahiert der Textextrahierabschnitt 202 alle Textdaten (alle Ursprungssätze). Im Fall, daß der Übersetzungsbereich-Bezeichnungsabschnitt 201 Bilddaten bezeichnet (sowohl, wenn er einen Teil der Bilddaten bezeichnet, als auch, wenn er alle Bilddaten bezeichnet), führt der Textextrahierabschnitt 202 alle Bilddaten dem Zeichenerkennungsabschnitt 203 zu und empfangt das Erkennungsergebnis vom Zeichenerkennungsabschnitt 203. Der Textextrahierabschnitt 202 gibt das Erkennungsergebnis als die Ursprungssatz-Zeichendaten an den Ursprungssatzspeicher 210 aus.
  • Der Zeichenerkennungsabschnitt 203 extrahiert den Zeichenteil (Englisch) aus allen durch den Textextrahierabschnitt 202 zugeführten Bilddaten, erkennt durch Bezugnahme auf das Zeichenerkennungswissen-Wörterbuch 204 den Zeichenteil und gibt das Erkennungsergebnis an den Textextrahierabschnitt 202 aus.
  • Der Übersetzungsabschnitt 205 übersetzt die im Ursprungssatzspeicher 210 gespeicherten Ursprungssatz-Zeichendaten durch Bezugnahme auf das Übersetzungswissen-Wörterbuch 206 ins Japanische und gibt den übersetzten Satz an den Übersetzungssatzspeicher 220 aus. In diesem Fall speichert der Entsprechungsverhältnisspeicher 230 Informationen zum Entsprechungsverhältnis zwischen dem Ursprungssatz im Ursprungssatzspeicher 210 und dem übersetzten Satz im Übersetzungssatzspeicher 220.
  • Der Anzeigeabschnitt 207 für übersetzte Sätze extrahiert durch Bezugnahme auf den Entsprechungsverhältnisspeicher 230 den dem Ursprungssatz im Bereich entsprechenden übersetzten Satz aus dem Speicher 220 für übersetzte Sätze und zeigt den übersetzten Satz an Stelle des Ursprungssatzes im Bereich an.
  • 6A zeigt den Inhalt des Ursprungssatzspeichers 210. Wie in 6A gezeigt, werden die Ursprungssatz-Zeichendaten Zeile für Zeile gespeichert. 6B zeigt den Inhalt des Speichers 220 für übersetzte Sätze. Wie in 6B gezeigt, wird der übersetzte Satz als eine durchgehende Linie von Zeichendaten gespeichert. Für jeden übersetzten Satz werden, wie in 6C gezeigt, mit den Zeichendaten eine Startposition und eine Endposition geschrieben. 6C zeigt den Inhalt des Entsprechungsverhältnisspeichers 230. Wie in 6C gezeigt, werden die Ursprungssatzinformationen und die Informationen des übersetzten Satzes nach der Satznummer gespeichert. Die Satznummer stellt eine jedem im Ursprungssatzspeicher 210 gespeicherten Ursprungssatz hinzugefügte laufende Nummer dar. Die Ursprungssatzinformationen schließen eine Zeilennummer und eine Zeichenposition des Startpunkts jedes Ursprungssatzes ein. Die Informationen des übersetzten Satzes schließen die Zeichenposition des Startpunkts jedes übersetzten Satzes entsprechend der Ursprungssatznummer ein. Durch Bezugnahme auf die in 6C gezeigten Informationen wird der dem Ursprungsatz im Bereich entsprechende übersetzte Satz aus allen übersetzten Sätzen abgerufen.
  • Als nächstes wird die Verarbeitung des zweiten Ausführungsbeispiels erläutert. 7A zeigt ein generelles Ablaufdiagramm der Verarbeitung nach dem zweiten Ausführungsbeispiel. 7B zeigt ein Ablaufdiagramm der detaillierten Verarbeitung beim Extrahieren von Textdaten (B02) in 7A. 7C zeigt ein Ablaufdiagramm der detaillierten Verarbeitung beim Extrahieren des Übersetzungssatzes (B04) in 7A.
  • Zuerst gibt der Übersetzungsbereich-Bezeichnungsabschnitt 201 den Übersetzungsbereich entsprechend der Bezeichnung des Nutzers auf der Anzeige aus (bezeichnet denselben) und liefert den Übersetzungsbereich an den Textextrahierabschnitt 202 (Schritt B01). Der Textextrahierabschnitt 202 extrahiert alle Ursprungssätze einschließlich des bezeichneten Übersetzungsbereichs. Alle Ursprungssätze werden im Ursprungssatzspeicher 210 gespeichert (Schritt B02). In Schritt B02 prüft der Textextrahierabschnitt 202 die Art der Daten im Bereich (Schritt B11). Im Fall von Bilddaten wird die Verarbeitung zu Schritt B12 vorgerückt. Im Fall von Zeichencode (Text) wird die Verarbeitung zu Schritt B13 vorgerückt.
  • Im Fall des Zeichencodes speichert der Ursprungssatzspeicher 210 alle Zeichencodes als Ursprungssatz-Zeichendaten (Schritt B13). Im Fall der Bilddaten gibt der Textextrahierabschnitt 202 alle Bilddaten an den Zeichenerkennungsabschnitt 203 aus. Der Zeichenerkennungsabschnitt 203 extrahiert den gesamten Zeichenteil aus den Bilddaten und erkennt den Zeichenteil als Zeichencode. Die Zeichencodes als Erkennungsergebnis werden an den Textextrahierabschnitt 202 ausgegeben (Schritt B12). Der Textextrahierabschnitt 202 führt die Zeichencodes als Ursprungssatz-Zeichendaten dem Ursprungssatzspeicher 210 zu (Schritt B13).
  • Als nächstes übersetzt der Übersetzungsabschnitt 205 alle Ursprungssatz-Zeichendaten im Ursprungssatzspeicher 210 ins Japanische (Schritt B03). Der Übersetzungssatzspeicher 220 speichert den übersetzten Satz, wie in 6B gezeigt. In diesem Fall wird jedes Mal, wenn der Übersetzungsabschnitt 205 jeden Ursprungssatz übersetzt und jeder übersetzte Satz im Speicher 220 für übersetzte Sätze gespeichert wird, das Entsprechungsverhältnis zwischen der Ursprungssatzposition im Ursprungssatzspeicher 210 und der Position des übersetzten Satzes im Speicher 220 für übersetzte Sätze im Entsprechungsverhältnisspeicher 230 gespeichert, wie in 6C gezeigt.
  • Der Anzeigeabschnitt 207 für übersetzte Sätze extrahiert durch Bezugnahme auf den Ursprungssatzspeicher 210, den Speicher 220 für übersetzte Sätze und den Entsprechungsverhältnisspeicher 230 den dem Ursprungssatz im Bereich entsprechenden übersetzten Satz (Schritt B04). Der übersetzte Satz wird an Stelle des Ursprungssatzes im Bereich angezeigt. In diesem Fall extrahiert der Anzeigeabschnitt 207 für übersetzte Sätze Positionsinformationen (Startpunkt, Endpunkt) des durch den Übersetzungsbereich-Bezeichnungsabschnitt 201 bezeichneten Abschnitts (Schritt B21). Zum Beispiel wird in 6A angenommen, daß „Eine Tar-Datei ist üblicherweise ein Magnetband, aber es kann jede Datei sein." als der Bereich bezeichnet wird. In diesem Fall ist der Startpunkt eines grammatisch vollständigen Satzes „Zeile = 2, Zeichenposition = 32", und der Endpunkt des vollständigen Satzes ist „Zeile = 3, Zeichenposition = 47". Der Anzeigeabschnitt 207 für übersetzte Sätze ruft die den Positionsinformationen entsprechende Satznummer aus dem Entsprechungsverhältnisspeicher 230 ab (Schritt B22). In diesem Beispiel stimmt der Startpunkt „Zeile = 2, Zeichenposition = 32" mit den Ursprungssatzinformationen des Satzes Nummer 2 überein, und der Endpunkt „Zeile = 3, Zeichenposition = 47" stimmt mit einer Position überein, die den Ursprungssatzinformationen von Satz Nummer 3 vorangeht. Daher wird Satz Nummer 2 abgerufen.
  • Als nächstes extrahiert der Übersetzungssatzanzeigeabschnitt 207 die Zeichenposition des übersetzten Satzes Nummer 2 (Schritt B23). Bei diesem Beispiel ist der Startpunkt „Zeichenposition = 49" und der Endpunkt ist „Zeichenposition = 88", welche die dem Startpunkt des nächsten Satzes Nummer 3 vorangehende Position ist. Der Anzeigeabschnitt 207 für übersetzte Sätze ruft in Übereinstimmung mit der Zeichenposition den übersetzten Satz aus dem Speicher 220 für übersetzte Sätze ab (Schritt B24). Bei diesem Beispiel wird, wie in 6B gezeigt, im Speicher 220 für übersetzte Sätze der übersetzte Satz zwischen der Zeichenposition 49 und der Zeichenposition 88 abgerufen. Danach wird der übersetzte Satz an den Anzeigeabschnitt 207 für übersetzte Sätze ausgegeben (Schritt B25). Der Anzeigeabschnitt 207 für übersetzte Sätze zeigt den übersetzten Satz in dem durch den Übersetzungsbereich-Bezeichnungsabschnitt 201 bezeichneten Bereich an (Schritt B25). Die Anzeigesituation ist die gleiche wie die von 3B oder 4B. Im Fall, daß die Länge des übersetzten Satzes (Japanisch) größer ist als die Länge des Ursprungssatzes (Englisch), werden die Zeichengröße oder der Zeichenabstand des übersetzten Satzes verändert, um den übersetzten Satz innerhalb des Bereichs anzuzeigen.
  • Im Fall, daß der Nutzer einen anderen Bereich des zu übersetzenden Ursprungssatzes auf der Anzeige verwendet, sind alle übersetzten Sätze, die allen Ursprungssätzen entsprechen, bereits im Speicher 220 für übersetzte Sätze gespeichert. Daher sind Zeichenerkennung des Zeichenerkennungsabschnitts 203 und Übersetzungsverarbeitung des Übersetzungsabschnitts 205 für einen anderen Bereich der Ursprungssätze nicht notwendig. In diesem Fall wird der dem Ursprungssatz des anderen durch den Nutzer bezeichneten Bereichs entsprechende übersetzte Satz nur entsprechend der Verarbeitung von 7C abgerufen. Danach wird der übersetzte Satz in dem anderen Bereich an Stelle des Ursprungssatzes angezeigt.
  • Wie erwähnt, werden beim zweiten Ausführungsbeispiel alle Ursprungssätze im Voraus übersetzt, selbst, wenn ein Ursprungssatz als der übersetzte Bereich bezeichnet wird. Daher ist es, falls ein anderer Ursprungssatz als ein anderer Übersetzungsbereich bezeichnet wird, nicht notwendig, daß ein anderer Ursprungssatz übersetzt wird. Der einem anderen Ursprungssatz entsprechende übersetzte Satz wird nur aus dem Übersetzungssatzspeicher 220 abgerufen und nur auf dem entsprechenden anderen übersetzten Bereich an Stelle eines anderen Ursprungssatzes angezeigt. Daher ist es möglich, die Verarbeitung als Reaktion auf das Bezeichnen des anderen Übersetzungsbereichs durch den Nutzer schnell auszuführen, um den übersetzten Satz anzuzeigen.
  • Es kann ein Speicher benutzt werden, um die Befehle zum Ausführen des oben beschriebenen Verfahrens zu speichern, wobei ein solcher Speicher eine CD-ROM, eine Magnetdiskette oder dergleichen sein kann.
  • Während ein erstes und ein zweites Ausführungsbeispiel illustriert und beschrieben worden sind, bei denen ein Satz zum Übersetzen bezeichnet wird und ein entsprechender übersetzter Satz im bezeichneten Bereich angezeigt wird, ist die Erfindung nicht so begrenzt. Der bezeichnete Bereich kann mehr als einen Satz zum Übersetzen einschließen, so daß die entsprechende Gruppe von übersetzten Sätzen im bezeichneten Bereich angezeigt wird.
  • Zusätzliche Vorteile und Modifikationen werden Fachleuten auf dem Gebiet leicht offensichtlich sein. Die Erfindung in ihren weiteren Aspekten ist daher nicht auf die gezeigten und beschriebenen spezifischen Einzelheiten, die repräsentative Vorrichtung und das Verfahren und die illustrativen Beispiele begrenzt. Dementsprechend können Abweichungen von solchen Einzelheiten vorgenommen werden, ohne vom Geist oder Rahmen des allgemeinen erfindungsgemäßen Konzepts abzuweichen. Folglich ist beabsichtigt, daß diese Erfindung die Modifikationen und Veränderungen der Erfindung abdeckt, vorausgesetzt, sie liegen innerhalb des Rahmens der angefügten Ansprüche und ihrer Äquivalente.

Claims (17)

  1. Übersetzungsanzeigevorrichtung, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Bereichsextrahiermittel zum Extrahieren eines der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich und Übersetzungsmittel zum Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel den übersetzten Satz im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich anzeigt.
  2. Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der das Übersetzungsmittel einen grammatikalisch vollständigen der durch die Bereichsextrahiermittel extrahierten Ursprungssätze übersetzt.
  3. Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der das Bereichsextrahiermittel in Übereinstimmung mit einem Inhalt des bezeichneten Bereichs auf dem Anzeigemittel wenigstens Textdaten oder Bilddaten extrahiert.
  4. Übersetzungsanzeigevorrichtung nach Anspruch 3, die außerdem Zeichenerkennungsmittel zum Extrahieren eines Zeichenteils von durch die Bereichsextrahiermittel extrahierten Bilddaten und zum Erkennen des extrahierten Zeichenteils als Zeichencode umfaßt.
  5. Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der eine Größe des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel eingestellt werden kann.
  6. Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der eine Position des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel bewegt oder in der Größe verändert werden kann, während der dem extrahierten Ursprungssatz entsprechende übersetzte Satz im bezeichneten Bereich angezeigt wird.
  7. Übersetzungsanzeigevorrichtung, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Extrahiermittel zum Extrahieren der auf dem Anzeigemittel angezeigten Vielzahl von Ursprungssätzen und Übersetzungsmittel zum Übersetzen der vom Extrahiermittel extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel aus allen durch das Übersetzungsmittel übersetzten Sätzen einen übersetzten Satz, der einem der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich entspricht, extrahiert und den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
  8. Übersetzungsanzeigevorrichtung nach Anspruch 7, bei der das Extrahiermittel in Übereinstimmung mit einem Inhalt der auf dem Anzeigemittel angezeigten Vielzahl von Ursprungssätzen wenigstens Textdaten oder Bilddaten extrahiert.
  9. Übersetzungsanzeigevorrichtung nach Anspruch 8, die außerdem Zeichenerkennungsmittel zum Extrahieren eines Zeichenteils von durch die Extrahiermittel extrahierten Bilddaten und zum Erkennen des extrahierten Zeichenteils als Zeichencode umfaßt.
  10. Übersetzungsanzeigevorrichtung nach Anspruch 7, bei der eine Größe des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel eingestellt werden kann.
  11. Übersetzungsanzeigevorrichtung nach Anspruch 7, bei der eine Position des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel bewegt werden kann, während der dem extrahierten Ursprungssatz entsprechende übersetzte Satz im bezeichneten Bereich angezeigt wird.
  12. Übersetzungsanzeigevorrichtung nach Anspruch 7, die außerdem einen Ursprungssatzspeicher zum Speichern der durch das Extrahiermittel extrahierten Vielzahl von Ursprungssätzen, einen Speicher für übersetzte Sätze zum Speichern aller durch das Übersetzungsmittel übersetzten Sätze und einen Entsprechungsverhältnisspeicher zum Speichern von Informationen über das Entsprechungsverhältnis zwischen jedem der Ursprungssätze im Ursprungssatzspeicher und einem entsprechenden der übersetzten Sätze im Speicher für übersetzte Sätze umfaßt, bei der das Anzeigemittel in Übereinstimmung mit den Informationen über das Entsprechungsverhältnis im Entsprechungsverhältnisspeicher den dem Ursprungssatz im bezeichneten Bereich entsprechenden übersetzten Satz extrahiert.
  13. Übersetzungsanzeigevorrichtung nach Anspruch 12, bei der die Informationen über das Entsprechungsverhältnis für jeden der Ursprungssätze ein Verhältnis zwischen einer Anzeigeposition jedes der Ursprungssätze auf dem Anzeigemittel und einer Speicherposition des entsprechenden übersetzten Satzes im Speicher für übersetzte Sätze einschließt.
  14. Verfahren zum Anzeigen eines übersetzten Satzes, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren eines der Ursprungssätze im bezeichneten Bereich, Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache und Anzeigen des übersetzten Satzes in dem beim Bezeichnungsschritt bezeichneten Bereich.
  15. Verfahren zum Anzeigen eines übersetzten Satzes, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren der angezeigten Vielzahl von Ursprungssätzen, Übersetzen der beim Extrahierschritt extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, Extrahieren eines der übersetzten Sätze, der dem Ursprungssatz im bezeichneten Bereich entspricht, aus allen beim Übersetzungsschritt übersetzten Sätzen und Anzeigen des extrahierten übersetzten Satzes im bezeichneten Bereich.
  16. Rechnerlesbarer Speicher, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich des angezeigten Ursprungssatzes bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner einen der Ursprungssätze im bezeichneten Bereich extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten Ursprungssatz aus der ersten Sprache in eine zweite Sprache übersetzt, und Befehlsmittel, um zu bewirken, daß ein Rechner den übersetzten Satz im bezeichneten Bereich anzeigt.
  17. Rechnerlesbarer Speicher, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich der angezeigten Ursprungssätze bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner die angezeigte Vielzahl von Ursprungssätzen extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner die extrahierte Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache übersetzt, Befehlsmittel, um zu bewirken, daß ein Rechner aus allen übersetzten Sätzen einen der übersetzten Sätze extrahiert, der dem Ursprungssatz im bezeichneten Bereich entspricht, und Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
DE69630928T 1995-09-08 1996-09-04 Vorrichtung und Verfahren zum Anzeigen einer Übersetzung Expired - Fee Related DE69630928T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7231621A JPH0981566A (ja) 1995-09-08 1995-09-08 翻訳装置及び翻訳方法
JP23162195 1995-09-08

Publications (2)

Publication Number Publication Date
DE69630928D1 DE69630928D1 (de) 2004-01-15
DE69630928T2 true DE69630928T2 (de) 2004-10-28

Family

ID=16926386

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69630928T Expired - Fee Related DE69630928T2 (de) 1995-09-08 1996-09-04 Vorrichtung und Verfahren zum Anzeigen einer Übersetzung

Country Status (4)

Country Link
US (1) US5978754A (de)
EP (1) EP0762298B1 (de)
JP (1) JPH0981566A (de)
DE (1) DE69630928T2 (de)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL121457A (en) * 1997-08-03 2004-06-01 Guru Internat Inc Computerized dictionary and thesaurus applications
DE59801557D1 (de) * 1997-12-29 2001-10-25 Oce Printing Systems Gmbh Verfahren und system zum steuern einer bedieneroberfläche mit grafik und texte enthaltenden anzeigefeldern
GB9727322D0 (en) 1997-12-29 1998-02-25 Xerox Corp Multilingual information retrieval
JP3666005B2 (ja) * 1998-03-03 2005-06-29 マツダ株式会社 特許情報検索システム、特許情報検索装置、情報検索中継装置並びに特許情報検索方法
US7099876B1 (en) 1998-12-15 2006-08-29 International Business Machines Corporation Method, system and computer program product for storing transliteration and/or phonetic spelling information in a text string class
US6496844B1 (en) 1998-12-15 2002-12-17 International Business Machines Corporation Method, system and computer program product for providing a user interface with alternative display language choices
WO2000079427A2 (en) * 1999-06-21 2000-12-28 Cleverlearn.Com Language teaching and translation system and method
US20040205671A1 (en) * 2000-09-13 2004-10-14 Tatsuya Sukehiro Natural-language processing system
US20020133523A1 (en) * 2001-03-16 2002-09-19 Anthony Ambler Multilingual graphic user interface system and method
US20030040899A1 (en) * 2001-08-13 2003-02-27 Ogilvie John W.L. Tools and techniques for reader-guided incremental immersion in a foreign language text
US6993473B2 (en) * 2001-08-31 2006-01-31 Equality Translation Services Productivity tool for language translators
DE10147920A1 (de) * 2001-09-28 2003-04-17 Siemens Ag Digitales Bildaufnahmegerät
US7536294B1 (en) * 2002-01-08 2009-05-19 Oracle International Corporation Method and apparatus for translating computer programs
US20030200078A1 (en) * 2002-04-19 2003-10-23 Huitao Luo System and method for language translation of character strings occurring in captured image data
US7209915B1 (en) 2002-06-28 2007-04-24 Microsoft Corporation Method, system and apparatus for routing a query to one or more providers
SG125908A1 (en) * 2002-12-30 2006-10-30 Singapore Airlines Ltd Multi-language communication method and system
US8170863B2 (en) * 2003-04-01 2012-05-01 International Business Machines Corporation System, method and program product for portlet-based translation of web content
US7558841B2 (en) * 2003-05-14 2009-07-07 Microsoft Corporation Method, system, and computer-readable medium for communicating results to a data query in a computer network
US20050086699A1 (en) * 2003-10-16 2005-04-21 Hamilton Relay, Inc. Video relay system and method
US20050111651A1 (en) * 2003-11-21 2005-05-26 Armando Chavez Script translation
US7245705B2 (en) * 2004-02-26 2007-07-17 Hamilton Relay, Inc. Internet protocol (IP) relay system and method
US7669198B2 (en) * 2004-11-18 2010-02-23 International Business Machines Corporation On-demand translator for localized operating systems
JP2006276918A (ja) * 2005-03-25 2006-10-12 Fuji Xerox Co Ltd 翻訳装置、翻訳方法およびプログラム
US20070048076A1 (en) * 2005-08-31 2007-03-01 To Chun Y Fastening system for a ring binder mechanism
JP4735148B2 (ja) * 2005-09-14 2011-07-27 富士ゼロックス株式会社 表示装置及び翻訳結果表示方法
US7788590B2 (en) 2005-09-26 2010-08-31 Microsoft Corporation Lightweight reference user interface
US7992085B2 (en) 2005-09-26 2011-08-02 Microsoft Corporation Lightweight reference user interface
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US9558449B2 (en) 2005-10-26 2017-01-31 Cortica, Ltd. System and method for identifying a target area in a multimedia content element
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US9330189B2 (en) 2005-10-26 2016-05-03 Cortica, Ltd. System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item
US9466068B2 (en) 2005-10-26 2016-10-11 Cortica, Ltd. System and method for determining a pupillary response to a multimedia data element
US9286623B2 (en) 2005-10-26 2016-03-15 Cortica, Ltd. Method for determining an area within a multimedia content element over which an advertisement can be displayed
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10191976B2 (en) 2005-10-26 2019-01-29 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US10535192B2 (en) 2005-10-26 2020-01-14 Cortica Ltd. System and method for generating a customized augmented reality environment to a user
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US9767143B2 (en) 2005-10-26 2017-09-19 Cortica, Ltd. System and method for caching of concept structures
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US10635640B2 (en) 2005-10-26 2020-04-28 Cortica, Ltd. System and method for enriching a concept database
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10180942B2 (en) 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US9529984B2 (en) 2005-10-26 2016-12-27 Cortica, Ltd. System and method for verification of user identification based on multimedia content elements
US8266185B2 (en) 2005-10-26 2012-09-11 Cortica Ltd. System and methods thereof for generation of searchable structures respective of multimedia data content
US9087049B2 (en) * 2005-10-26 2015-07-21 Cortica, Ltd. System and method for context translation of natural language
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US9953032B2 (en) 2005-10-26 2018-04-24 Cortica, Ltd. System and method for characterization of multimedia content signals using cores of a natural liquid architecture system
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US8312031B2 (en) 2005-10-26 2012-11-13 Cortica Ltd. System and method for generation of complex signatures for multimedia data content
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US10698939B2 (en) 2005-10-26 2020-06-30 Cortica Ltd System and method for customizing images
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US9256668B2 (en) 2005-10-26 2016-02-09 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US9031999B2 (en) 2005-10-26 2015-05-12 Cortica, Ltd. System and methods for generation of a concept based database
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US9396435B2 (en) 2005-10-26 2016-07-19 Cortica, Ltd. System and method for identification of deviations from periodic behavior patterns in multimedia content
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US10380164B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for using on-image gestures and multimedia content elements as search queries
US9235557B2 (en) 2005-10-26 2016-01-12 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US10360253B2 (en) 2005-10-26 2019-07-23 Cortica, Ltd. Systems and methods for generation of searchable structures respective of multimedia data content
US9489431B2 (en) 2005-10-26 2016-11-08 Cortica, Ltd. System and method for distributed search-by-content
US9218606B2 (en) 2005-10-26 2015-12-22 Cortica, Ltd. System and method for brand monitoring and trend analysis based on deep-content-classification
US9191626B2 (en) 2005-10-26 2015-11-17 Cortica, Ltd. System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto
US9639532B2 (en) 2005-10-26 2017-05-02 Cortica, Ltd. Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US9477658B2 (en) 2005-10-26 2016-10-25 Cortica, Ltd. Systems and method for speech to speech translation using cores of a natural liquid architecture system
US20080213734A1 (en) * 2006-04-02 2008-09-04 Steve George Guide Method for Decoding Pictographic Signs Present on Ancient Artifacts
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
JP4256891B2 (ja) * 2006-10-27 2009-04-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 機械翻訳の精度を向上させる技術
US20080168049A1 (en) * 2007-01-08 2008-07-10 Microsoft Corporation Automatic acquisition of a parallel corpus from a network
US20090162818A1 (en) * 2007-12-21 2009-06-25 Martin Kosakowski Method for the determination of supplementary content in an electronic device
JP4626777B2 (ja) * 2008-03-14 2011-02-09 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US9767095B2 (en) 2010-05-21 2017-09-19 Western Standard Publishing Company, Inc. Apparatus, system, and method for computer aided translation
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US8862255B2 (en) 2011-03-23 2014-10-14 Audible, Inc. Managing playback of synchronized content
US8855797B2 (en) 2011-03-23 2014-10-07 Audible, Inc. Managing playback of synchronized content
US9760920B2 (en) 2011-03-23 2017-09-12 Audible, Inc. Synchronizing digital content
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
US9706247B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Synchronized digital content samples
US9189476B2 (en) * 2012-04-04 2015-11-17 Electronics And Telecommunications Research Institute Translation apparatus and method thereof for helping a user to more easily input a sentence to be translated
US9075760B2 (en) 2012-05-07 2015-07-07 Audible, Inc. Narration settings distribution for content customization
US9317500B2 (en) * 2012-05-30 2016-04-19 Audible, Inc. Synchronizing translated digital content
JP5708569B2 (ja) * 2012-06-18 2015-04-30 コニカミノルタ株式会社 画像処理装置、画像処理方法およびプログラム
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US8972265B1 (en) 2012-06-18 2015-03-03 Audible, Inc. Multiple voices in audio content
KR20130143320A (ko) * 2012-06-21 2013-12-31 한국전자통신연구원 시선 추적을 이용한 번역 인터페이스 장치 및 방법
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US10109278B2 (en) 2012-08-02 2018-10-23 Audible, Inc. Aligning body matter across content formats
US8996354B1 (en) * 2012-09-10 2015-03-31 Kabam, Inc. Facilitating localization of linguistic assets of a virtual space
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9170714B2 (en) * 2012-10-31 2015-10-27 Google Technology Holdings LLC Mixed type text extraction and distribution
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
CN103294194B (zh) * 2013-04-28 2016-12-28 小米科技有限责任公司 一种基于眼球跟踪的翻译方法及系统
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
KR102135358B1 (ko) * 2013-11-05 2020-07-17 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6328409B2 (ja) * 2013-11-28 2018-05-23 シャープ株式会社 翻訳装置
US11037015B2 (en) 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
KR101861006B1 (ko) 2016-08-18 2018-05-28 주식회사 하이퍼커넥트 통역 장치 및 방법
US11760387B2 (en) 2017-07-05 2023-09-19 AutoBrains Technologies Ltd. Driving policies determination
WO2019012527A1 (en) 2017-07-09 2019-01-17 Cortica Ltd. ORGANIZATION OF DEPTH LEARNING NETWORKS
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US10748038B1 (en) 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
CN109918685B (zh) * 2019-03-18 2023-10-17 百度在线网络技术(北京)有限公司 计算机辅助翻译方法、装置、计算机设备及存储介质
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US12055408B2 (en) 2019-03-28 2024-08-06 Autobrains Technologies Ltd Estimating a movement of a hybrid-behavior vehicle
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
CN112183121B (zh) 2019-09-20 2022-02-25 华为技术有限公司 机器翻译的方法和电子设备
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
US12049116B2 (en) 2020-09-30 2024-07-30 Autobrains Technologies Ltd Configuring an active suspension
US12142005B2 (en) 2020-10-13 2024-11-12 Autobrains Technologies Ltd Camera based distance measurements
US12139166B2 (en) 2021-06-07 2024-11-12 Autobrains Technologies Ltd Cabin preferences setting that is based on identification of one or more persons in the cabin
US12110075B2 (en) 2021-08-05 2024-10-08 AutoBrains Technologies Ltd. Providing a prediction of a radius of a motorcycle turn

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351189A (en) * 1985-03-29 1994-09-27 Kabushiki Kaisha Toshiba Machine translation system including separated side-by-side display of original and corresponding translated sentences
JPS6244877A (ja) * 1985-08-22 1987-02-26 Toshiba Corp 機械翻訳装置
GB2199680A (en) * 1986-11-28 1988-07-13 Sharp Kk Translating apparatus
US5005127A (en) * 1987-10-26 1991-04-02 Sharp Kabushiki Kaisha System including means to translate only selected portions of an input sentence and means to translate selected portions according to distinct rules
US5276616A (en) * 1989-10-16 1994-01-04 Sharp Kabushiki Kaisha Apparatus for automatically generating index
JP2758952B2 (ja) * 1989-12-28 1998-05-28 富士通株式会社 日本語文書読取翻訳システムの修正時における表示方式
US5251130A (en) * 1991-04-18 1993-10-05 International Business Machines Corporation Method and apparatus for facilitating contextual language translation within an interactive software application
JPH05120324A (ja) * 1991-10-30 1993-05-18 Sharp Corp 言語処理方式
US5275569A (en) * 1992-01-30 1994-01-04 Watkins C Kay Foreign language teaching aid and method
JPH08227423A (ja) * 1995-02-20 1996-09-03 Matsushita Electric Ind Co Ltd 機械翻訳装置

Also Published As

Publication number Publication date
EP0762298A3 (de) 2002-01-09
US5978754A (en) 1999-11-02
DE69630928D1 (de) 2004-01-15
JPH0981566A (ja) 1997-03-28
EP0762298B1 (de) 2003-12-03
EP0762298A2 (de) 1997-03-12

Similar Documents

Publication Publication Date Title
DE69630928T2 (de) Vorrichtung und Verfahren zum Anzeigen einer Übersetzung
DE69425607T2 (de) Selektive Einrichtung und Verfahren zur Dokumentenwiederauffindung.
DE69129163T2 (de) Verfahren und Vorrichtung zur Texteingabe
DE68926845T2 (de) Maschinenübersetzungssystem
DE60120810T2 (de) Verfahren zur Dokumenterkennung und -indexierung
DE69317863T2 (de) Übersetzungssystem Gebärdensprache/Wort
DE3850595T2 (de) Dokumentverarbeitungssystem.
DE69400276T2 (de) Zeichensatzsystem für texteingabe
DE69330427T2 (de) Spracherkennungssystem für sprachen mit zusammengesetzten wörtern
DE60122352T2 (de) Augenverfolgung für kontextabhängige spracherkennung
DE69428868T2 (de) Verfahren und System zum Aufzeigen von Alternativen zur Auswahl durch Gebrauch von adaptiven Lernen
DE69927000T2 (de) Übersetzungssystem und multifunktioneller computer, insbesondere für die bearbeitung von texten und die übersetzung auf papier
DE69428590T2 (de) Auf kombiniertem lexikon und zeichenreihenwahrscheinlichkeit basierte handschrifterkennung
DE3317325C2 (de)
DE68926068T2 (de) Dokumentenverarbeitungssystem
DE69225760T2 (de) Methode und System zur Unterstützung von mehrfacher Textselektion und "swipe and type" Operationen auf einer Rechneranzeige
DE69609866T2 (de) Flexibles system und verfahren zum verknüpfen von hyperlinks
DE19953608B4 (de) Vorrichtung und Verfahren zum Erkennen eines Fonts eines Textes in einem Dokumentenverarbeitungssystem
DE69230092T2 (de) Verfahren und Gerät zur Zeichenerkennung
EP0304129A2 (de) Verfahren und Anordnung zum Aufbereiten eines Kennsignals
EP0150813A2 (de) Verfahren zur Manipulation von Bildschirmdarstellungen durch Sprachbefehle
DE60319586T2 (de) Elektronisches wörterbuch mit beispielsätzen
DE10124429A1 (de) System und Verfahren für eine verbesserte Rechtschreibprüfung
DE69610520T2 (de) Handgeschriebene Daten und Befehlgesteneingabemethode und Gerät
DE69518677T2 (de) Elektronischer Übersetzungsapparat

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8339 Ceased/non-payment of the annual fee