DE69630928T2 - Vorrichtung und Verfahren zum Anzeigen einer Übersetzung - Google Patents
Vorrichtung und Verfahren zum Anzeigen einer Übersetzung Download PDFInfo
- Publication number
- DE69630928T2 DE69630928T2 DE69630928T DE69630928T DE69630928T2 DE 69630928 T2 DE69630928 T2 DE 69630928T2 DE 69630928 T DE69630928 T DE 69630928T DE 69630928 T DE69630928 T DE 69630928T DE 69630928 T2 DE69630928 T2 DE 69630928T2
- Authority
- DE
- Germany
- Prior art keywords
- translation
- original
- sentence
- translated
- sentences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
- HINTERGRUND DER ERFINDUNG
- GEBIET DER ERFINDUNG
- Die vorliegende Erfindung betrifft eine Übersetzungsanzeigevorrichtung und ein Verfahren zum Übersetzen natürlichsprachlichen Textes aus einer ersten Sprache in eine zweite Sprache unter Verwendung eines Rechners.
- BESCHREIBUNG DES TECHNISCHEN STANDS
- Auf dem Gebiet der Verarbeitungstechnik für natürliche Sprache unter Verwendung eines Rechners ist eine maschinelle Übersetzungsvorrichtung zum Übersetzen eines Dokuments aus einer ersten Sprache (zum Beispiel Englisch) in eine zweite Sprache (zum Beispiel Japanisch) verwendet worden.
- Herkömmlicherweise wird die maschinelle Übersetzungsvorrichtung als ein Unterstützungssystem verwendet, um ein großes Dokumentenvolumen effektiv zu übersetzen. Zuerst wird eine große Zahl von Ursprungssätzen in der ersten Sprache (zum Beispiel in Englisch) in die maschinelle Übersetzungsvorrichtung eingegeben. Danach wird die große Zahl von Ursprungssätzen nacheinander in der Reihenfolge von Satzeinheiten in die zweite Sprache (zum Beispiel Japanisch) übersetzt. Jedoch geschieht es oft, daß ein Nutzer, nachdem die große Zahl von Ursprungssätzen in die maschinelle Übersetzungsvorrichtung eingegeben ist, die Übersetzung nur einiger Sätze will, die einigen Ursprungssätzen entsprechen. In diesem herkömmlichen Fall wird zuerst die große Zahl von Ursprungssätzen auf einem Ursprungssatzbereich der Anzeige angezeigt, wobei der Anzeigebereich aus einem Ursprungssatzbereich, einem Bereich der übersetzten Sätze und einem Befehlsmenübereich besteht. Danach zeichnet der Nutzer unter Verwendung einer Maus oder eines Zeigegeräts einen zum Übersetzen ausgewählten Ursprungssatz nach und bezeichnet durch Auswählen aus dem Menü einen Übersetzungsbefehl. Der ausgewählte Ursprungssatz (Englisch) wird durch das maschinelle Übersetzungsprogramm verarbeitet und in einen übersetzten Satz (Japanisch) übersetzt. Zuletzt wird der übersetzte Satz auf dem Bereich für übersetzte Sätze der Anzeige angezeigt. Bei dieser herkömmlichen Vorrichtung gibt es zwei Probleme.
- Als ein erstes Problem muß der Nutzer im Fall des Auswählens des zu übersetzenden Ursprungssatzes den Ursprungssatz genau auf der Anzeige nachzeichnen und den Übersetzungsbefehl bezeichnen. Kurz gesagt, der Nutzer muß zwei Arten von Operationen eingeben. Diese Operationen erlegen dem Nutzer eine beträchtliche Last auf.
- Als ein zweites Problem wird die Übersetzung im Bereich für übersetzte Sätze angezeigt, der sich auf der Anzeige an einer anderen Position befindet als der Ursprungssatzbereich. Dementsprechend muß der Nutzer seinen Blickpunkt vom Ursprungssatzbereich zum Bereich für übersetzte Sätze bewegen, und die Augen des Nutzers ermüden, während sie auf die Anzeige blicken.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Es ist ein Ziel der vorliegenden Erfindung, eine Übersetzungsanzeigevorrichtung und ein Verfahren für den Nutzer bereitzustellen, die mit einer minimalen Zahl von Bezeichnungsoperationen zu bedienen sind.
- Es ist ein weiteres Ziel der vorliegenden Erfindung, eine Übersetzungsanzeigevorrichtung und ein Verfahren für den Nutzer bereitzustellen, bei denen die Augenermüdung auf ein Minimum verringert wird.
- Nach der vorliegenden Erfindung wird eine Übersetzungsanzeigevorrichtung bereitgestellt, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Bereichsextrahiermittel zum Extrahieren eines der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich und Übersetzungsmittel zum Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel den übersetzten Satz im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich anzeigt.
- Weiterhin wird nach der vorliegenden Erfindung eine Übersetzungsanzeigevorrichtung bereitgestellt, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Extrahiermittel zum Extrahieren der auf dem Anzeigemittel angezeigten Vielzahl von Ursprungssätzen und Übersetzungsmittel zum Übersetzen der vom Extrahiermittel extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel aus allen durch das Übersetzungsmittel übersetzten Sätzen einen übersetzten Satz, der einem der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich entspricht, extrahiert und den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
- Weiterhin wird nach der vorliegenden Erfindung ein Verfahren zum Anzeigen eines übersetzten Satzes bereitgestellt, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren eines der Ursprungssätze im bezeichneten Bereich, Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache und Anzeigen des übersetzten Satzes in dem beim Bezeichnungsschritt bezeichneten Bereich.
- Weiterhin wird nach der vorliegenden Erfindung ein Verfahren zum Anzeigen eines übersetzten Satzes bereitgestellt, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren der angezeigten Vielzahl von Ursprungssätzen, Übersetzen der beim Extrahierschritt extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, Extrahieren eines der übersetzten Sätze, der dem Ursprungssatz im bezeichneten Bereich entspricht, aus allen beim Übersetzungsschritt übersetzten Sätzen und Anzeigen des extrahierten übersetzten Satzes im bezeichneten Bereich.
- Weiterhin wird nach der vorliegenden Erfindung ein rechnerlesbarer Speicher bereitgestellt, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich des angezeigten Ursprungssatzes bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner einen der Ursprungssätze im bezeichneten Bereich extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten Ursprungssatz aus der ersten Sprache in eine zweite Sprache übersetzt, und Befehlsmittel, um zu bewirken, daß ein Rechner den übersetzten Satz im bezeichneten Bereich anzeigt.
- Weiterhin wird nach der vorliegenden Erfindung ein rechnerlesbarer Speicher bereitgestellt, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich der angezeigten Ursprungssätze bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner die angezeigte Vielzahl von Ursprungssätzen extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner die extrahierte Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache übersetzt, Befehlsmittel, um zu bewirken, daß ein Rechner aus allen übersetzten Sätzen einen der übersetzten Sätze extrahiert, der dem Ursprungssatz im bezeichneten Bereich entspricht, und Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 zeigt ein schematisches Diagramm nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung. -
2 zeigt ein Ablaufdiagramm der Verarbeitung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung. -
3A zeigt ein Beispiel einer Anzeige eines Ursprungssatzbereichs. -
3B zeigt ein Beispiel einer Anzeige des Ursprungssatzbereichs einschließlich eines Bereichs für übersetzte Sätze. -
4A zeigt ein Beispiel einer Anzeige eines Bildes einschließlich eines Ursprungssatzes. -
4B zeigt ein Beispiel einer Anzeigesituation des Bildes einschließlich eines übersetzten Satzes. -
5 zeigt ein schematisches Diagramm nach einem zweiten Ausführungsbeispiel der vorliegenden Erfindung. -
6A zeigt ein Beispiel des Inhalts eines Ursprungssatzspeichers210 in5 . -
6B zeigt ein Beispiel des Inhalts eines Speichers220 für übersetzte Sätze in5 . -
6C zeigt ein Beispiel des Inhalts eines Entsprechungsverhältnisspeichers230 in5 . -
7A zeigt ein Ablaufdiagramm der Verarbeitung nach dem zweiten Ausführungsbeispiel der vorliegenden Erfindung. -
7B zeigt ein Ablaufdiagramm der detaillierten Verarbeitung beim Extrahieren von Textdaten in7A . -
7C zeigt ein Ablaufdiagramm der detaillieren Verarbeitung beim Extrahieren des übersetzten Satzes in7A . - DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
- Im folgenden werden unter Bezugnahme auf die Zeichnungen Ausführungsbeispiele der vorliegenden Erfindung beschrieben.
-
1 ist ein schematisches Diagramm einer maschinellen Übersetzungsvorrichtung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung. Bei diesem Ausführungsbeispiel wird ein Beispiel von Übersetzungsverarbeitung aus dem Englischen ins Japanische erläutert. Wie in1 gezeigt, schließt die Übersetzungsvorrichtung einen Übersetzungsbereich-Bezeichnungsabschnitt101 , einen Bereichsextrahierabschnitt102 , einen Anzeigespeicher102a , einen Zeichenerkennungsbereich103 , ein Zeichenerkennungswissen-Wörterbuch104 , einen Übersetzungsabschnitt105 , ein Übersetzungswissen-Wörterbuch106 und einen Anzeigebereich107 für übersetzte Sätze ein. - Der Übersetzungsbereich-Bezeichnungsabschnitt
101 gibt den zu übersetzenden Bereich der Ursprungssätze von allen Ursprungssätzen auf der Anzeige ein. Zum Beispiel bezeichnet der Nutzer den zu übersetzenden Bereich durch ein Eingabegerät (nicht gezeigt), d. h., eine Maus oder eine Tastatur. Der Übersetzungsbereich-Bezeichnungsabschnitt101 gibt den Bereich entsprechend der Bezeichnung des Nutzers ein und führt den Bereich dem Bereichsextrahierabschnitt102 zu. Der Bereich kann ein Teil des Anzeigeinhalts (Bild, Text) sein. Der Bereichsextrahierabschnitt102 extrahiert den Inhalt des Bereichs aus dem Anzeigespeicher102a entsprechend dem durch den Übersetzungsbereich-Bezeichnungsabschnitt101 zugeführten Bereich. Im Fall, daß der Anzeigespeicher102a Textdaten (Zeichencode) speichert, die angezeigt werden, wird der Zeichencode des Bereichs dem Übersetzungsabschnitt105 zugeführt. Im Fall, daß der Anzeigespeicher102a Bilddaten (Bitmuster) speichert, die angezeigt werden, wird der Zeichencode des Bereichs dem Zeichenerkennungsabschnitt103 zugeführt. Der Zeichenerkennungsabschnitt103 extrahiert den Zeichenteil aus den Bilddaten und erkennt unter Verwendung des Zeichenerkennungswissen-Wörterbuchs104 den Zeichenteil. Danach wird das Erkennungsergebnis als Zeichencode dem Übersetzungsabschnitt105 zugeführt. Das Zeichenerkennungswissen-Wörterbuch104 speichert Wörterbuchdaten (Zeichenerkennungswissen), um den Zeichenteil zu erfassen und Zeichen zu erkennen. Zum Beispiel wird im Fall eines Musterabgleichs ein Standardmuster für jedes zu erkennende Zeichen registriert. Der Übersetzungsabschnitt105 übersetzt die durch den Bereichsextrahierabschnitt102 oder den Zeichenerkennungsabschnitt103 zugeführten Textdaten (Zeichencodes) unter Verwendung des Übersetzungswissen-Wörterbuchs106 ins Japanische und gibt den übersetzten Satz an den Anzeigebereich107 für übersetzte Sätze aus. Falls der durch den Bereichsextrahierabschnitt102 extrahierte Bereich einen Teil eines Worts oder einen Teil eines Satzes einschließt (was zum Beispiel geschehen kann, falls eine Grenze des Bereichs einen Satz/ein Wort auf der Anzeige in Teile teilt), ist der dem Übersetzungsabschnitt105 zugeführte Zeichencode grammatisch unvollständig und wird nicht richtig übersetzt. In diesem Fall wird für den Zeichencode in dem der Grenze des Bereichs vorangehenden und folgenden Bereich eine Position des Startpunkts oder des Endpunkts des Satzes gesucht, und ein vollständiger Satz wird zum Übersetzen extrahiert. - Der Anzeigeabschnitt
107 für übersetzte Sätze zeigt den übersetzten Satz in dem durch den Übersetzungsbereich-Bezeichnungsabschnitt101 bezeichneten Bereich an. Falls die Länge des übersetzten Satzes (Japanisch) größer ist als eine Länge des Ursprungssatzes (Englisch), werden Zeichengröße oder Zeichenabstand verändert, um den gesamten übersetzten Satz im Bereich anzuzeigen. - Als nächstes wird das Verarbeiten beim ersten Ausführungsbeispiel der vorliegenden Erfindung erläutert.
2 zeigt ein Ablaufdiagramm der Verarbeitung des ersten Ausführungsbeispiels.3A zeigt ein Beispiel einer Anzeige des Ursprungssatzbereichs (Englisch).3B zeigt ein Beispiel einer Anzeige des Ursprungssatzbereichs einschließlich des Bereichs für übersetzte Sätze (Japanisch).4A zeigt ein Beispiel einer Anzeige der Bilddaten einschließlich eines Ursprungssatzes (Englisch).4B zeigt ein Beispiel von Bilddaten einschließlich eines übersetzten Satzes (Japanisch). - Zuerst bezeichnet der Nutzer, wie in
3A gezeigt, durch ein Fenster31 den zu übersetzenden Bereich des Ursprungssatzes. In diesem Fall werden die ersten drei Textzeilen durch das Fenster umschlossen. Dieses Fenster wird auf der Anzeige frei bewegt und in der Größe verändert. Daher kann der Nutzer seinen gewünschten zu übersetzenden Ursprungssatz durch Bewegung und Größenveränderung des Fensters auf der Anzeige bezeichnen. Der Übersetzungsbereich-Bezeichnungsabschnitt101 gibt den Übersetzungsbereich entsprechend der Bezeichnung des Nutzers ein (bezeichnet denselben) und liefert den Übersetzungsbereich an den Bereichsextrahierabschnitt102 (Schritt A01). Der Bereichsextrahierabschnitt102 extrahiert den Inhalt aus dem Übersetzungsbereich im Anzeigespeicher102a und prüft die Datenart des extrahierten Inhalts (Schritt A02, A03). Wie in4A gezeigt, wird, falls der Nutzer Bilddaten einschließlich von zu übersetzenden Zeichendaten41 bezeichnet, die Art der extrahierten Daten (Zeichendaten41 ) als Bilddaten bestimmt. In diesem Fall führt der Bereichsextrahierabschnitt102 die Bilddaten der Zeichen dem Zeichenerkennungsabschnitt103 zu. Falls andererseits, wie in3A gezeigt, die Art der extrahierten Daten als Zeichencode bestimmt wird, führt der Bereichsextrahierabschnitt102 den Zeichencode des Bereichs dem Übersetzungsbereich105 zu. Der Zeichenerkennungsbereich103 erkennt die vom Bereichsextrahierabschnitt102 zugeführten Bilddaten (Schritt A04). Kurz gesagt, der Zeichenerkennungsbereich103 extrahiert durch Einheiten von einzelnen Zeichen ein Zeichenmuster aus den Bilddaten, identifiziert jedes Zeichen durch Bezugnahme auf das Zeichenerkennungswissen-Wörterbuch104 und gibt den Zeichencode (Text) aus. Der Übersetzungsabschnitt105 übersetzt die durch den Bereichsextrahierabschnitt102 oder den Zeichenerkennungsbereich103 zugeführten Zeichencodes (Textdaten) durch Bezugnahme auf das Übersetzungswissen-Wörterbuch106 und erzeugt den übersetzten Satz (Schritt A05). Der Übersetzungsanzeigeabschnitt107 zeigt den übersetzten Satz im bezeichneten Übersetzungsbereich an (Schritt A06). Genauer gesagt, werden die übersetzten Sätze an Stelle der Ursprungssätze im bezeichneten Bereich angezeigt. Zum Beispiel werden, wie in3B gezeigt, die übersetzten Sätze (Japanisch) im Fenster32 angezeigt, welches das gleiche ist wie das vom Nutzer bezeichnete Fenster31 . Wie in4B gezeigt, wird der übersetzte Satz (Japanisch) auf der Anzeige in der gleichen Position42 des Ursprungssatzes (Englisch) angezeigt. - Folglich wird der Ursprungssatz im Bereich durch Bezeichnen des Übersetzungsbereichs auf der Anzeige übersetzt. Unter allen Ursprungssätzen wird nur der Ursprungssatz des bezeichneten Bereichs übersetzt. Daher dauert es vom Bezeichnen des Übersetzungsbereichs bis zum Anzeigen des übersetzten Satzes keine lange Zeit. Darüber hinaus wird der übersetzte Satz an Stelle des Ursprungssatzes in dem Bereich angezeigt. Daher ist es für den Nutzer nicht notwendig, seinen Blickpunkt auf der Anzeige vom Ursprungssatz zum übersetzten Satz zu bewegen.
- Beim ersten Ausführungsbeispiel kann die Verarbeitung von Schritt A01 bis Schritt A06 in Echtzeit ausgeführt werden. Zum Beispiel wird in dem Fall, daß der Übersetzungsbereich durch Bewegen des Fensters auf der Anzeige bezeichnet wird, der Ursprungssatz im dem sich bewegenden Fenster entsprechenden Bereich in Echtzeit übersetzt, und der übersetzte Satz wird in jedem bezeichneten Bereich in der Reihenfolge des Bezeichnens angezeigt.
- Als nächstes wird das zweite Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
5 zeigt ein schematisches Diagramm der Übersetzungsanzeigevorrichtung nach dem zweiten Ausführungsbeispiel der vorliegenden Erfindung. Wie in5 gezeigt, schließt die Übersetzungsanzeigevorrichtung einen Übersetzungsbereich-Bezeichnungsabschnitt201 , einen Textextrahierabschnitt202 , einen Zeichenerkemmungsabschnitt203 , ein Zeichenerkennungswissen-Wörterbuch204 , einen Übersetzungsabschnitt205 , ein Übersetzungswissen-Wörterbuch206 , einen Übersetzungssatzanzeigeabschnitt207 , einen Ursprungssatzspeicher210 , einen Übersetzungssatzspeicher220 und einen Entsprechungsverhältnisspeicher230 ein. - Der Übersetzungsbereich-Bezeichnungsabschnitt
201 gibt den Bereich des Ursprungssatzes von allen Ursprungssätzen auf der Anzeige ein. Zum Beispiel bezeichnet der Nutzer den Bereich durch ein Eingabegerät (nicht gezeigt), d. h., eine Maus oder eine Tastatur. Der Übersetzungsbereich-Bezeichnungsabschnitt201 gibt den Bereich entsprechend der Bezeichnung des Nutzers ein und führt den Bereich dem Textextrahierabschnitt202 zu. Der Bereich kann ein Teil des Anzeigeinhalts (Bild, Text) sein. Der Textextrahierabschnitt202 extrahiert alle Ursprungssätze einschließlich des durch den Übersetzungsbereich-Bezeichnungsabschnitt201 zugeführten Bereichs und gibt die Ursprungssatz-Zeichendaten aller Ursprungssätze an den Ursprungssatzspeicher210 aus. Kurz gesagt, selbst, wenn der Übersetzungsbereich-Bezeichnungsabschnitt201 einen Teil der Textdaten bezeichnet, extrahiert der Textextrahierabschnitt202 alle Textdaten (alle Ursprungssätze). Im Fall, daß der Übersetzungsbereich-Bezeichnungsabschnitt201 Bilddaten bezeichnet (sowohl, wenn er einen Teil der Bilddaten bezeichnet, als auch, wenn er alle Bilddaten bezeichnet), führt der Textextrahierabschnitt202 alle Bilddaten dem Zeichenerkennungsabschnitt203 zu und empfangt das Erkennungsergebnis vom Zeichenerkennungsabschnitt203 . Der Textextrahierabschnitt202 gibt das Erkennungsergebnis als die Ursprungssatz-Zeichendaten an den Ursprungssatzspeicher210 aus. - Der Zeichenerkennungsabschnitt
203 extrahiert den Zeichenteil (Englisch) aus allen durch den Textextrahierabschnitt202 zugeführten Bilddaten, erkennt durch Bezugnahme auf das Zeichenerkennungswissen-Wörterbuch204 den Zeichenteil und gibt das Erkennungsergebnis an den Textextrahierabschnitt202 aus. - Der Übersetzungsabschnitt
205 übersetzt die im Ursprungssatzspeicher210 gespeicherten Ursprungssatz-Zeichendaten durch Bezugnahme auf das Übersetzungswissen-Wörterbuch206 ins Japanische und gibt den übersetzten Satz an den Übersetzungssatzspeicher220 aus. In diesem Fall speichert der Entsprechungsverhältnisspeicher230 Informationen zum Entsprechungsverhältnis zwischen dem Ursprungssatz im Ursprungssatzspeicher210 und dem übersetzten Satz im Übersetzungssatzspeicher220 . - Der Anzeigeabschnitt
207 für übersetzte Sätze extrahiert durch Bezugnahme auf den Entsprechungsverhältnisspeicher230 den dem Ursprungssatz im Bereich entsprechenden übersetzten Satz aus dem Speicher220 für übersetzte Sätze und zeigt den übersetzten Satz an Stelle des Ursprungssatzes im Bereich an. -
6A zeigt den Inhalt des Ursprungssatzspeichers210 . Wie in6A gezeigt, werden die Ursprungssatz-Zeichendaten Zeile für Zeile gespeichert.6B zeigt den Inhalt des Speichers220 für übersetzte Sätze. Wie in6B gezeigt, wird der übersetzte Satz als eine durchgehende Linie von Zeichendaten gespeichert. Für jeden übersetzten Satz werden, wie in6C gezeigt, mit den Zeichendaten eine Startposition und eine Endposition geschrieben.6C zeigt den Inhalt des Entsprechungsverhältnisspeichers230 . Wie in6C gezeigt, werden die Ursprungssatzinformationen und die Informationen des übersetzten Satzes nach der Satznummer gespeichert. Die Satznummer stellt eine jedem im Ursprungssatzspeicher210 gespeicherten Ursprungssatz hinzugefügte laufende Nummer dar. Die Ursprungssatzinformationen schließen eine Zeilennummer und eine Zeichenposition des Startpunkts jedes Ursprungssatzes ein. Die Informationen des übersetzten Satzes schließen die Zeichenposition des Startpunkts jedes übersetzten Satzes entsprechend der Ursprungssatznummer ein. Durch Bezugnahme auf die in6C gezeigten Informationen wird der dem Ursprungsatz im Bereich entsprechende übersetzte Satz aus allen übersetzten Sätzen abgerufen. - Als nächstes wird die Verarbeitung des zweiten Ausführungsbeispiels erläutert.
7A zeigt ein generelles Ablaufdiagramm der Verarbeitung nach dem zweiten Ausführungsbeispiel.7B zeigt ein Ablaufdiagramm der detaillierten Verarbeitung beim Extrahieren von Textdaten (B02) in7A .7C zeigt ein Ablaufdiagramm der detaillierten Verarbeitung beim Extrahieren des Übersetzungssatzes (B04) in7A . - Zuerst gibt der Übersetzungsbereich-Bezeichnungsabschnitt
201 den Übersetzungsbereich entsprechend der Bezeichnung des Nutzers auf der Anzeige aus (bezeichnet denselben) und liefert den Übersetzungsbereich an den Textextrahierabschnitt202 (Schritt B01). Der Textextrahierabschnitt202 extrahiert alle Ursprungssätze einschließlich des bezeichneten Übersetzungsbereichs. Alle Ursprungssätze werden im Ursprungssatzspeicher210 gespeichert (Schritt B02). In Schritt B02 prüft der Textextrahierabschnitt202 die Art der Daten im Bereich (Schritt B11). Im Fall von Bilddaten wird die Verarbeitung zu Schritt B12 vorgerückt. Im Fall von Zeichencode (Text) wird die Verarbeitung zu Schritt B13 vorgerückt. - Im Fall des Zeichencodes speichert der Ursprungssatzspeicher
210 alle Zeichencodes als Ursprungssatz-Zeichendaten (Schritt B13). Im Fall der Bilddaten gibt der Textextrahierabschnitt202 alle Bilddaten an den Zeichenerkennungsabschnitt203 aus. Der Zeichenerkennungsabschnitt203 extrahiert den gesamten Zeichenteil aus den Bilddaten und erkennt den Zeichenteil als Zeichencode. Die Zeichencodes als Erkennungsergebnis werden an den Textextrahierabschnitt202 ausgegeben (Schritt B12). Der Textextrahierabschnitt202 führt die Zeichencodes als Ursprungssatz-Zeichendaten dem Ursprungssatzspeicher210 zu (Schritt B13). - Als nächstes übersetzt der Übersetzungsabschnitt
205 alle Ursprungssatz-Zeichendaten im Ursprungssatzspeicher210 ins Japanische (Schritt B03). Der Übersetzungssatzspeicher220 speichert den übersetzten Satz, wie in6B gezeigt. In diesem Fall wird jedes Mal, wenn der Übersetzungsabschnitt205 jeden Ursprungssatz übersetzt und jeder übersetzte Satz im Speicher220 für übersetzte Sätze gespeichert wird, das Entsprechungsverhältnis zwischen der Ursprungssatzposition im Ursprungssatzspeicher210 und der Position des übersetzten Satzes im Speicher220 für übersetzte Sätze im Entsprechungsverhältnisspeicher230 gespeichert, wie in6C gezeigt. - Der Anzeigeabschnitt
207 für übersetzte Sätze extrahiert durch Bezugnahme auf den Ursprungssatzspeicher210 , den Speicher220 für übersetzte Sätze und den Entsprechungsverhältnisspeicher230 den dem Ursprungssatz im Bereich entsprechenden übersetzten Satz (Schritt B04). Der übersetzte Satz wird an Stelle des Ursprungssatzes im Bereich angezeigt. In diesem Fall extrahiert der Anzeigeabschnitt207 für übersetzte Sätze Positionsinformationen (Startpunkt, Endpunkt) des durch den Übersetzungsbereich-Bezeichnungsabschnitt201 bezeichneten Abschnitts (Schritt B21). Zum Beispiel wird in6A angenommen, daß „Eine Tar-Datei ist üblicherweise ein Magnetband, aber es kann jede Datei sein." als der Bereich bezeichnet wird. In diesem Fall ist der Startpunkt eines grammatisch vollständigen Satzes „Zeile = 2, Zeichenposition = 32", und der Endpunkt des vollständigen Satzes ist „Zeile = 3, Zeichenposition = 47". Der Anzeigeabschnitt207 für übersetzte Sätze ruft die den Positionsinformationen entsprechende Satznummer aus dem Entsprechungsverhältnisspeicher230 ab (Schritt B22). In diesem Beispiel stimmt der Startpunkt „Zeile = 2, Zeichenposition = 32" mit den Ursprungssatzinformationen des Satzes Nummer 2 überein, und der Endpunkt „Zeile = 3, Zeichenposition = 47" stimmt mit einer Position überein, die den Ursprungssatzinformationen von Satz Nummer 3 vorangeht. Daher wird Satz Nummer 2 abgerufen. - Als nächstes extrahiert der Übersetzungssatzanzeigeabschnitt
207 die Zeichenposition des übersetzten Satzes Nummer 2 (Schritt B23). Bei diesem Beispiel ist der Startpunkt „Zeichenposition = 49" und der Endpunkt ist „Zeichenposition = 88", welche die dem Startpunkt des nächsten Satzes Nummer 3 vorangehende Position ist. Der Anzeigeabschnitt207 für übersetzte Sätze ruft in Übereinstimmung mit der Zeichenposition den übersetzten Satz aus dem Speicher220 für übersetzte Sätze ab (Schritt B24). Bei diesem Beispiel wird, wie in6B gezeigt, im Speicher220 für übersetzte Sätze der übersetzte Satz zwischen der Zeichenposition49 und der Zeichenposition88 abgerufen. Danach wird der übersetzte Satz an den Anzeigeabschnitt207 für übersetzte Sätze ausgegeben (Schritt B25). Der Anzeigeabschnitt207 für übersetzte Sätze zeigt den übersetzten Satz in dem durch den Übersetzungsbereich-Bezeichnungsabschnitt201 bezeichneten Bereich an (Schritt B25). Die Anzeigesituation ist die gleiche wie die von3B oder4B . Im Fall, daß die Länge des übersetzten Satzes (Japanisch) größer ist als die Länge des Ursprungssatzes (Englisch), werden die Zeichengröße oder der Zeichenabstand des übersetzten Satzes verändert, um den übersetzten Satz innerhalb des Bereichs anzuzeigen. - Im Fall, daß der Nutzer einen anderen Bereich des zu übersetzenden Ursprungssatzes auf der Anzeige verwendet, sind alle übersetzten Sätze, die allen Ursprungssätzen entsprechen, bereits im Speicher
220 für übersetzte Sätze gespeichert. Daher sind Zeichenerkennung des Zeichenerkennungsabschnitts203 und Übersetzungsverarbeitung des Übersetzungsabschnitts205 für einen anderen Bereich der Ursprungssätze nicht notwendig. In diesem Fall wird der dem Ursprungssatz des anderen durch den Nutzer bezeichneten Bereichs entsprechende übersetzte Satz nur entsprechend der Verarbeitung von7C abgerufen. Danach wird der übersetzte Satz in dem anderen Bereich an Stelle des Ursprungssatzes angezeigt. - Wie erwähnt, werden beim zweiten Ausführungsbeispiel alle Ursprungssätze im Voraus übersetzt, selbst, wenn ein Ursprungssatz als der übersetzte Bereich bezeichnet wird. Daher ist es, falls ein anderer Ursprungssatz als ein anderer Übersetzungsbereich bezeichnet wird, nicht notwendig, daß ein anderer Ursprungssatz übersetzt wird. Der einem anderen Ursprungssatz entsprechende übersetzte Satz wird nur aus dem Übersetzungssatzspeicher
220 abgerufen und nur auf dem entsprechenden anderen übersetzten Bereich an Stelle eines anderen Ursprungssatzes angezeigt. Daher ist es möglich, die Verarbeitung als Reaktion auf das Bezeichnen des anderen Übersetzungsbereichs durch den Nutzer schnell auszuführen, um den übersetzten Satz anzuzeigen. - Es kann ein Speicher benutzt werden, um die Befehle zum Ausführen des oben beschriebenen Verfahrens zu speichern, wobei ein solcher Speicher eine CD-ROM, eine Magnetdiskette oder dergleichen sein kann.
- Während ein erstes und ein zweites Ausführungsbeispiel illustriert und beschrieben worden sind, bei denen ein Satz zum Übersetzen bezeichnet wird und ein entsprechender übersetzter Satz im bezeichneten Bereich angezeigt wird, ist die Erfindung nicht so begrenzt. Der bezeichnete Bereich kann mehr als einen Satz zum Übersetzen einschließen, so daß die entsprechende Gruppe von übersetzten Sätzen im bezeichneten Bereich angezeigt wird.
- Zusätzliche Vorteile und Modifikationen werden Fachleuten auf dem Gebiet leicht offensichtlich sein. Die Erfindung in ihren weiteren Aspekten ist daher nicht auf die gezeigten und beschriebenen spezifischen Einzelheiten, die repräsentative Vorrichtung und das Verfahren und die illustrativen Beispiele begrenzt. Dementsprechend können Abweichungen von solchen Einzelheiten vorgenommen werden, ohne vom Geist oder Rahmen des allgemeinen erfindungsgemäßen Konzepts abzuweichen. Folglich ist beabsichtigt, daß diese Erfindung die Modifikationen und Veränderungen der Erfindung abdeckt, vorausgesetzt, sie liegen innerhalb des Rahmens der angefügten Ansprüche und ihrer Äquivalente.
Claims (17)
- Übersetzungsanzeigevorrichtung, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Bereichsextrahiermittel zum Extrahieren eines der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich und Übersetzungsmittel zum Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel den übersetzten Satz im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich anzeigt.
- Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der das Übersetzungsmittel einen grammatikalisch vollständigen der durch die Bereichsextrahiermittel extrahierten Ursprungssätze übersetzt.
- Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der das Bereichsextrahiermittel in Übereinstimmung mit einem Inhalt des bezeichneten Bereichs auf dem Anzeigemittel wenigstens Textdaten oder Bilddaten extrahiert.
- Übersetzungsanzeigevorrichtung nach Anspruch 3, die außerdem Zeichenerkennungsmittel zum Extrahieren eines Zeichenteils von durch die Bereichsextrahiermittel extrahierten Bilddaten und zum Erkennen des extrahierten Zeichenteils als Zeichencode umfaßt.
- Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der eine Größe des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel eingestellt werden kann.
- Übersetzungsanzeigevorrichtung nach Anspruch 1, bei der eine Position des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel bewegt oder in der Größe verändert werden kann, während der dem extrahierten Ursprungssatz entsprechende übersetzte Satz im bezeichneten Bereich angezeigt wird.
- Übersetzungsanzeigevorrichtung, die folgendes umfaßt: Anzeigemittel zum Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Übersetzungsbereich-Bezeichnungsmittel zum Bezeichnen eines Bereichs der angezeigten Ursprungssätze, die übersetzt werden sollen, auf dem Anzeigemittel, Extrahiermittel zum Extrahieren der auf dem Anzeigemittel angezeigten Vielzahl von Ursprungssätzen und Übersetzungsmittel zum Übersetzen der vom Extrahiermittel extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, bei der das Anzeigemittel aus allen durch das Übersetzungsmittel übersetzten Sätzen einen übersetzten Satz, der einem der Ursprungssätze im durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereich entspricht, extrahiert und den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
- Übersetzungsanzeigevorrichtung nach Anspruch 7, bei der das Extrahiermittel in Übereinstimmung mit einem Inhalt der auf dem Anzeigemittel angezeigten Vielzahl von Ursprungssätzen wenigstens Textdaten oder Bilddaten extrahiert.
- Übersetzungsanzeigevorrichtung nach Anspruch 8, die außerdem Zeichenerkennungsmittel zum Extrahieren eines Zeichenteils von durch die Extrahiermittel extrahierten Bilddaten und zum Erkennen des extrahierten Zeichenteils als Zeichencode umfaßt.
- Übersetzungsanzeigevorrichtung nach Anspruch 7, bei der eine Größe des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel eingestellt werden kann.
- Übersetzungsanzeigevorrichtung nach Anspruch 7, bei der eine Position des durch die Übersetzungsbereich-Bezeichnungsmittel bezeichneten Bereichs auf dem Anzeigemittel bewegt werden kann, während der dem extrahierten Ursprungssatz entsprechende übersetzte Satz im bezeichneten Bereich angezeigt wird.
- Übersetzungsanzeigevorrichtung nach Anspruch 7, die außerdem einen Ursprungssatzspeicher zum Speichern der durch das Extrahiermittel extrahierten Vielzahl von Ursprungssätzen, einen Speicher für übersetzte Sätze zum Speichern aller durch das Übersetzungsmittel übersetzten Sätze und einen Entsprechungsverhältnisspeicher zum Speichern von Informationen über das Entsprechungsverhältnis zwischen jedem der Ursprungssätze im Ursprungssatzspeicher und einem entsprechenden der übersetzten Sätze im Speicher für übersetzte Sätze umfaßt, bei der das Anzeigemittel in Übereinstimmung mit den Informationen über das Entsprechungsverhältnis im Entsprechungsverhältnisspeicher den dem Ursprungssatz im bezeichneten Bereich entsprechenden übersetzten Satz extrahiert.
- Übersetzungsanzeigevorrichtung nach Anspruch 12, bei der die Informationen über das Entsprechungsverhältnis für jeden der Ursprungssätze ein Verhältnis zwischen einer Anzeigeposition jedes der Ursprungssätze auf dem Anzeigemittel und einer Speicherposition des entsprechenden übersetzten Satzes im Speicher für übersetzte Sätze einschließt.
- Verfahren zum Anzeigen eines übersetzten Satzes, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren eines der Ursprungssätze im bezeichneten Bereich, Übersetzen des extrahierten Ursprungssatzes aus der ersten Sprache in eine zweite Sprache und Anzeigen des übersetzten Satzes in dem beim Bezeichnungsschritt bezeichneten Bereich.
- Verfahren zum Anzeigen eines übersetzten Satzes, das die folgenden Schritte umfaßt: Anzeigen einer Vielzahl von Ursprungssätzen einer ersten Sprache, Bezeichnen eines Bereichs der angezeigten Ursprungssätze, Extrahieren der angezeigten Vielzahl von Ursprungssätzen, Übersetzen der beim Extrahierschritt extrahierten Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache, Extrahieren eines der übersetzten Sätze, der dem Ursprungssatz im bezeichneten Bereich entspricht, aus allen beim Übersetzungsschritt übersetzten Sätzen und Anzeigen des extrahierten übersetzten Satzes im bezeichneten Bereich.
- Rechnerlesbarer Speicher, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich des angezeigten Ursprungssatzes bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner einen der Ursprungssätze im bezeichneten Bereich extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten Ursprungssatz aus der ersten Sprache in eine zweite Sprache übersetzt, und Befehlsmittel, um zu bewirken, daß ein Rechner den übersetzten Satz im bezeichneten Bereich anzeigt.
- Rechnerlesbarer Speicher, der folgendes umfaßt: Befehlsmittel, um zu bewirken, daß ein Rechner eine Vielzahl von Ursprungssätzen einer ersten Sprache anzeigt, Befehlsmittel, um zu bewirken, daß ein Rechner einen Bereich der angezeigten Ursprungssätze bezeichnet, Befehlsmittel, um zu bewirken, daß ein Rechner die angezeigte Vielzahl von Ursprungssätzen extrahiert, Befehlsmittel, um zu bewirken, daß ein Rechner die extrahierte Vielzahl von Ursprungssätzen aus der ersten Sprache in eine zweite Sprache übersetzt, Befehlsmittel, um zu bewirken, daß ein Rechner aus allen übersetzten Sätzen einen der übersetzten Sätze extrahiert, der dem Ursprungssatz im bezeichneten Bereich entspricht, und Befehlsmittel, um zu bewirken, daß ein Rechner den extrahierten übersetzten Satz im bezeichneten Bereich anzeigt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7231621A JPH0981566A (ja) | 1995-09-08 | 1995-09-08 | 翻訳装置及び翻訳方法 |
JP23162195 | 1995-09-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69630928D1 DE69630928D1 (de) | 2004-01-15 |
DE69630928T2 true DE69630928T2 (de) | 2004-10-28 |
Family
ID=16926386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69630928T Expired - Fee Related DE69630928T2 (de) | 1995-09-08 | 1996-09-04 | Vorrichtung und Verfahren zum Anzeigen einer Übersetzung |
Country Status (4)
Country | Link |
---|---|
US (1) | US5978754A (de) |
EP (1) | EP0762298B1 (de) |
JP (1) | JPH0981566A (de) |
DE (1) | DE69630928T2 (de) |
Families Citing this family (150)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL121457A (en) * | 1997-08-03 | 2004-06-01 | Guru Internat Inc | Computerized dictionary and thesaurus applications |
DE59801557D1 (de) * | 1997-12-29 | 2001-10-25 | Oce Printing Systems Gmbh | Verfahren und system zum steuern einer bedieneroberfläche mit grafik und texte enthaltenden anzeigefeldern |
GB9727322D0 (en) | 1997-12-29 | 1998-02-25 | Xerox Corp | Multilingual information retrieval |
JP3666005B2 (ja) * | 1998-03-03 | 2005-06-29 | マツダ株式会社 | 特許情報検索システム、特許情報検索装置、情報検索中継装置並びに特許情報検索方法 |
US7099876B1 (en) | 1998-12-15 | 2006-08-29 | International Business Machines Corporation | Method, system and computer program product for storing transliteration and/or phonetic spelling information in a text string class |
US6496844B1 (en) | 1998-12-15 | 2002-12-17 | International Business Machines Corporation | Method, system and computer program product for providing a user interface with alternative display language choices |
WO2000079427A2 (en) * | 1999-06-21 | 2000-12-28 | Cleverlearn.Com | Language teaching and translation system and method |
US20040205671A1 (en) * | 2000-09-13 | 2004-10-14 | Tatsuya Sukehiro | Natural-language processing system |
US20020133523A1 (en) * | 2001-03-16 | 2002-09-19 | Anthony Ambler | Multilingual graphic user interface system and method |
US20030040899A1 (en) * | 2001-08-13 | 2003-02-27 | Ogilvie John W.L. | Tools and techniques for reader-guided incremental immersion in a foreign language text |
US6993473B2 (en) * | 2001-08-31 | 2006-01-31 | Equality Translation Services | Productivity tool for language translators |
DE10147920A1 (de) * | 2001-09-28 | 2003-04-17 | Siemens Ag | Digitales Bildaufnahmegerät |
US7536294B1 (en) * | 2002-01-08 | 2009-05-19 | Oracle International Corporation | Method and apparatus for translating computer programs |
US20030200078A1 (en) * | 2002-04-19 | 2003-10-23 | Huitao Luo | System and method for language translation of character strings occurring in captured image data |
US7209915B1 (en) | 2002-06-28 | 2007-04-24 | Microsoft Corporation | Method, system and apparatus for routing a query to one or more providers |
SG125908A1 (en) * | 2002-12-30 | 2006-10-30 | Singapore Airlines Ltd | Multi-language communication method and system |
US8170863B2 (en) * | 2003-04-01 | 2012-05-01 | International Business Machines Corporation | System, method and program product for portlet-based translation of web content |
US7558841B2 (en) * | 2003-05-14 | 2009-07-07 | Microsoft Corporation | Method, system, and computer-readable medium for communicating results to a data query in a computer network |
US20050086699A1 (en) * | 2003-10-16 | 2005-04-21 | Hamilton Relay, Inc. | Video relay system and method |
US20050111651A1 (en) * | 2003-11-21 | 2005-05-26 | Armando Chavez | Script translation |
US7245705B2 (en) * | 2004-02-26 | 2007-07-17 | Hamilton Relay, Inc. | Internet protocol (IP) relay system and method |
US7669198B2 (en) * | 2004-11-18 | 2010-02-23 | International Business Machines Corporation | On-demand translator for localized operating systems |
JP2006276918A (ja) * | 2005-03-25 | 2006-10-12 | Fuji Xerox Co Ltd | 翻訳装置、翻訳方法およびプログラム |
US20070048076A1 (en) * | 2005-08-31 | 2007-03-01 | To Chun Y | Fastening system for a ring binder mechanism |
JP4735148B2 (ja) * | 2005-09-14 | 2011-07-27 | 富士ゼロックス株式会社 | 表示装置及び翻訳結果表示方法 |
US7788590B2 (en) | 2005-09-26 | 2010-08-31 | Microsoft Corporation | Lightweight reference user interface |
US7992085B2 (en) | 2005-09-26 | 2011-08-02 | Microsoft Corporation | Lightweight reference user interface |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US9558449B2 (en) | 2005-10-26 | 2017-01-31 | Cortica, Ltd. | System and method for identifying a target area in a multimedia content element |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US11361014B2 (en) | 2005-10-26 | 2022-06-14 | Cortica Ltd. | System and method for completing a user profile |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US9330189B2 (en) | 2005-10-26 | 2016-05-03 | Cortica, Ltd. | System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item |
US9466068B2 (en) | 2005-10-26 | 2016-10-11 | Cortica, Ltd. | System and method for determining a pupillary response to a multimedia data element |
US9286623B2 (en) | 2005-10-26 | 2016-03-15 | Cortica, Ltd. | Method for determining an area within a multimedia content element over which an advertisement can be displayed |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US10191976B2 (en) | 2005-10-26 | 2019-01-29 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US11386139B2 (en) | 2005-10-26 | 2022-07-12 | Cortica Ltd. | System and method for generating analytics for entities depicted in multimedia content |
US10535192B2 (en) | 2005-10-26 | 2020-01-14 | Cortica Ltd. | System and method for generating a customized augmented reality environment to a user |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US9767143B2 (en) | 2005-10-26 | 2017-09-19 | Cortica, Ltd. | System and method for caching of concept structures |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US10635640B2 (en) | 2005-10-26 | 2020-04-28 | Cortica, Ltd. | System and method for enriching a concept database |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US9529984B2 (en) | 2005-10-26 | 2016-12-27 | Cortica, Ltd. | System and method for verification of user identification based on multimedia content elements |
US8266185B2 (en) | 2005-10-26 | 2012-09-11 | Cortica Ltd. | System and methods thereof for generation of searchable structures respective of multimedia data content |
US9087049B2 (en) * | 2005-10-26 | 2015-07-21 | Cortica, Ltd. | System and method for context translation of natural language |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US9953032B2 (en) | 2005-10-26 | 2018-04-24 | Cortica, Ltd. | System and method for characterization of multimedia content signals using cores of a natural liquid architecture system |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US8312031B2 (en) | 2005-10-26 | 2012-11-13 | Cortica Ltd. | System and method for generation of complex signatures for multimedia data content |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US10698939B2 (en) | 2005-10-26 | 2020-06-30 | Cortica Ltd | System and method for customizing images |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US11620327B2 (en) | 2005-10-26 | 2023-04-04 | Cortica Ltd | System and method for determining a contextual insight and generating an interface with recommendations based thereon |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US10949773B2 (en) | 2005-10-26 | 2021-03-16 | Cortica, Ltd. | System and methods thereof for recommending tags for multimedia content elements based on context |
US9256668B2 (en) | 2005-10-26 | 2016-02-09 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US9031999B2 (en) | 2005-10-26 | 2015-05-12 | Cortica, Ltd. | System and methods for generation of a concept based database |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9396435B2 (en) | 2005-10-26 | 2016-07-19 | Cortica, Ltd. | System and method for identification of deviations from periodic behavior patterns in multimedia content |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US10380164B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for using on-image gestures and multimedia content elements as search queries |
US9235557B2 (en) | 2005-10-26 | 2016-01-12 | Cortica, Ltd. | System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US10360253B2 (en) | 2005-10-26 | 2019-07-23 | Cortica, Ltd. | Systems and methods for generation of searchable structures respective of multimedia data content |
US9489431B2 (en) | 2005-10-26 | 2016-11-08 | Cortica, Ltd. | System and method for distributed search-by-content |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US9191626B2 (en) | 2005-10-26 | 2015-11-17 | Cortica, Ltd. | System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto |
US9639532B2 (en) | 2005-10-26 | 2017-05-02 | Cortica, Ltd. | Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US9477658B2 (en) | 2005-10-26 | 2016-10-25 | Cortica, Ltd. | Systems and method for speech to speech translation using cores of a natural liquid architecture system |
US20080213734A1 (en) * | 2006-04-02 | 2008-09-04 | Steve George Guide | Method for Decoding Pictographic Signs Present on Ancient Artifacts |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
JP4256891B2 (ja) * | 2006-10-27 | 2009-04-22 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 機械翻訳の精度を向上させる技術 |
US20080168049A1 (en) * | 2007-01-08 | 2008-07-10 | Microsoft Corporation | Automatic acquisition of a parallel corpus from a network |
US20090162818A1 (en) * | 2007-12-21 | 2009-06-25 | Martin Kosakowski | Method for the determination of supplementary content in an electronic device |
JP4626777B2 (ja) * | 2008-03-14 | 2011-02-09 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
US9767095B2 (en) | 2010-05-21 | 2017-09-19 | Western Standard Publishing Company, Inc. | Apparatus, system, and method for computer aided translation |
US8948892B2 (en) | 2011-03-23 | 2015-02-03 | Audible, Inc. | Managing playback of synchronized content |
US9734153B2 (en) | 2011-03-23 | 2017-08-15 | Audible, Inc. | Managing related digital content |
US8862255B2 (en) | 2011-03-23 | 2014-10-14 | Audible, Inc. | Managing playback of synchronized content |
US8855797B2 (en) | 2011-03-23 | 2014-10-07 | Audible, Inc. | Managing playback of synchronized content |
US9760920B2 (en) | 2011-03-23 | 2017-09-12 | Audible, Inc. | Synchronizing digital content |
US9703781B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Managing related digital content |
US9706247B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Synchronized digital content samples |
US9189476B2 (en) * | 2012-04-04 | 2015-11-17 | Electronics And Telecommunications Research Institute | Translation apparatus and method thereof for helping a user to more easily input a sentence to be translated |
US9075760B2 (en) | 2012-05-07 | 2015-07-07 | Audible, Inc. | Narration settings distribution for content customization |
US9317500B2 (en) * | 2012-05-30 | 2016-04-19 | Audible, Inc. | Synchronizing translated digital content |
JP5708569B2 (ja) * | 2012-06-18 | 2015-04-30 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9141257B1 (en) | 2012-06-18 | 2015-09-22 | Audible, Inc. | Selecting and conveying supplemental content |
US8972265B1 (en) | 2012-06-18 | 2015-03-03 | Audible, Inc. | Multiple voices in audio content |
KR20130143320A (ko) * | 2012-06-21 | 2013-12-31 | 한국전자통신연구원 | 시선 추적을 이용한 번역 인터페이스 장치 및 방법 |
US9536439B1 (en) | 2012-06-27 | 2017-01-03 | Audible, Inc. | Conveying questions with content |
US9679608B2 (en) | 2012-06-28 | 2017-06-13 | Audible, Inc. | Pacing content |
US10109278B2 (en) | 2012-08-02 | 2018-10-23 | Audible, Inc. | Aligning body matter across content formats |
US8996354B1 (en) * | 2012-09-10 | 2015-03-31 | Kabam, Inc. | Facilitating localization of linguistic assets of a virtual space |
US9367196B1 (en) | 2012-09-26 | 2016-06-14 | Audible, Inc. | Conveying branched content |
US9632647B1 (en) | 2012-10-09 | 2017-04-25 | Audible, Inc. | Selecting presentation positions in dynamic content |
US9223830B1 (en) | 2012-10-26 | 2015-12-29 | Audible, Inc. | Content presentation analysis |
US9170714B2 (en) * | 2012-10-31 | 2015-10-27 | Google Technology Holdings LLC | Mixed type text extraction and distribution |
US9280906B2 (en) | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
US9472113B1 (en) | 2013-02-05 | 2016-10-18 | Audible, Inc. | Synchronizing playback of digital content with physical content |
CN103294194B (zh) * | 2013-04-28 | 2016-12-28 | 小米科技有限责任公司 | 一种基于眼球跟踪的翻译方法及系统 |
US9317486B1 (en) | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
US9489360B2 (en) | 2013-09-05 | 2016-11-08 | Audible, Inc. | Identifying extra material in companion content |
KR102135358B1 (ko) * | 2013-11-05 | 2020-07-17 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
JP6328409B2 (ja) * | 2013-11-28 | 2018-05-23 | シャープ株式会社 | 翻訳装置 |
US11037015B2 (en) | 2015-12-15 | 2021-06-15 | Cortica Ltd. | Identification of key points in multimedia data elements |
US11195043B2 (en) | 2015-12-15 | 2021-12-07 | Cortica, Ltd. | System and method for determining common patterns in multimedia content elements based on key points |
KR101861006B1 (ko) | 2016-08-18 | 2018-05-28 | 주식회사 하이퍼커넥트 | 통역 장치 및 방법 |
US11760387B2 (en) | 2017-07-05 | 2023-09-19 | AutoBrains Technologies Ltd. | Driving policies determination |
WO2019012527A1 (en) | 2017-07-09 | 2019-01-17 | Cortica Ltd. | ORGANIZATION OF DEPTH LEARNING NETWORKS |
US10846544B2 (en) | 2018-07-16 | 2020-11-24 | Cartica Ai Ltd. | Transportation prediction system and method |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US11700356B2 (en) | 2018-10-26 | 2023-07-11 | AutoBrains Technologies Ltd. | Control transfer of a vehicle |
US10748038B1 (en) | 2019-03-31 | 2020-08-18 | Cortica Ltd. | Efficient calculation of a robust signature of a media unit |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
CN109918685B (zh) * | 2019-03-18 | 2023-10-17 | 百度在线网络技术(北京)有限公司 | 计算机辅助翻译方法、装置、计算机设备及存储介质 |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US12055408B2 (en) | 2019-03-28 | 2024-08-06 | Autobrains Technologies Ltd | Estimating a movement of a hybrid-behavior vehicle |
US10789527B1 (en) | 2019-03-31 | 2020-09-29 | Cortica Ltd. | Method for object detection using shallow neural networks |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
CN112183121B (zh) | 2019-09-20 | 2022-02-25 | 华为技术有限公司 | 机器翻译的方法和电子设备 |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
US12049116B2 (en) | 2020-09-30 | 2024-07-30 | Autobrains Technologies Ltd | Configuring an active suspension |
US12142005B2 (en) | 2020-10-13 | 2024-11-12 | Autobrains Technologies Ltd | Camera based distance measurements |
US12139166B2 (en) | 2021-06-07 | 2024-11-12 | Autobrains Technologies Ltd | Cabin preferences setting that is based on identification of one or more persons in the cabin |
US12110075B2 (en) | 2021-08-05 | 2024-10-08 | AutoBrains Technologies Ltd. | Providing a prediction of a radius of a motorcycle turn |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5351189A (en) * | 1985-03-29 | 1994-09-27 | Kabushiki Kaisha Toshiba | Machine translation system including separated side-by-side display of original and corresponding translated sentences |
JPS6244877A (ja) * | 1985-08-22 | 1987-02-26 | Toshiba Corp | 機械翻訳装置 |
GB2199680A (en) * | 1986-11-28 | 1988-07-13 | Sharp Kk | Translating apparatus |
US5005127A (en) * | 1987-10-26 | 1991-04-02 | Sharp Kabushiki Kaisha | System including means to translate only selected portions of an input sentence and means to translate selected portions according to distinct rules |
US5276616A (en) * | 1989-10-16 | 1994-01-04 | Sharp Kabushiki Kaisha | Apparatus for automatically generating index |
JP2758952B2 (ja) * | 1989-12-28 | 1998-05-28 | 富士通株式会社 | 日本語文書読取翻訳システムの修正時における表示方式 |
US5251130A (en) * | 1991-04-18 | 1993-10-05 | International Business Machines Corporation | Method and apparatus for facilitating contextual language translation within an interactive software application |
JPH05120324A (ja) * | 1991-10-30 | 1993-05-18 | Sharp Corp | 言語処理方式 |
US5275569A (en) * | 1992-01-30 | 1994-01-04 | Watkins C Kay | Foreign language teaching aid and method |
JPH08227423A (ja) * | 1995-02-20 | 1996-09-03 | Matsushita Electric Ind Co Ltd | 機械翻訳装置 |
-
1995
- 1995-09-08 JP JP7231621A patent/JPH0981566A/ja active Pending
-
1996
- 1996-09-04 DE DE69630928T patent/DE69630928T2/de not_active Expired - Fee Related
- 1996-09-04 EP EP96306410A patent/EP0762298B1/de not_active Expired - Lifetime
- 1996-09-06 US US08/709,544 patent/US5978754A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0762298A3 (de) | 2002-01-09 |
US5978754A (en) | 1999-11-02 |
DE69630928D1 (de) | 2004-01-15 |
JPH0981566A (ja) | 1997-03-28 |
EP0762298B1 (de) | 2003-12-03 |
EP0762298A2 (de) | 1997-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69630928T2 (de) | Vorrichtung und Verfahren zum Anzeigen einer Übersetzung | |
DE69425607T2 (de) | Selektive Einrichtung und Verfahren zur Dokumentenwiederauffindung. | |
DE69129163T2 (de) | Verfahren und Vorrichtung zur Texteingabe | |
DE68926845T2 (de) | Maschinenübersetzungssystem | |
DE60120810T2 (de) | Verfahren zur Dokumenterkennung und -indexierung | |
DE69317863T2 (de) | Übersetzungssystem Gebärdensprache/Wort | |
DE3850595T2 (de) | Dokumentverarbeitungssystem. | |
DE69400276T2 (de) | Zeichensatzsystem für texteingabe | |
DE69330427T2 (de) | Spracherkennungssystem für sprachen mit zusammengesetzten wörtern | |
DE60122352T2 (de) | Augenverfolgung für kontextabhängige spracherkennung | |
DE69428868T2 (de) | Verfahren und System zum Aufzeigen von Alternativen zur Auswahl durch Gebrauch von adaptiven Lernen | |
DE69927000T2 (de) | Übersetzungssystem und multifunktioneller computer, insbesondere für die bearbeitung von texten und die übersetzung auf papier | |
DE69428590T2 (de) | Auf kombiniertem lexikon und zeichenreihenwahrscheinlichkeit basierte handschrifterkennung | |
DE3317325C2 (de) | ||
DE68926068T2 (de) | Dokumentenverarbeitungssystem | |
DE69225760T2 (de) | Methode und System zur Unterstützung von mehrfacher Textselektion und "swipe and type" Operationen auf einer Rechneranzeige | |
DE69609866T2 (de) | Flexibles system und verfahren zum verknüpfen von hyperlinks | |
DE19953608B4 (de) | Vorrichtung und Verfahren zum Erkennen eines Fonts eines Textes in einem Dokumentenverarbeitungssystem | |
DE69230092T2 (de) | Verfahren und Gerät zur Zeichenerkennung | |
EP0304129A2 (de) | Verfahren und Anordnung zum Aufbereiten eines Kennsignals | |
EP0150813A2 (de) | Verfahren zur Manipulation von Bildschirmdarstellungen durch Sprachbefehle | |
DE60319586T2 (de) | Elektronisches wörterbuch mit beispielsätzen | |
DE10124429A1 (de) | System und Verfahren für eine verbesserte Rechtschreibprüfung | |
DE69610520T2 (de) | Handgeschriebene Daten und Befehlgesteneingabemethode und Gerät | |
DE69518677T2 (de) | Elektronischer Übersetzungsapparat |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
8339 | Ceased/non-payment of the annual fee |