[go: up one dir, main page]

DE69803168T2 - Videokonferenzsystem - Google Patents

Videokonferenzsystem

Info

Publication number
DE69803168T2
DE69803168T2 DE69803168T DE69803168T DE69803168T2 DE 69803168 T2 DE69803168 T2 DE 69803168T2 DE 69803168 T DE69803168 T DE 69803168T DE 69803168 T DE69803168 T DE 69803168T DE 69803168 T2 DE69803168 T2 DE 69803168T2
Authority
DE
Germany
Prior art keywords
screen
location
participants
sound
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69803168T
Other languages
English (en)
Other versions
DE69803168D1 (de
Inventor
Georges Buchner
Jean-Pascal Jullien
Yannick Mahieux
Christian Wipliez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Application granted granted Critical
Publication of DE69803168D1 publication Critical patent/DE69803168D1/de
Publication of DE69803168T2 publication Critical patent/DE69803168T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

  • Die Erfindung betrifft ein Video- oder Telefonkonferenzsystem zwischen Teilnehmern, die sich an verschiedenen, im Allgemeinen entfernten Orten befinden.
  • Sie betrifft Multipunkt-Systeme, das heißt Systeme, die ermöglichen, eine audiovisuelle Verbindung zwischen Teilnehmern mehrerer Orte herzustellen. Sie betrifft auch Punkt-zu-Punkt-Systeme, das heißt Systeme, die nur zwei Orte audiovisuell verbinden. Sie betrifft außerdem Videophone, die durch Konferenzbrücken verbunden sind.
  • Die Einrichtungen für ein Videokonferenzsystem für einen bestimmten Ort befinden sich in einer Lokalität, die in der Folge Raum oder Studio genannt wird. Die Teilnehmer sitzen meist um einen Konferenztisch herum, vor einem Bildschirm.
  • Heute schlagen die kommerziellen Videodienste und -systeme Multipunkt- Verbindungen von begrenzter audiovisuellen Qualität vor, bedingt entweder durch die Qualität der Endeinrichtungen (Tonwiedergabe und Bildwiedergabe), oder intrinsisch bedingt durch das Fehlen von Übertragungsleistung, verursacht durch die vom benutzten Netzwerk abhängige Begrenzung des Durchlassbands.
  • Die Konferenzsysteme sind nämlich entsprechend mehreren Konfigurationen an digitale Netze angeschlossen, hauptsächlich an RNIS-Netze, im Punkt-zu-Punkt-Betrieb oder im Multipunkt-Betrieb.
  • So variiert im NUMERIS-Netz die für diese Dienste angebotene Leistung zwischen 128 kbit/s für den unteren Bereich und 384 kbit/s für den oberen Bereich.
  • Die benutzten Terminals entsprechen prinzipiell den ITU-Standards sowie der Gesamtheit der H320-Normen.
  • Bei bestimmten System kann man zum selben Zeitpunkt immer nur einen entfernten Raum sehen. Das stört die Benutzer, die sich nicht alle gleichzeitig sehen können. Ein manuelles oder automatisches Umschaltsystem wählt den Raum aus, der auf dem Bildschirm präsentiert wird. Im Allgemeinen handelt es sich um den Raum, der das stärkste Audiosignal überträgt (Stimmumschaltung). Dies ist der Fall der Konferenzbrücken, die das Bild in Abhängigkeit von einer Vokaldetektion umschalten, das heißt entsprechend dem akustisch aktivsten Raum.
  • Andere Systeme benutzen die ITU-Normung des Typs H 320 oder H 323 oder eine andere, und schalten eine Zentraleinheit ein, um die Bilder aller Multipunkt- Videokonferenz-Einrichtungen oder MCUs (Abkürzung von Multi Conference Unit) zu empfangen, wie definiert durch die Normen H 231 und H 243. Diese Einheit gibt Bilder wieder, indem sie das Durchlassband in Richtung einer MCU ebenso oft teilt, wie Bilder zu übertragen sind.
  • Dazu realisiert man eine Codierung, die die zu übertragenden Daten stark komprimiert, mit einem Kompressionsfaktor von 40 bis 50. Man verliert also ungefähr ³/&sub4; des von jedem Raum übertragenen Bildes (bei Multipunkt-Systemen bis zu 5 Räume).
  • Die digitale Kompression der verwendeten Bilder kann vom Typ H 320 mit einer H 261-Codierung sein, oder vom Typ H 323 mit einer H 263-Codierung, oder vom Typ moving JPEG (ISO-Norm), oder vom Typ MPEG1 oder vom Typ MPEG2.
  • Bei jedem dieser Profile können die gesendeten Bilder vom Typ Informatik- bzw. Computerdatei sein.
  • In allen Fällen sind die empfangenen Bilder schlecht und vermitteln auf gar keinen Fall den Eindruck der Mitanwesenheit.
  • Das Dokument mit der größten Nähe aus dem Stand der Technik ist WO-A-94 16 517 (BELL COMMUNICATIONS RES) vom 21. Juli 1994, das ein Telekonferenzsystem beschreibt, das die Stereowirkung des Tons in Abhängigkeit von der Position der aktiven Person steuert, wobei auf der Senderseite mehrere Richtungsmikrophone verwendet werden, die ein monophones Signal und ein "Richtungs"-Signal übertragen und aufgrund dieser Signale auf der Empfängerseite ein räumliches Stereophoniebild erzeugen, das dem übertragenen Bild entspricht, das heißt, dass der Ton einer Quelle von der Abbildung dieser Quelle auf dem Bildschirm zu kommen scheint.
  • Das Dokument von SUSUMU ICHINOSE: "VISUAL TELEPHONE" vom 1. März 1993, NTT REVIEW, Vol. 5, Nr. 2, Seiten 59-66, XP000364720, beschreibt ein Telekonferenzsystem mit echtem Eindruck aufgrund einer 3D-Videodarstellung und selbstverständlich einer entsprechenden Tonübertragung. Darüber, wie dieser Ton plastisch gemacht wird, werden keine Details angegeben.
  • Im Falle des Tons verwendet man Codier- oder Kompressionssysteme mit Bitraten des Typs G722 oder G711, die die Originalqualität des Tonsignals nicht berücksichtigen, weder bei der Bandbreite noch bei der Codierqualität selbst.
  • Das erfindungsgemäße Videokonferenzsystem hat die Aufgabe, Fernkonferenzen ein Maximum an Telepräsenz anzubieten, indem die Grenzen der heute kommerzialisierten Systeme überschritten werden. Es ermöglicht, entfernte Teilnehmer auf Bildschirmen sichtbar zu machen (annähernd im Maßstab 1 : 1), mit deutlicher Wiedergabe von Strukturen und Gebärden und einer Übereinstimmung der sichtbaren Bilder und der hörbaren Bilder dank einer Räumlichmachung der von den entfernten Teilnehmern erzeugten Töne bzw. Geräusche, gesteuert in Abhängigkeit von der Bildaufnahme.
  • Es ermöglicht die Realisierung einer Dauerpräsenz der entfernten Teilnehmer, selbst in Multipunkt-Situationen. Das System ermöglicht außerdem eine Minimalisierung der Parallaxefehler (auf Englisch "eye contact"), indem n ziemlich nahe bei den aufzunehmenden Bildern befindliche Kameras benutzt werden (angeordnet zum Beispiel in Öffnungen des Bildschirms), wie dies in der Folge angegeben wird. Es ermöglicht auch eine High-Fidelity-Tonwiedergabe.
  • Die vorliegende Erfindung hat insbesondere ein Videokonferenzsystem nach Anspruch 1 zum Gegenstand.
  • Das Bild der entfernten Teilnehmer wird im Studio in einem Maßstab von nahezu 1 : 1 erzeugt, wobei dieser Maßstab abhängig ist von dem Abstand zwischen dem Bildschirm und dem Tisch, wo sich die Teilnehmer befinden. Dies führt zum Beispiel zu einem Bildschirm mit den typischen Abmessungen von ungefähr 5 · 2 m, um 4 entfernte Räume mit Jeweils ungefähr 4 Personen sichtbar zu machen.
  • Das Videokonferenzsystem umfasst eine oder mehrere Aufnahmeeinheiten (CA1), (CA2) und Tonaufnahmesysteme (Mikrophone oder akustische Antennen). Die Tonaufnahmegrößen bzw. -daten werden der einen oder anderen der Bildaufnahmeeinheiten zugeordnet, je nach dem, ob die übertragenen Videosignale von der einen oder der anderen Einheit (CA1), (CA2) stammen.
  • Noch genauer ermöglicht die Zuordnung, eine "subjektive Überlagerung" zu erhalten, wobei die Tonquelle sich nahe (in der Achse) beim zugeordneten Bild befindet.
  • Nach einem anderen Merkmal der Erfindung umfassen die Tonaufnahme- und - wiedergabeeinrichtungen:
  • - eine Erfassungs- und Digitalisierungseinheit der Signale;
  • - eine Einheit zur Wiedergabe und Digital-Analog-Umsetzung der Signale;
  • - n Mikrophone, verteilt vor den Teilnehmern des genannten Orts;
  • - p Lautsprecher, verteilt längs des Bildschirms, wobei p proportional zur Größe des Bildschirms ist;
  • - Einrichtungen zur Herstellung der Übereinstimmung zwischen einem oder mehreren Mikrophonen, dem von diesem oder diesen Mikrophon(en) stammenden Signal(en) und dem oder den Lautsprecher(n) der entfernten Orte, die dazu bestimmt sind, diese Signale wiederzugeben;
  • - Einrichtungen zu Anpassung an das Netz, darin bestehend, die Bitrate zu reduzieren;
  • - Echokontrolleinrichtungen.
  • Die Herstellung eines Raumtons ermöglicht, die Tonbilder und die visuellen Bilder in Übereinstimmung zu bringen. Außer der Tatsache, dass dies den Effekt der Telepräsenz stark erhöht, ermöglicht es, mehrere parallele Konversationen zwischen den beiden entfernten Räumen durchzuführen. Das Führen der Konversationen wird vereinfacht durch die Möglichkeit, sich auf die Person zu konzentrieren, der man zuhören möchte, wie bei einer natürlichen bzw. normalen Besprechung.
  • Die Einrichtungen zur Herstellung der Übereinstimmung zwischen Mikrophon, von diesem Mikrophon stammendem Signal und Lautsprecher an den entfernten Orten, die dieses Signal wiedergeben, werden durch Programmierung der erwünschten Konfiguration realisiert. Diese Programmierung kann darin bestehen, eine oder mehrere vorher festgelegte Konfigurationen abzuspeichern.
  • Nach einem anderen Merkmal umfassen die Bildaufnahmeeinrichtungen für jeden Ort q Kameras, wobei diese Anzahl vorzugsweise größer oder gleich 2 ist. Die Kameras sind vor den Teilnehmern des genannten Orts angeordnet, so dass sie auf die verschiedenen Bildanzeigezonen der verschiedenen Teilnehmer auf dem Bildschirm verteilt sind, oder in der Nähe dieser Zonen. Die Kameras können praktisch in dem unteren Teil oder dem oberen Teil verteilt sein, oder um den Bildschirm herum.
  • In jedem Raum können mehrere Kameras sein, die unter verschiedenen Winkeln um die Teilnehmer herum angeordnet sind. Die Aufnahmen, die einem Ort zugesendet werden, sind diejenigen, die durch die Kamera aufgenommen werden, die sich in der Nähe des für diesen Ort projizierten Bildes befinden. Dies ermöglicht, den Parallaxe- Effekt zu verringern, die Augen- bzw. Gesichtspunkte zu differenzieren und eine Lokalisierung jedes sich beteiligenden Teilnehmers in Abhängigkeit von seiner physischen Disposition an dem Ort und dann insgesamt zu rekonstruieren.
  • In der Punkt-zu-Punkt-Situation, wo mehrere Bilder über die Breite des Bildschirms nebeneinandergestellt werden, wird jedes Bild mit einer Teilbildaufnahme des Raums aufgebaut. Dies ermöglicht, besser sehen zu können, wer auf dem Bildschirm wen betrachtet, und folglich besser der Dynamik der Besprechung zu folgen.
  • In der Praxis befinden sich die Kameras unter den (oder im unteren Teil der) auf den Bildschirm 10 projektierten Bilder.
  • Bei einer Konfiguration mit zwei nebeneinandergestellten Bildern (Seite an Seite) sind die Kameras rezentriert und befinden sich in einem Abstand von der Bildschirmmitte, der ungefähr einem Drittel der Breite des Bildes entspricht, das heißt einem Sechstel der Gesamtbreite des Bildschirms. Diese Rezentrierung minimiert das Problem der Überlagerung an den Rändern der beiden durch die beiden Kameras aufgenommenen Bilder.
  • Die Orte sind durch Hochleistungs-Datennetze miteinander verbunden, entweder im Punkt-zu-Punkt-Betrieb oder im Multipunkt-Betrieb oder durch eine Videokonferenzbrücken-Zentraleinheit MCU (Multi Conference Unit).
  • Weitere Besonderheiten und Vorteile der Erfindung gehen aus der nachfolgenden, erläuternden und nicht einschränkenden Beschreibung hervor, bezogen auf die beigefügten Zeichnungen:
  • - die Fig. 1 und 2 zeigen schematisch das Problem der Kopräsenz, das die Erfindung löst,
  • - die Fig. 3 zeigt das Prinzipschaltbild der Erfindung,
  • - die Fig. 4 zeigt das Schaltbild der praktischen Ausführung der Ausrüstungen in einem Studio,
  • - die Fig. 5 entspricht einem Schaltbild einer speziellen Ausführung, die einer Verbindung zwischen 3 Studios entspricht,
  • - die Fig. 6 entspricht einem Schaltbild einer speziellen Ausführung, die einer Verbindung zwischen 2 Studios entspricht,
  • - die Fig. 7 bis 9 zeigen ein Beispiel verschiedener "Bildschirmbilder", die auf dem großen Bildschirm die Bildwand bilden,
  • - die Fig. 10 bis 13 entsprechen verschiedenen Arten der Verbindung zwischen den erfindungsgemäßen Studioausrüstungen oder audiovisuellen Terminals bei den unterschiedlichen Netzkonfigurationen.
  • Um den Kopräsenz-Effekt zu beschreiben, zeigt die Fig. 1 eine Lösung einer virtuellen Versammlung mit einer sich der Realität annähernden Visualisierung.
  • Nehmen wir an, 12 Personen sitzen um einen virtuellen runden Tisch. Eine der Personen sieht 4 andere benachbarte Personen der Gruppe durch ein kleines Fenster und, indem man die Fläche abwickelt, ist es, als würde sie diese 4 Personen auf einem ebenen oder quasi-ebenen Schirm sehen. Derart sieht sie die 8 anderen jeweils zu einer Gruppe von 4 zusammengefassten Personen in 2 verschiedenen Studios auf 2 Bildschirmen praktisch in einer ebenen Situation bzw. Simulation. Im Allgemeinen ist der virtuelle Tisch nicht rund sondern länglich, mit den beiderseits sitzenden Gruppen. So sieht die Person E die Person A zu ihrer Linken und die Person F zu ihrer Rechten mit kontinuierlicher Nachbarschaft zwischen allen Einzelpersonen.
  • Die Fig. 2 zeigt den oder die Bildschirme, die leicht gekrümmt sind, um ein "Eintauchen" zu reproduzieren bzw. zu simulieren.
  • Diese Umgebung ermöglicht unter anderem, die Effekte der zwischen den Teilnehmern ausgetauchten Blicke wiederzugeben, indem eine Annäherung des Spiels der Augen reproduziert wird, die sich drehen und sich beobachten. Zum Beispiel kann die Person A die Person E beobachten, und alle anderen Personen sehen, wie die Person A die Person F betrachtet, mit einer Annäherung der subjektiven Blickwinkel.
  • Das Schaltbild der Fig. 3 ist ein Prinzipschaltbild, das ein erfindungsgemäßes Telefonkonferenzsystem zeigt.
  • Selbstverständlich können andere Positionen gewählt werden bezüglich der Teilnehmer (sitzend oder stehend, um einen Tisch herum oder nicht), bezüglich der Kamera oder der Kameras und bezüglich der akustischen Einrichtungen (Lautsprecher), solange diese Positionen ermöglichen, einen Raumton und eine Bildwand zu erhalten, die ein totales Eintauchen aller Teilnehmer simulieren.
  • Ein Ort A ist mit anderen Orten B ... K durch ein Hochleistungs-Datennetz verbunden. Die verschiedenen Möglichkeiten zur Verbindung dieser Orte werden in der Folge durch die Fig. 10 bis 13 detailliert. Man kann zum Beispiel das Netz RNIS (mit Dienste-Integration) benutzen, indem man mehrere Zugänge SO zusammenfasst. Man kann auch "Datenautobahnen" oder das Internet oder Zugänge zu HDSL benutzen. Solche Netze sind keine Hindernisse für analoge Tonsignale des Durchlassbands über 7 kHz, sobald man Datenkompressionssysteme einsetzt, die die ursprüngliche Qualität aufrecht erhalten. Dies gewährleistet eine hohe Tonqualität, die der einer digitalen Kompaktdisk (CD) entspricht.
  • Das benutzte Übertragungsnetz kann das ATM-Netz oder jedes andere Netz mit hoher Bitrate des digitalen Typs oder sogar analogen Typs sein. Alle Bilder können zu den verschiedenen Orten mit ausreichend großen Bitraten übertragen werden, ohne beim Codieren den Kompressionsfaktor erhöhen zu müssen.
  • Zum Beispiel werden die codierten Bilder zwischen 384 kbit/s auf Numeris und 2 Mbit/s je nach Netztyp übertragen.
  • Die Videokonferenz wird gesteuert oder ferngesteuert durch Einheiten 100A, 100K, die durch das Netz oder die Netze R kommunizieren, um sich insbesondere abzustimmen bezüglich der zwischen Teilnehmer, Tonbild und visuellem Bild herzustellenden Übereinstimmung. Mit anderen Worten übertragen die Steuereinheiten entweder eine Beschreibung der Konfiguration mit den übertragenen Signalen, wenn die Konfiguration nicht vorher schon definiert worden ist, oder die unter mehreren schon vorher für alle Orte definierten Konfigurationen ausgewählte Konfigurationsart. Sie sind fähig, alle Ausrüstungseinheiten des Studios entsprechend der gewünschten Konfiguration zu steuern. Unter den für eine Konferenz möglichen Konfigurationen kann man eine Punkt-zu- Punkt-Verbindung haben oder Multipunkt-Verbindungen zwischen 2 oder 4 oder 5 und mehr Orten.
  • Die Konfiguration besteht praktisch in der Beschreibung der Verbindung zwischen einem Teilnehmer und einem Ort P1(A), dem oder den Tonaufnahmesystemen M1 (Mikrophone oder akustische Antennen), die seine Rede auffangen, die Kamera CA1, die ihn filmt, derart dass dieses Bild IP1(A) am Ort B übereinstimmt mit dem (oder den) Lautsprecher(n), die den von dem oder den Mikrophonen M1 stammenden Ton wiedergeben.
  • Ein Ort A umfasst dazu n Mikrophone, p Lautsprecher und q Kameras. Für einen gegebenen Ort ist die Anzahl der Lautsprecher proportional zu der Größe des Bildschirms (entweder zu der Breite oder zu der Fläche dieses Bildschirms).
  • Für die um einen Tisch sitzenden Teilnehmer ist der große Schirm 10 angeordnet vor dem Konferenztisch eines in Betracht gezogenen Orts und die Bildschirmbilder (jedes Orts) werden auf so auf diesen Bildschirm projiziert, dass die entfernten Teilnehmer sich zum Beispiel auf derselben Höhe wie die örtlichen Teilnehmer befinden, um so einen virtuellen Tisch zu bilden.
  • Wenn der Teilnehmer P1 (A) sich an den Teilnehmer P1(B) wendet, sind es die Aufnahmen der Kamera CA1 des Orts A, die zu den anderen Orten B bis K übertragen werden. Ebenso werden die Aufnahmen der Kamera CA1 des Orts B zu den Orten A, C bis K übertragen. Wenn kein Teilnehmer in den anderen Orten das Wort ergreift, ist die Kamera, die die Aufnahmen an diesen Orten durchführt, unbeteiligt, aber die Bilder von allen Teilnehmern werden trotzdem übertragen.
  • Die Aufnahmebefehle für die anderen adäquaten Kameras werden durch die Steuereinheiten 100A-100K gesteuert, die an den Orten präsent sind, oder von einem Überwachungsort aus ferngesteuert.
  • Die Regelung zwischen der durchgeführten Tonaufnahme und der Kamera, die die visuelle Aufnahme durchführt, realisiert man mittels eines dem Fachmann bekannten Steuerungsprogramms. Dieses Programm wird durch die Einheiten 100A bis 100K ausgeführt, um Bilder zu erhalten, die, wenn auf die Bildschirme projiziert, den Eindruck vermitteln, dass die betreffenden Personen sich wirklich anschauen.
  • In der Praxis kann dieser Effekt mit nur zwei Kameras erzielt werden.
  • Die über das Netz übertragenen Bilder werden an jedem Ort empfangen und durch die Videoeinheiten 300 verarbeitet, um nebeneinander und/oder übereinander auf den Bildschirm projiziert zu werden. Alle empfangenen Bilder werden auf dem Bildschirm 10 jedes Orts visualisiert, wobei der Bildschirm eine Bildwand bildet.
  • In dem speziellen Fall eines Punkt-zu-Punkt-Systems entsprechen die auf jeden Bildschirm projizierten Bilder einem einzigen Raum. Diese Situation ermöglicht, die Bildqualität zu verbessern. Dazu wird in diesem Fall vorgeschlagen, die beiden jeweils durch eine Kamera aufgenommenen Bilder zu übertragen. Jede Kamera macht Teilaufnahmen des Raums. In der Praxis filmt eine Kamera eine Hälfte der Szene und die andere filmt die andere Hälfte.
  • Die Aneinanderfügung der Bilder wird durch die Verarbeitungseinheiten 100A und 100B gesteuert, die die Videoverarbeitungseinheiten steuern, um auf dem Bildschirm aus den von beiden Kameras stammenden Signalen ein einziges Bild herzustellen. Diese Bildverkettung ist eine an sich klassische Verarbeitung.
  • In der Fig. 4 sind die Verarbeitungs- und Steuereinheiten des Systems detaillierter dargestellt. Es handelt sich hier wieder um ein Beispiel, das dem Fall entspricht, wo man zwei Kameras pro Studio hat.
  • Anschließend wird der Video-Teil beschrieben.
  • Die erste Kamera CA1 ist mit einem Videocodierer 303 verbunden und ein Videodecodiersystem 304 ist mit einem ersten Projektor PR1 verbunden. Das Decodiersystem wird durch einen oder mehrere Decodierer gebildet, so dass jeder Decodierer die von einem Ort stammenden Videosignale decodiert. In der Folge der Beschreibung ist zur Vereinfachung von dem Decodierer 304 die Rede, wobei man weiß, dass es sich um mehrere Decodierer handeln kann.
  • Der Codierer und der Decodierer sind mit einer Schnittstelle 301 zur Anpassung und zur Übertragung der Videosignale durch das Netz R verbunden. Diese Schnittstelle ist im Falle einer Übertragung auf dem ATM-Netz zum Beispiel eine AAL1 Schnittstelle (Adaptation Layer).
  • Diese Schnittstelle ist mit einer physischen Support-Schnittstelle 400 verbunden.
  • Die Steuereinheit 100A sendet zum Beispiel durch ein lokales Netz RL die Steuersignale CD1, DC1, IV1 an den Codierer, den Decodierer und an die Anpassungsschnittstelle 301, je nach Konfiguration der Videokonferenz.
  • Auf gleiche Weise ist die zweite Kamera CA2 mit einem Codierer 305 verbunden, der seinerseits selbst mit einer Schnittstelle 302 zur Anpassung an das Netz verbunden ist. Ein Decodierer 306 ist mit dem zweiten Projektor PR2 und mit der Schnittstelle 302 verbunden. Die Schnittstelle 302 ist mit der physischen Support-Schnittstelle 400 verbunden.
  • Die Steuereinheit sendet die Steuersignale CD2, DC2 und IV2 jeweils an den Codierer, den Decodierer und die Anpassungsschnittstelle, je nach Konfiguration.
  • Ein Videocodierer kann funktionell mit mehreren Decodierern verbunden sein, mittels Techniken, die nicht die Erfindung betreffen.
  • Man könnte an einem Ort, der dann mit einem der Codierer 303 oder 305 verbunden wäre, eine dritte Kamera installieren und auf diese Weise Aufnahmen einer Person übertragen, die man bevorzugen möchte. Die Aufnahmen dieser Kamera würden durch den Codierer codiert, mit dem sie verbunden ist, und an alle anderen Orte gesendet. Man müsste dann an den anderen Orten einen zusätzlichen Decodierer vorsehen, in dem Decodiersystem 303 oder 306 dieser Orte, um das von dieser Kamera stammende Signal zu decodieren und auf dem Bildschirm 10 der Orte die diese Aufnahmen betreffenden Bildschirmbilder sichtbar zu machen.
  • Die Projektoren sind entweder Videoprojektoren oder Flüssigkristall- Retroprojektoren. Die Projektion kann direkt sein, wenn man einen Plasmabildschirm verwendet.
  • Anschließend wird der Audio-Teil beschrieben.
  • Die N Mikrophone sind mit einer Erfassungseinheit der Signale 201 verbunden, die die Digitalisierung der Signale durchführt. Die Ausgänge dieser Einheit 201 liegen an den Eingängen einer Dämfungseinheit 207 zur Kontrolle des Echos. Die Ausgänge der Dämpfungseinheit liegen an den Eingängen eines Bitratenreduzier-Codierers des Audiosignals 202, gesteuert durch die Einheit 100A. Der Codierer 202 führt auch die Matrizierung der Mikrophonsignale durch, zur Anpassung an die Anzahl der in dem Netz für die Übertragung verfügbaren Kanäle. Der Audio-Anpassungscodierer 202 ist mit einer Schnittstelle 204 zu Anpassung an die Übertragung auf dem Netz R verbunden, wobei es sich um eine AAL5-Schnittstelle für das ATM-Netz handelt. Diese Schnittstelle ist mit der physischen Support-Schnittstelle 400 verbunden.
  • Die Schnittstelle 204 ist fähig, die codierten Audiosignale in das Netz einzuspeisen und die durch die anderen Orte gesendeten Audiosignale zu empfangen. Die empfangenen Signale werden durch die Schnittstelle 204 verarbeitet und an eine Decodier- und Entmatriziereinheit 203 der Audiosignale gelegt.
  • Die durch die Decodier- und Entmatriziereinheit 203 gelieferten Signale werden an den (die) gewünschten Lautsprecher gelegt, mittels einer Einrichtung 205 zur Wiedergabe und Analog-Digital-Wandlung der Audiosignale. Diese Einheit 205 kann also die verlangten empfangenen Signale in die Lautsprecher einspeisen.
  • Falls die Konfiguration vorgesehen und in einem Speicher 110 der Steuereinheit abgespeichert ist, hat die Einheit 100A in der gespeicherten Tabelle eine Information, die angibt, dass der Ausgang 51 des Decodierers das Signal liefert, das empfangen wurde, entweder durch das Mikrophon M1 oder durch eine Gruppe von Mikrophonen eines Orts B, zu denen M1 gehört, und dass folglich dieser Ausgang zum Lautsprecher Hn oder einer Gruppe von Lautsprechern geleitet werden muss, zu denen H1 gehört, um in der Nähe des Bilds des Teilnehmers zu sein, der gesprochen hat.
  • Die Erfassungssysteme (Mikrophon und Einheit 205) werden so gewählt, dass das Durchlassband des Sprachtonsignals berücksichtigt wird, und so, dass es für Frequenzbänder mit 7 kHz funktioniert (was die untere Grenze des Systems bezüglich Qualität bildet). Das Codiersystem wird ebenfalls so gewählt, dass diese Originalqualität berücksichtigt wird, und man wählt zum Beispiel Bitraten-Reduzieralgorithmen, wie beschrieben durch die Normen MPEG1 oder MPEG2. Die Erfassungssysteme werden auch so gewählt, dass der Geräuschabstand gut ist.
  • Als Beispiel einer möglichen Konfiguration im Falle einer Punkt-zu-Punkt- Konferenzschaltung mit zwei Räumen hat man 6 Kanäle für den Ton, also einen für jedes Mikrophon. Im Falle von 3 Räumen hat man zweimal 3 Kanäle für den Ton an jedem Ort. Für den Art A ermöglichen 3 Kanäle die Audio-Verbindung zwischen A und B, und die drei anderen ermöglichen die Audio-Verbindung zwischen A und C (id. für B und für C).
  • Das Bild und der Ton werden mit einer möglichst kleinen Zeitverschiebung übertragen (in der Größenordnung einer hunderstel Millisekunde), was in Verbindung mit der Qualität und der Größe des Videobildes zum Beispiel einem Tauben ermöglichen kann, von den Lippen der entfernten Teilnehmer zu lesen.
  • Die Audio-Ausrüstung umfasst außerdem eine Echokontrollschaltung 206, die durch Veränderung der Verstärkung der Mikrophon-Signale mittels der variablen Dämpfungseinheit 207 nach Verfahren funktioniert, die an sich klassisch sind. Diese Schaltung ist mit den Ausgängen der Einheit 201 und mit den Eingängen der Einheit 205 verbunden.
  • Das Schaltbild der Fig. 5 zeigt einen speziellen Fall einer möglichen Konfiguration. Es handelt von einer Video-Konfiguration zwischen drei Orten A, B und C.
  • Um diese Figur zu vereinfachen, wurden die direkten Verbindungen zwischen den verschiedenen Orten nach dieser Konfiguration realisiert, wobei das Übertragungsnetz weggelassen wurde.
  • Diese Konfiguration wird für 3 Orte A, B und C beschrieben.
  • Die Orte A und B haben jeweils zwei Kameras CA1 und CA2, die ermöglichen, Aufnahmen von ein und demselben Ort unter verschiedenen Winkeln zu machen.
  • Nach dieser Konfiguration realisiert man Punkt-zu-Punkt-Verbindungen für die Codierer und die Decodierer.
  • Die Kamera CA1 ist mit dem Codierer 303 des Orts A verbunden, wobei dieser Codierer mit dem Decodierer 304 verbunden ist, der mit dem Projektor verbunden ist, der ermöglicht, das Bildschirmbild E1(A) zu erzeugen (von der Kamera CA1 des Orts A stammend).
  • Der Codierer 303 des Orts B ist mit der Kamera CA1 des Orts B verbunden. Das durch den Codierer gelieferte Signal wird durch den Decodierer 304 des Orts A decodiert, um das Bildschirmbild E1(B) zu liefern (von der Kamera CA1 des Orts B stammend).
  • In dem Studio C platziert man eine einzige Kamera CA1. Diese Kamera ist mit zwei Codierern 304(A2) und 304(B2) verbunden. Der Codierer 304(A2) ist mit dem Decodierer 306 des Orts A verbunden, der das Bildschirmbild E1(C) liefert.
  • Von den Decodierer 306 des Orts C hingegen ist der eine mit dem Codierere 305 des Signals der Kamera CA2 des Orts A verbunden und der andere mit dem Codierer 305 des Signals der Kamera CA2 des Orts B, um jeweils am Ort C die Bildschirmbilder des Orts A, das heißt E2(A), und des Orts B, das heißt E2(B), anzuzeigen.
  • Die Audio-Verarbeitungseinheit sind bei dieser Konfiguration ebenfalls doppelt, um eine Audio-Einheit 202, 203, 205 mit jedem Ort zu verbinden.
  • Die Fig. 6 zeigt eine Punkt-zu-Punkt-Verbindung zwischen einem Ort A und einem Ort B. tn diesem Fall liefert jede Kamera CA1, CA2 eine Teilaufnahme des Orts. Im Falle der Übertragung von 6 Audio-Flüssen (6 Mikrophone) benutzt man zwei Codierer- Decodierer mit 3 Kanälen für jeden Ort.
  • Die Fig. 7 bis 9 zeigen jeweils die in den Orten A, B und C projizierten Bildschirmbilder. Im Ort A, Fig. 7, ermöglicht das Bildschirmbild E(4,3,2,1), Bilder zu visualisieren, die von einzelnen Terminals stammen, und das Bildschirmbild E(C,B) ermöglicht, die überlagerten bzw. übereinanderliegenden Bilder der Orte C und B zu visualisieren.
  • Die Fig. 8 entspricht der Visualisierung in dem Ort B und die Fig. 9 der Visualisierung in dem Ort C.
  • Die Fig. 10 bis 13 zeigen Beispiele von möglichen Verbindungen zwischen den Orten.
  • Die Fig. 10 entspricht 4 Studios, die durch ein ATM-Netz oder eine anwendungsspezialisierte Verbindung verbunden sind.
  • Die Fig. 11 entspricht Verbindungen, die durch eine Zentraleinheit (MCU) (Videokonferenzbrücke) verbunden sind.
  • Die Fig. 12 entspricht Netz-Mischverbindungen und einer MCU-Einheit, das heißt einer handelsüblichen Videokonferenzbrücke mit einer Verarbeitung, bei der Audiosignale der Studios 1, 2 und 3 unterdrückt werden, da die Orte, die Direktverbindungen und eine Verbindung durch diese Einheit haben, gestört würden durch die Überlagerung der Signale mit zeitlicher Verzögerung, die von den direkten Netzverbindungen und den MCU-Verbindungen stammen.
  • Die Fig. 13 zeigt den Fall der Verbindung durch Netze der verschiedenen Typen Numeris, ATM, anwendungsspezialisierte Verbindung.

Claims (14)

1. Videokonferenzsystem zwischen Teilnehmern, die sich an N verschiedenen Orten befinden, wobei N > 2 und jeder Ort einen Bildschirm, Bildaufnahme- und Wiedergabeeinrichtungen, Tonaufnahme- und Wiedergabeeinrichtungen umfasst, bei denen:
- der Bildschirm ein großer Schirm (10) des Typs Projektions- oder Retroprojektionsschirm oder des Direktsichttyps ist, gebildet durch ein oder mehrere Anzeigesysteme, die eine Bildwand bilden, um simultan alle entfernten Teilnehmer in einem Raum sichtbar zu machen, wiedergegeben auf der Bildwand, die diesen Schirm (10) bildet,
- die Tonaufnahme- und Wiedergabeeinrichtungen für jeden gegebenen Ort Ton- Raumverteilungseinrichtungen (100A, 100K, Hi, Mj) umfassen, um eine Übereinstimmung herzustellen zwischen dem von jedem entfernten Teilnehmer erzeugten Ton und seinem auf dem Schirm sichtbaren Bild,
dadurch gekennzeichnet,
- dass ein in Betracht gezogener Ort die von den anderen Orten ausgesendeten Bilder und Tonsignale empfängt und sie in Abhängigkeit von der hergestellten Übereinstimmung wiedergibt, wobei das Sehen und Hören der anderen Orte und der Sprecher simultan ist und durch Stimmenaustausche erfolgt, gleichzeitig zwischen mehreren Teilnehmern, ohne Unterbrechung oder Störung der anderen, wobei jeder Ort dafür umfasst:
- Tonaufnahme- und -wiedergabeeinrichtungen, enthaltend:
- eine Einheit zur Erfassung und Digitalisierung der Signale (201),
- eine Einheit zur Wiedergabe der Signale und zur Digital-Analog-Umsetzung (205);
- n Mikrophone (M1, ..., Mn), verteilt vor den Teilnehmern des genannten Orts;
- p Lautsprecher (H1, ..., HP), verteilt längs des Schirms, wobei p zur Größe des Schirms proportional ist;
- Einrichtungen zur Anpassung an das Netz, darin bestehend, die Datenrate zu reduzieren;
- Echo-Kontrolleinrichtungen; und
- Einrichtungen zur Herstellung der Übereinstimmung zwischen dem Mikrophon, dem aus diesem Mikrophon stammenden Signal und dem dieses Signal wiedergebenden Lautsprecher, Speichereinrichtungen (110), eine oder mehrere Konfigurationen umfassend, die die erwünschten Übereinstimmungen herstellen.
2. Videokonferenzsystem nach Anspruch 1, dadurch gekennzeichnet, dass die Abmessungen des die Bildwand bildenden Schirms (10) so gewählt werden, dass sie eine Anzeige der Bilder aller Orte mit einer Darstellung der Teilnehmer ungefähr im Maßstab 1 : 1 ermöglicht.
3. Videokonferenzsystem nach Anspruch 1, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtungen eine erste (CA1) und eine zweite (CA2) Bildaufnahmeeinheit umfassen, und dass die Tonaufnahmedaten der einen oder der anderen der genannten Bildaufnahmeeinheiten zugeordnet werden, je nach dem, ob die übertragenen Videosignale von der einen oder der anderen der genannten Einheiten (CA1), (CA2) stammen.
4. Videokonferenzsystem nach Anspruch 1, dadurch gekennzeichnet, dass die Tonaufnahmeeinrichtungen mehrere Mikrophone, Erfassungseinrichtungen der Tonsignale sowie Codier- und Matriziereinrichtungen (205) der genannten Signale umfassen.
5. Videokonferenzsystem nach Anspruch 1, dadurch gekennzeichnet, dass die Tonwiedergabeeinrichtungen Decodiereinrichtungen und Dematriziereinrichtungen (203) der Tonsignale (203), Wiedergabeeinrichtungen der Tonsignale (205) und mehrere Lautsprecher umfassen.
6. Videokonferenzsystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass jede Bildaufnahmeeinheit für jeden Ort q Kameras umfasst, die vor den Teilnehmern des genannten Orts so aufgebaut sind, dass jede Kamera sich auf dem Bildschirm der verschiedenen Gruppen entfernter Teilnehmer in unterschiedlichen Anzeigezonen befindet.
7. Videokonferenzsystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Zahl von q Kameras pro Ort höher oder gleich 2 ist, um die perspektivischen Effekte der Bildaufnahme wiederzugeben.
8. Videokonferenzsystem nach einem der Ansprüche 1 bis 6, bei dem die Videokonferenz nur zwischen zwei voneinander entfernten Orten stattfindet, dadurch gekennzeichnet, dass eine Kamera (CA1) eine partielle Bildaufnahme der lokalen Örtlichkeit mit einer ersten Gruppe von Teilnehmern liefert, und dass die andere Kamera (CA2) eine partielle Bildaufnahme der lokalen Örtlichkeit mit der zweiten Gruppe von Teilnehmern liefert, und dass die beiden Bilder nebeneinander gestellt werden, um zu ermöglichen, alle Teilnehmer sichtbar zu machen.
9. Videokonferenzsystem nach einem der Ansprüche 1 bis 8, bei dem für die Bildaufnahmen mehrere Kameras benutzt werden, dadurch gekennzeichnet, dass die genannten Kameras (CA1, CA2) unter den projizierten Bildern platziert sind.
10. Videokonferenzsystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es außerdem mehrere Videoprojektoren oder Retroprojektoren (PR1, PR2) des Katodenstrahlröhren- oder Flüssigkristalltyps umfasst, um eine Wiedergabe der Bilder ungefähr im Maßstab 1 : 1 zu erhalten.
11. Videokonferenzsystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es an jedem Ort über Bildverarbeitungseinrichtungen verfügt, die fähig sind, eine Nebeneinanderstellung oder Überlagerung der von den entfernten Orten empfangenen Bilder (301, 304) herzustellen, um zu ermöglichen, alle Bilder auf dem Schirm (10) darzustellen.
12. Videokonferenzsystem nach einem der vorangehenden Ansprüche, bei dem die Orte direkt über ein Hochleistungs-Übertragungsnetzwerk (R) oder indirekt durch eine Videokonferenzbrücke oder durch Videokonferenznetzwerk und -brücke verbunden sind.
13. Videokonferenzsystem nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Verarbeitungseinrichtungen umfassen:
- eine Verarbeitungs- und Verwaltungseinheit des Typs Mikrocomputer oder Arbeitsstation (100A, ..., 100K),
- Video-Coder/Decoder (303-306) und Audio-Coder/Decoder, gesteuert durch die Verarbeitungseinheit, und
- Schnittstellen (301, 302, 204) zur Anpassung an die Übertragung für das genannte Netzwerk.
14. Videokonferenz nach Anspruch 13, dadurch gekennzeichnet, dass das Netzwerk ein Asynchronübertragungsnetzwerk des Typs ATM ist, dass die Übertragungsschnittstellen für die audiovisuellen Signale Schnittstellen des Typs AAL1 sind, und dass die Übertragungsschnittstellen für die Steuersignale der Videokonferenz zwischen den Verarbeitungseinheiten Schnittstellen des Typs AALS sind.
DE69803168T 1997-03-27 1998-03-26 Videokonferenzsystem Expired - Lifetime DE69803168T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9703785A FR2761562B1 (fr) 1997-03-27 1997-03-27 Systeme de visioconference
PCT/FR1998/000625 WO1998044734A1 (fr) 1997-03-27 1998-03-26 Systeme de visioconference

Publications (2)

Publication Number Publication Date
DE69803168D1 DE69803168D1 (de) 2002-02-21
DE69803168T2 true DE69803168T2 (de) 2002-08-22

Family

ID=9505254

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69803168T Expired - Lifetime DE69803168T2 (de) 1997-03-27 1998-03-26 Videokonferenzsystem

Country Status (10)

Country Link
US (1) US6624841B1 (de)
EP (1) EP0970584B1 (de)
JP (2) JP4699574B2 (de)
CN (1) CN1147143C (de)
CA (1) CA2284884C (de)
DE (1) DE69803168T2 (de)
DK (1) DK0970584T3 (de)
ES (1) ES2171016T3 (de)
FR (1) FR2761562B1 (de)
WO (1) WO1998044734A1 (de)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224962B1 (en) 1997-10-03 2007-05-29 Karen Jeanne Kite Remote operational screener
FR2811501B1 (fr) * 2000-07-04 2003-06-13 France Telecom Terminal et systeme de communication
US6577333B2 (en) * 2000-12-12 2003-06-10 Intel Corporation Automatic multi-camera video composition
US6989801B2 (en) * 2001-03-22 2006-01-24 Koninklijke Philips Electronics N.V. Two-way presentation display system
US20020194606A1 (en) * 2001-06-14 2002-12-19 Michael Tucker System and method of communication between videoconferencing systems and computer systems
EP1425909A4 (de) * 2001-08-07 2006-10-18 Polycom Inc System und verfahren für hochauflösende videokonferenzen
FR2832282B1 (fr) * 2001-11-12 2004-07-30 France Telecom Systeme audiovisuel modulaire avec modules concatenables pour mettre en presence une scene locale et une scene distante
EP1454451A1 (de) * 2001-12-15 2004-09-08 Thomson Licensing S.A. Videokonferenzbandbreitenauswahlmechanismus
US7352809B2 (en) * 2003-02-21 2008-04-01 Polycom, Inc. System and method for optimal transmission of a multitude of video pictures to one or more destinations
US8659636B2 (en) * 2003-10-08 2014-02-25 Cisco Technology, Inc. System and method for performing distributed video conferencing
CN100484230C (zh) * 2004-01-16 2009-04-29 华为技术有限公司 控制会议电视系统中会场的方法
JP2005285091A (ja) * 2004-03-04 2005-10-13 Sony Corp 画像表示装置、情報端末装置、ネットワークシステム及びネットワーク設定方法
US20050228673A1 (en) * 2004-03-30 2005-10-13 Nefian Ara V Techniques for separating and evaluating audio and video source data
US20060075449A1 (en) * 2004-09-24 2006-04-06 Cisco Technology, Inc. Distributed architecture for digital program insertion in video streams delivered over packet networks
US7870590B2 (en) * 2004-10-20 2011-01-11 Cisco Technology, Inc. System and method for fast start-up of live multicast streams transmitted over a packet network
JP2006238330A (ja) * 2005-02-28 2006-09-07 Sony Corp 通信システムおよび通信サービス移行方法
US8457614B2 (en) 2005-04-07 2013-06-04 Clearone Communications, Inc. Wireless multi-unit conference phone
US8861701B2 (en) * 2005-04-28 2014-10-14 Apple Inc. Multi-participant conference adjustments
US7817180B2 (en) * 2005-04-28 2010-10-19 Apple Inc. Video processing in a multi-participant video conference
US7692682B2 (en) 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
US7864209B2 (en) * 2005-04-28 2011-01-04 Apple Inc. Audio processing in a multi-participant conference
US7949117B2 (en) * 2005-04-28 2011-05-24 Apple Inc. Heterogeneous video conferencing
US7899170B2 (en) * 2005-04-28 2011-03-01 Apple Inc. Multi-participant conference setup
US7612793B2 (en) 2005-09-07 2009-11-03 Polycom, Inc. Spatially correlated audio in multipoint videoconferencing
US7680047B2 (en) * 2005-11-22 2010-03-16 Cisco Technology, Inc. Maximum transmission unit tuning mechanism for a real-time transport protocol stream
US8624975B2 (en) * 2006-02-23 2014-01-07 Robert Bosch Gmbh Audio module for a video surveillance system, video surveillance system and method for keeping a plurality of locations under surveillance
US7965771B2 (en) 2006-02-27 2011-06-21 Cisco Technology, Inc. Method and apparatus for immediate display of multicast IPTV over a bandwidth constrained network
US8760485B2 (en) 2006-03-02 2014-06-24 Cisco Technology, Inc. System and method for displaying participants in a videoconference between locations
US8218654B2 (en) 2006-03-08 2012-07-10 Cisco Technology, Inc. Method for reducing channel change startup delays for multicast digital video streams
US20070263824A1 (en) * 2006-04-18 2007-11-15 Cisco Technology, Inc. Network resource optimization in a video conference
US7692680B2 (en) 2006-04-20 2010-04-06 Cisco Technology, Inc. System and method for providing location specific sound in a telepresence system
US8326927B2 (en) * 2006-05-23 2012-12-04 Cisco Technology, Inc. Method and apparatus for inviting non-rich media endpoints to join a conference sidebar session
US20070279483A1 (en) * 2006-05-31 2007-12-06 Beers Ted W Blended Space For Aligning Video Streams
CN100442837C (zh) * 2006-07-25 2008-12-10 华为技术有限公司 一种具有声音位置信息的视频通讯系统及其获取方法
US8358763B2 (en) * 2006-08-21 2013-01-22 Cisco Technology, Inc. Camping on a conference or telephony port
US8031701B2 (en) 2006-09-11 2011-10-04 Cisco Technology, Inc. Retransmission-based stream repair and stream join
FR2908584A1 (fr) * 2006-11-10 2008-05-16 France Telecom Systeme d'interaction collaborative autour d'objets partages, par integration d'images
FR2908583B1 (fr) * 2006-11-10 2009-04-24 France Telecom Systeme d'interaction collaborative autour d'objets partages, par fusion d'images
US7693190B2 (en) * 2006-11-22 2010-04-06 Cisco Technology, Inc. Lip synchronization for audio/video transmissions over a network
US8085290B2 (en) 2006-12-06 2011-12-27 Cisco Technology, Inc. System and method for displaying a videoconference
US8121277B2 (en) * 2006-12-12 2012-02-21 Cisco Technology, Inc. Catch-up playback in a conferencing system
FR2910770A1 (fr) * 2006-12-22 2008-06-27 France Telecom Dispositif pour permettre une communication par visioconference et procede de communication associe.
US8769591B2 (en) 2007-02-12 2014-07-01 Cisco Technology, Inc. Fast channel change on a bandwidth constrained network
NO20071401L (no) * 2007-03-16 2008-09-17 Tandberg Telecom As System og arrangement for naturtro videokommunikasjon
US20080253369A1 (en) 2007-04-16 2008-10-16 Cisco Technology, Inc. Monitoring and correcting upstream packet loss
US8477177B2 (en) * 2007-08-10 2013-07-02 Hewlett-Packard Development Company, L.P. Video conference system and method
US8289362B2 (en) * 2007-09-26 2012-10-16 Cisco Technology, Inc. Audio directionality control for a multi-display switched video conferencing system
CN101132516B (zh) * 2007-09-28 2010-07-28 华为终端有限公司 一种视频通讯的方法、系统及用于视频通讯的装置
JP2009118316A (ja) * 2007-11-08 2009-05-28 Yamaha Corp 音声通信装置
US20090164575A1 (en) * 2007-11-26 2009-06-25 Haivision Systems Inc. Method and system for the establishment of complex network telepresence conference
KR100947027B1 (ko) * 2007-12-28 2010-03-11 한국과학기술원 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체
US8787153B2 (en) 2008-02-10 2014-07-22 Cisco Technology, Inc. Forward error correction based data recovery with path diversity
WO2009116992A1 (en) * 2008-03-17 2009-09-24 Hewlett-Packard Development Company, L.P. Telepresence system
WO2010053473A1 (en) 2008-11-04 2010-05-14 Hewlett-Packard Development Company, L.P. Controlling a video window position relative to a video camera position
CN101534413B (zh) 2009-04-14 2012-07-04 华为终端有限公司 一种远程呈现的系统、装置和方法
US8860775B2 (en) 2009-04-14 2014-10-14 Huawei Device Co., Ltd. Remote presenting system, device, and method
US8301697B2 (en) * 2009-06-16 2012-10-30 Microsoft Corporation Adaptive streaming of conference media and data
EP2352290B1 (de) * 2009-12-04 2012-11-21 Swisscom AG Verfahren und Vorrichtung zur Abgleichung von Audio- und Videosignalen während einer Videokonferenz
US8570907B2 (en) 2010-04-07 2013-10-29 Apple Inc. Multi-network architecture for media data exchange
US8717404B2 (en) * 2010-04-27 2014-05-06 Lifesize Communications, Inc. Recording a videoconference based on recording configurations
CN104038725B (zh) * 2010-09-09 2017-12-29 华为终端有限公司 多屏视频会议中对与会者图像显示进行调整的方法及装置
US8711736B2 (en) 2010-09-16 2014-04-29 Apple Inc. Audio processing in a multi-participant conference
GB2484944A (en) * 2010-10-27 2012-05-02 David Roger Sherriff Mimic video conference meeting place
US9015555B2 (en) 2011-11-18 2015-04-21 Cisco Technology, Inc. System and method for multicast error recovery using sampled feedback
US9232183B2 (en) * 2013-04-19 2016-01-05 At&T Intellectual Property I, Lp System and method for providing separate communication zones in a large format videoconference
US9883140B2 (en) * 2014-05-19 2018-01-30 Apple Inc. Using the location of a near-end user in a video stream to adjust audio settings of a far-end system
KR101685466B1 (ko) * 2014-08-28 2016-12-12 삼성에스디에스 주식회사 다자간 영상 회의 서비스의 참여자 확장 방법
CN105898185A (zh) * 2014-11-19 2016-08-24 杜比实验室特许公司 调节视频会议系统中的空间一致性
JP6284505B2 (ja) 2015-06-30 2018-02-28 Necネッツエスアイ株式会社 コミュニケーションシステム及びコミュニケーション方法
JP6507049B2 (ja) * 2015-06-30 2019-04-24 Necネッツエスアイ株式会社 映像システム
CN107333117B (zh) * 2016-04-29 2022-10-28 中兴通讯股份有限公司 投影设备、会议系统及投影设备控制方法
US10587978B2 (en) 2016-06-03 2020-03-10 Nureva, Inc. Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space
US10338713B2 (en) 2016-06-06 2019-07-02 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
WO2017210784A1 (en) 2016-06-06 2017-12-14 Nureva Inc. Time-correlated touch and speech command input
CN107333094A (zh) * 2017-08-07 2017-11-07 西安万像电子科技有限公司 会议系统及显示处理方法、装置
EP4462821A3 (de) 2018-11-13 2024-12-25 Dolby Laboratories Licensing Corporation Darstellung von räumlichem audio mittels eines audiosignals und zugehörige metadaten
ES2974219T3 (es) 2018-11-13 2024-06-26 Dolby Laboratories Licensing Corp Procesamiento de audio en servicios de audio inversivos
CN109547734A (zh) * 2019-01-02 2019-03-29 姚树财 一种融入式vr视频会议远程呈现装置及系统
EP3926442A1 (de) 2020-06-19 2021-12-22 Brainbox GmbH Videokonferenzverfahren und videokonferenzsystem
US11792353B2 (en) 2020-12-07 2023-10-17 Avaya Management L.P. Systems and methods for displaying users participating in a communication session
KR102326212B1 (ko) * 2021-05-25 2021-11-12 김우영 비대면 온오프라인 화상회의 시스템
US11758089B2 (en) * 2021-08-13 2023-09-12 Vtech Telecommunications Limited Video communications apparatus and method
DE102023111791A1 (de) 2023-05-05 2024-11-07 Casablanca.Ai Gmbh Videokonferenzverfahren und Videokonferenzsystem

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1438293A (en) * 1972-09-28 1976-06-03 Post Office Television system for transmitting two or more pictures along a common communication channel
FR2484747A1 (fr) * 1980-06-11 1981-12-18 Faye Andre Procede et dispositif pour etablir des communications bidirectionnelles et/ou multidirectionnelles entre differentes personnes regroupees en differentes stations geographiquement eloignees et reliees entre elles par des lignes telephoniques
US5206721A (en) * 1990-03-08 1993-04-27 Fujitsu Limited Television conference system
FR2674090A1 (fr) * 1991-03-15 1992-09-18 Video Scoper France Procede pour generer simultanement un ensemble d'images video sur un support de visualisation, et systemes pour sa mise en óoeuvre.
US5280540A (en) * 1991-10-09 1994-01-18 Bell Communications Research, Inc. Video teleconferencing system employing aspect ratio transformation
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
JP3305037B2 (ja) * 1993-04-07 2002-07-22 富士通株式会社 多地点制御装置、テレビ会議端末装置及び多地点テレビ会議システム
US5818616A (en) * 1993-08-23 1998-10-06 Canon Kabushiki Kaisha Optical communication apparatus and conference system
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
JPH07135646A (ja) * 1993-11-11 1995-05-23 Nec Eng Ltd テレビ会議システム
US5533021A (en) * 1995-02-03 1996-07-02 International Business Machines Corporation Apparatus and method for segmentation and time synchronization of the transmission of multimedia data
US5793415A (en) * 1995-05-15 1998-08-11 Imagetel International Inc. Videoconferencing and multimedia system
EP0765084A3 (de) * 1995-09-21 1997-10-15 At & T Corp Automatisches Videonachführungssystem

Also Published As

Publication number Publication date
EP0970584A1 (de) 2000-01-12
EP0970584B1 (de) 2002-01-02
JP2009081861A (ja) 2009-04-16
DE69803168D1 (de) 2002-02-21
DK0970584T3 (da) 2002-04-22
US6624841B1 (en) 2003-09-23
FR2761562A1 (fr) 1998-10-02
JP4885928B2 (ja) 2012-02-29
CN1257631A (zh) 2000-06-21
JP2001517395A (ja) 2001-10-02
FR2761562B1 (fr) 2004-08-27
CA2284884A1 (fr) 1998-10-08
JP4699574B2 (ja) 2011-06-15
CN1147143C (zh) 2004-04-21
ES2171016T3 (es) 2002-08-16
CA2284884C (fr) 2006-06-13
WO1998044734A1 (fr) 1998-10-08

Similar Documents

Publication Publication Date Title
DE69803168T2 (de) Videokonferenzsystem
DE69839212T2 (de) Raumklangwiedergabe
DE69424593T2 (de) Videokonferenzsystem mit einer Vielzahl von Stationen und Steuerungsvorrichtung
DE69222479T2 (de) Telekonferenzendstellengerät
DE10084867B4 (de) Verfahren und Vorrichtung um es einem Videokonferenzteilnehmer zu ermöglichen den zugehörigen Nutzern in der Kamera fokussiert zu erscheinen
EP0349709B1 (de) Videokonferenzeinrichtung
DE2623573C3 (de) Bildtelefon-Konferenzanlage
EP0153903B1 (de) Nachrichtensystem für Bildkonferenzen
DE69331158T2 (de) Mehrpunktvideoübertragungssystem für Satellitenkommunikation
DE69605948T2 (de) Multimediakommunikation mit vom system abhängigen adaptiven verzögerungen
DE69634023T2 (de) Audiokommunikationssteuereinheit für Telekonferenzsysteme
JP2001517395A5 (de)
JPS5921186A (ja) ビデオ信号を発生させる方法
CN1411278A (zh) Ip网络电视会议系统
JP2000253374A (ja) テレビ会議制御システム及びテレビ会議システム
DE102010028865A1 (de) Holografisches Live-Präsentationssystem und Verfahren zur Liveübertragung einer holografischen Präsentation
DE60211383T2 (de) Videokonferenzsystem für das arbeiten aus der ferne
DE60037298T2 (de) Verwaltung von sprachgruppenrufen in einem telekommunikationssystem
AT511151B1 (de) Verfahren und vorrichtung zur audio- und videobasierten echtzeit-kommunikation
DE3507152A1 (de) Nachrichtensystem fuer bildkonferenzen
WO2018184735A1 (de) Konzept zur virtuellen teilnahme an live-ereignissen
DE112018006602T5 (de) Virtuelles fenster für telefonkonferenzen
DE4420212A1 (de) Übertragungssystem für gleichzeitige Mehrfachübertragung von mehreren Bild- und Tonsignalen
DE102022121634A1 (de) System, Verfahren, Computerprogramm und computerlesbares Medium
EP3267621B1 (de) Verfahren zur erzeugung eines an einen realen endpunkt zu übermittelnden gesamtraumklangs, verwendung des verfahrens sowie telekonferenzsystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition