ITTO20110323A1 - Sistema metrologico ottico proiettivo grossolano e di precisione - Google Patents
Sistema metrologico ottico proiettivo grossolano e di precisione Download PDFInfo
- Publication number
- ITTO20110323A1 ITTO20110323A1 IT000323A ITTO20110323A ITTO20110323A1 IT TO20110323 A1 ITTO20110323 A1 IT TO20110323A1 IT 000323 A IT000323 A IT 000323A IT TO20110323 A ITTO20110323 A IT TO20110323A IT TO20110323 A1 ITTO20110323 A1 IT TO20110323A1
- Authority
- IT
- Italy
- Prior art keywords
- optical
- image
- constellation
- light
- luminous
- Prior art date
Links
- 230000003287 optical effect Effects 0.000 title claims description 255
- 230000005693 optoelectronics Effects 0.000 claims description 61
- 238000001514 detection method Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 45
- 101100422538 Escherichia coli sat-2 gene Proteins 0.000 claims description 22
- 108091006503 SLC26A1 Proteins 0.000 claims description 19
- 238000006073 displacement reaction Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/10—Artificial satellites; Systems of such satellites; Interplanetary vehicles
- B64G1/1085—Swarms and constellations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/24—Guiding or controlling apparatus, e.g. for attitude control
- B64G1/36—Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/24—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Astronomy & Astrophysics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Communication System (AREA)
- Lenses (AREA)
- Adjustment Of Camera Lenses (AREA)
Description
DESCRIZIONE
del brevetto per invenzione industriale dal titolo:
“SISTEMA METROLOGICO OTTICO PROIETTIVO GROSSOLANO E DI PRECISIONE”
La presente invenzione è relativa ad una unità ottica per un sistema metrologico ottico proiettivo. In particolare, la presente invenzione è relativa ad una unità ottica per un sistema metrologico ottico proiettivo grossolano e di precisione (“coarse and fine projective optical metrology system”).
Come è noto, sono oggi disponibili numerosi sistemi di metrologia, i quali trovano impiego, tra l’altro, in ambito aerospaziale.
In particolare, sono noti sistemi di metrologia aventi la funzione di determinare l’assetto (“attitude”) e/o la posizione di un satellite. Ancora più in particolare, sono noti sistemi di metrologia che consentono, data una coppia di satelliti, di determinare la posizione reciproca e l’assetto reciproco tra i due satelliti.
La determinazione degli assetti e delle posizioni dei satelliti è di particolare importanza nel caso di sistemi satellitari i cui satelliti sono in formazione, cioè nei casi in cui è previsto un controllo dell’assetto e/o della posizione di ciascun satellite in funzione dell’assetto/posizione degli altri satelliti.
In pratica, la determinazione, dati due satelliti, dell’assetto reciproco e della posizione reciproca richiede la determinazione di sei gradi di libertà. Infatti, assumendo un primo ed un secondo sistema di riferimento solidali, rispettivamente, ad un primo ed un secondo satellite, e formati, ciascuno, da una rispettiva terna di assi perpendicolari, l’assetto reciproco e la posizione reciproca tra il primo ed il secondo sistema di riferimento, e dunque tra il primo ed il secondo satellite, sono esprimibili in termini di tre spostamenti (lineari) e tre rotazioni (angoli). In particolare, la posizione reciproca del primo satellite rispetto al secondo satellite può essere espressa mediante una terna di tre spostamenti misurati, rispettivamente, lungo i tre assi del secondo sistema di riferimento; similmente, l’assetto reciproco del primo satellite rispetto al secondo satellite può essere espresso mediante una terna di tre angoli, pari a corrispondenti rotazioni del primo sistema di riferimento rispetto al secondo sistema di riferimento.
Ciò premesso, in generale i sistemi metrologici ottici oggi disponibili possono essere suddivisi in sistemi cosiddetti grossolani ed in sistemi cosiddetti di precisione, a seconda dell’accuratezza e del campo di applicazione, quest’ultimo essendo dato dall’intervallo di distanze tra satelliti che possono intercorrere senza che le prestazioni si degradino significativamente.
Più in dettaglio, i sistemi metrologici di precisione consentono di determinare la posizione reciproca di due satelliti con un’accuratezza inferiore al centimetro, a patto che i satelliti non distino più di una cinquantina di metri. Addirittura, alcuni sistemi metrologici di precisione consentono di determinare la posizione reciproca di due satelliti con un’accuratezza dell’ordine del decimo di millimetro, a patto che i satelliti non distino più di un metro.
Al contrario, i sistemi metrologici grossolani si caratterizzano per un’accuratezza non inferiore alla decina di centimetri, tuttavia possono operare anche quando la distanza tra i satelliti è superiore ai cinquanta metri, ad esempio anche fino a distanze di venti chilometri.
A titolo esemplificativo, i sistemi metrologici grossolani comprendono sistemi di metrologia basati sull’impiego del sistema di localizzazione globale via satellite (“Global Positioning System”, GPS), nonché sistemi di metrologia basati sull’impiego di radiazione a radiofrequenza, questi ultimi avvalendosi di reti di antenne di notevole complessità.
Per quanto concerne, invece, i sistemi metrologici di precisione, sono noti sistemi di tipo almeno in parte proiettivo, i quali prevedono che, dati due satelliti, uno di essi sia equipaggiato con una costellazione (“target”) formata da un numero N di sorgenti luminose, e che l’altro satellite sia equipaggiato con un’unità ottica, la quale include un sensore optoelettronico in grado di acquisire un’immagine della costellazione, sulla cui base, mediante post-elaborazione, l’unità ottica stessa determina uno o più dei summenzionati gradi di libertà.
A titolo esemplificativo, la domanda di brevetto EP1986018 descrive un sistema di determinazione della posizione e dell’assetto di un sistema a sei gradi di libertà, ed in cui il numero N di sorgenti luminose della costellazione è pari a uno. Tuttavia, per consentire la determinazione di tutti e sei i gradi di libertà, il sistema descritto in EP1986018 richiede che l’unica sorgente luminosa sia formata da una sorgente di luce coerente quale, ad esempio, un laser, ed inoltre richiede che l’unità ottica sia in grado di effettuare, oltre all’elaborazione delle immagini della costellazione, misure della potenza effettivamente ricevuta dal sensore optoelettronico e una misura angolare di rotazione della polarizzazione del fascio luminoso emesso dalla sorgente di luce coerente.
Ancora più in dettaglio, facendo riferimento ad un primo ed un secondo satellite, ed assumendo che la costellazione sia disposta sul primo satellite, il sistema descritto in EP1986018 prevede che l’unità ottica a bordo del secondo satellite disponga di tre rilevatori optoelettronici in grado di rilevare, ciascuno, la potenza associata alla frazione di radiazione elettromagnetica emessa dalla sorgente di luce coerente ed effettivamente incidente sul rilevatore optoelettronico stesso. Pertanto, il sistema descritto in EP1986018 non è di tipo puramente proiettivo.
Sono peraltro noti sistemi metrologici di precisione che non prevedono la determinazione di misure di potenza, cioè sistemi metrologici di tipo puramente proiettivo. Un esempio di tali sistemi metrologici è fornito in US7,561,262, in cui le sorgenti luminose sono formate da riflettori destinati ad essere disposti sul primo satellite, i quali vengono illuminati da radiazione emessa dal secondo satellite. Sono inoltre noti sistemi metrologici di precisione di tipo puramente proiettivo ed in cui la costellazione è formata da un numero particolarmente elevato di sorgenti luminose (ad esempio, otto).
Sebbene i sistemi metrologici di precisione si caratterizzino per accuratezze elevate, a differenza dei sistemi metrologici grossolani essi possono operare in modo ottimale solo se le distanze tra i satelliti sono limitate, come precedentemente accennato. Pertanto, è sentita l’esigenza di disporre di un sistema metrologico capace di operare sia nel caso in cui la distanza tra costellazione ed unità ottica è limitata, sia nel caso in cui la distanza tra costellazione ed unità ottica è ampia.
Scopo della presente invenzione è fornire un’unità ottica per un sistema metrologico ottico proiettivo che risolva almeno in parte gli inconvenienti dell’arte nota.
Secondo l'invenzione, vengono forniti un’unità ottica per un sistema metrologico ottico proiettivo ed un sistema metrologico ottico proiettivo come definiti, rispettivamente, nelle rivendicazioni 1 e 7.
Per una migliore comprensione dell’invenzione, ne vengono ora descritte forme di realizzazione, a puro titolo di esempio non limitativo e con riferimento ai disegni allegati, nei quali:
- le figure 1 e 9 mostrano schemi a blocchi di sistemi satellitari;
- la figura 2 mostra in forma schematica una costellazione luminosa;
- la figura 3 mostra uno schema a blocchi di una unità ottica secondo la presente invenzione;
- le figure 4 e 6 mostrano schemi a blocchi di un sistema metrologico ottico utilizzante l’unità ottica mostrata in figura 3;
- le figure 5 e 7 mostrano qualitativamente viste frontali di una superficie di rilevazione di un sensore optoelettronico dell’unità ottica mostrata in figura 3; e
- la figura 8 mostra qualitativamente la formazione di immagini sulla superficie di rilevazione del sensore optoelettronico dell’unità ottica mostrata in figura 3.
La figura 1 mostra un sistema metrologico ottico di tipo proiettivo, al quale in seguito ci si riferisce per brevità come al sistema metrologico 1. Inoltre, nel seguito si descrive il sistema metrologico 1 con particolare riferimento ad un’applicazione di tipo satellitare, sebbene esso possa trovare impiego in differenti ambiti di applicazione, come accennato successivamente.
In dettaglio, il sistema metrologico 1 comprende una costellazione 2 atta ad essere vincolata ad un primo satellite sat1 ed una unità ottica 6 atta ad essere vincolata ad un secondo satellite sat2.
Come mostrato in maggior dettaglio in figura 2, la costellazione 2 comprende una prima, una seconda ed una terza sorgente luminosa 4a-4c, ciascuna formata, ad esempio, da un corrispondente diodo ad emissione luminosa (“Light Emitting Diode”, LED). La prima, la seconda e la terza sorgente luminosa 4a-4c sono disposte complanari ed ai vertici di un ipotetico triangolo, ad esempio isoscele o equilatero. In particolare, nell’ipotesi di sorgenti luminose puntiformi, assumendo un primo sistema riferimento x1,y1,z1solidale al primo satellite sat1 e formato da tre assi x1,y1,z1ortogonali tra loro, ed assumendo inoltre che l’asse z1sia perpendicolare al piano in cui giacciono la prima, la seconda e la terza sorgente luminosa 4a-4c, e che la seconda e la terza sorgente luminosa 4b-4c giacciano lungo l’asse x1, è possibile esprimere i punti dello spazio in cui si trovano la prima, la seconda e la terza sorgente luminosa 4a-4c rispettivamente come [0,Y0,0], [-X0,0,0] e [X0,0,0].
Come mostrato in figura 3, l’unità ottica 6 comprende un sensore optoelettronico 10, una lente di ingresso 12 atta a ricevere i raggi ottici generati dalla costellazione 2, un primo ed un secondo divisore di fascio ottico (“optical beam splitter”) 14, 16, un primo ed un secondo elemento riflettente 18, 20 ed una prima ed una seconda lente intermedia 22, 24. A titolo puramente esemplificativo, la lente di ingresso 12 e la prima e la seconda lente intermedia 22, 24 possono essere concave.
L’unità ottica 6 comprende inoltre un’unità elettronica di elaborazione 30, la quale è elettricamente collegata al sensore optoelettronico 10.
In maggior dettaglio, la lente di ingresso 12, il primo divisore di fascio ottico 14, la prima lente intermedia 22, il secondo divisore di fascio ottico 16 ed il sensore optoelettronico 10 sono disposti in successione ed otticamente allineati. In altre parole, il primo divisore di fascio ottico 14 risulta interposto tra la lente di ingresso 12 e la prima lente intermedia 22, la quale a sua volta risulta interposta tra il primo ed il secondo divisore di fascio ottico 14, 16; infine, il secondo divisore di fascio ottico 16 è interposto tra la prima lente intermedia 22 ed il sensore optoelettronico 10.
Gli assi ottici della lente di ingresso 12 e della prima lente intermedia 22 sono all’incirca coincidenti ed incidono sostanzialmente al centro del sensore optoelettronico 10. A titolo esemplificativo, in figura 3 gli assi ottici (coincidenti) della lente di ingresso 12 e della prima lente intermedia 22 sono indicati con OA; per semplicità, nel seguito ci si riferisce ad essi come all’asse di sistema OA.
Per semplicità di descrizione, e senza alcuna perdita di generalità, nel seguito si assume che la lente di ingresso 12 e la prima e la seconda lente intermedia 22, 24 siano sottili. Ciò premesso, la lente di ingresso 12, il primo divisore di fascio ottico 14, la prima lente intermedia 22 ed il secondo divisore di fascio ottico 16 formano un primo circuito ottico, al quale ci si riferisce in seguito come al primo treno ottico OT1.
Da un punto di vista ottico, il primo treno ottico OT1 presenta un primo piano principale posteriore P1ed una prima lunghezza focale effettiva posteriore f1, ai quali per brevità in seguito ci si riferisce, rispettivamente, come al primo piano principale P1ed alla prima lunghezza focale f1. A titolo puramente esemplificativo, in figura 3 il primo piano principale P1è disposto tra il primo divisore di fascio ottico 14 e la prima lente intermedia 22.
La posizione del primo piano principale P1e la prima lunghezza focale f1sono determinabili in modo di per sé noto e dipendono dalla lunghezza focale della lente di ingresso 12, dalla lunghezza focale della prima lente intermedia 22 e dalla distanza tra di esse.
Per quanto concerne, invece, la seconda lente intermedia 24, essa è interposta tra il primo ed il secondo elemento riflettente 18, 20, in maniera tale per cui la lente di ingresso 12, il primo divisore di fascio ottico 14, il primo elemento riflettente 18, la seconda lente intermedia 24, il secondo elemento riflettente 20 ed il secondo divisore di fascio ottico 16 formano un secondo circuito ottico, al quale ci si riferisce in seguito come al secondo treno ottico OT2.
Da un punto di vista ottico, il secondo treno ottico OT2 presenta un secondo piano principale posteriore P2ed una seconda lunghezza focale effettiva posteriore f2, ai quali per brevità in seguito ci si riferisce, rispettivamente, come al secondo piano principale P2ed alla seconda lunghezza focale f2. A titolo puramente esemplificativo, in figura 3 il secondo piano principale P2è disposto tra il primo divisore di fascio ottico 14 ed il primo elemento riflettente 18.
La posizione del secondo piano principale P2e la seconda lunghezza focale f2sono determinabili in modo di per sé noto e dipendono dalla lunghezza focale della lente di ingresso 12, dalla lunghezza focale della seconda lente intermedia 24 e dalla distanza tra di esse.
In dettaglio, la seconda lunghezza focale f2è maggiore della prima lunghezza focale f1. A tal proposito, al fine di ottenere f2>f1, è sufficiente che la seconda lente intermedia 24 abbia una lunghezza focale maggiore della lunghezza focale della prima lente intermedia 22.
Operativamente, riferendosi ai raggi ottici generati dalla costellazione 2 e ricevuti dalla lente di ingresso 12 come ai raggi ottici complessivi, una prima frazione dei raggi ottici complessivi viene focalizzata dal primo treno ottico OT1 sul sensore optoelettronico 10, lungo l’asse di sistema OA, cioè dopo aver attraversato il primo divisore di fascio ottico 14, la prima lente intermedia 22 ed il secondo divisore di fascio ottico 16. La prima frazione dei raggi ottici complessivi, alla quale ci si riferisce in seguito come al primo fascio ottico, è mostrata in figura 4 in modo puramente qualitativo, dove è indicata con R1. In pratica, il primo fascio ottico R1comprende i raggi ottici che attraversano, oltre alla lente di ingresso 12 ed alla prima lente intermedia 22, anche il primo ed il secondo divisore di fascio ottico 14, 16, senza essere riflessi da questi ultimi.
Il primo treno ottico OT1 definisce dunque un primo cammino ottico, interposto tra la lente di ingresso 12 ed il sensore optoelettronico 10 ed avente una prima lunghezza l1, intesa come la distanza che i raggi ottici del summenzionato primo fascio ottico R1percorrono per raggiungere, a partire dalla lente di ingresso 12, il sensore optoelettronico 10.
Per quanto concerne, invece, il secondo treno ottico OT2, il primo elemento riflettente 18 è disposto in modo da ricevere una seconda frazione di raggi ottici complessivi, comprendente nella fattispecie la porzione di raggi ottici complessivi che, dopo aver attraversato la lente di ingresso 12, vengono riflessi dal primo divisore di fascio ottico 14. La seconda frazione di raggi ottici complessivi, alla quale ci si riferisce in seguito come al secondo fascio ottico, è mostrata in figura 4 in modo puramente qualitativo, dove è indicata con R2. In pratica, il primo divisore di fascio ottico 14 opera in modo da separare il primo ed il secondo fascio ottico R1, R2.
Il primo elemento riflettente 18, la seconda lente intermedia 24 ed il secondo elemento riflettente 20 sono inoltre disposti in maniera tale per cui il secondo fascio ottico R2è riflesso dal primo elemento riflettente 18 in direzione della seconda lente intermedia 24. Dopo aver attraversato la seconda lente intermedia 24, il secondo fascio ottico R2viene ricevuto dal secondo elemento riflettente 20, il quale lo riflette in direzione del secondo divisore di fascio ottico 16. Infine, il secondo divisore di fascio ottico 16 riflette il secondo fascio ottico R2in direzione del sensore optoelettronico 10, ancora lungo l’asse di sistema OA. In pratica, il secondo divisore di fascio ottico 16 opera in modo da ricombinare il primo ed il secondo fascio ottico R1, R2.
Operativamente, il secondo treno ottico OT2 è in grado di dirigere il secondo fascio ottico R2in direzione del sensore optoelettronico 10. Il secondo treno ottico OT2 definisce dunque un secondo cammino ottico, interposto tra la lente di ingresso 12 ed il sensore optoelettronico 10 ed avente una seconda lunghezza l2, maggiore della prima lunghezza l1ed intesa come la distanza che i raggi ottici del summenzionato secondo fascio ottico R2percorrono per raggiungere, a partire dalla lente di ingresso 12, il sensore optoelettronico 10.
Il secondo cammino ottico non attraversa la prima lente intermedia 22, ed inoltre condivide con il primo cammino ottico un medesimo punto di ingresso, definito dalla lente di ingresso 12, ed un medesimo punto terminale, definito dal sensore optoelettronico 10.
Nuovamente con riferimento alla figura 3, il primo ed il secondo piano principale P1, P2distano rispettivamente una distanza d1ed una distanza d2dal sensore optoelettronico 10, misurate rispettivamente lungo il primo ed il secondo cammino ottico. In altre parole, trascurando l’inclinazione dei raggi ottici rispetto all’asse di sistema OA, il primo fascio ottico R1si propaga, per raggiungere il sensore optoelettronico 10 a partire dal primo piano principale P1, lungo una distanza pari a d1; similmente, il secondo fascio ottico R2si propaga, per raggiungere il sensore optoelettronico 10 a partire dal secondo piano principale P2, lungo una distanza pari a d2.
Come mostrato in figura 5, il sensore optoelettronico 10 può essere formato, ad esempio, da un dispositivo ad accoppiamento di carica (“Coupling Charge Device”, CCD) e presenta una superficie di rilevazione A di forma, ad esempio, quadrata. La superficie di rilevazione A è formata da una matrice di M elementi di immagine generalmente noti come pixel 11 ed è disposta perpendicolarmente rispetto all’asse di sistema OA, cioè perpendicolarmente agli assi ottici della lente di ingresso 12 e della prima lente intermedia 22; inoltre, il centro geometrico della superficie di rilevazione A giace preferibilmente lungo l’asse di sistema OA. In pratica, il sensore optoelettronico 10 è un sensore cosiddetto di immagine.
Ciò premesso, preferibilmente le summenzionate prima e seconda distanza d1, d2sono sostanzialmente pari, rispettivamente, alla prima ed alla seconda lunghezza focale f1e f2. Pertanto, data un’ipotetica sorgente luminosa infinitamente distante dal secondo satellite sat2, i corrispondenti primo e secondo fascio ottico vengono focalizzati sostanzialmente in un unico punto della superficie di rilevazione A del sensore optoelettronico 10.
Per quanto concerne, invece, la costellazione 2, posta inevitabilmente ad una distanza non infinita dal secondo satellite sat2, in corrispondenza del sensore optoelettronico 10 si formano una prima e di una seconda immagine della costellazione 2 stessa.
In maggior dettaglio, come mostrato qualitativamente ancora in figura 4, la prima e la seconda lunghezza focale f1e f2sono tali per cui, quando il primo satellite sat1, e quindi la costellazione 2, si trovano a distanza D1(con D1>>f2) dal secondo satellite sat2, il primo fascio ottico R1incide effettivamente sulla superficie di rilevazione A del sensore optoelettronico 10, ivi concorrendo a determinare una prima distribuzione di M intensità luminose, come rilevate dagli M pixel 11 del sensore optoelettronico 10.
In pratica, come mostrato in figura 5, il primo fascio ottico R1forma sulla superficie di rilevazione A del sensore optoelettronico 10 una prima immagine I1della costellazione 2, formata da un primo, un secondo ed un terzo punto immagine 4a’-4c’, rispettivamente corrispondenti alla prima, alla seconda ed alla terza sorgente luminosa 4a-4c.
Anche il secondo fascio ottico R2incide sulla superficie di rilevazione A del sensore optoelettronico 10 e concorre, dunque, a formare la prima distribuzione di M intensità luminose. In particolare, il secondo fascio ottico R2forma sulla superficie di rilevazione A del sensore optoelettronico 10 una seconda immagine I2della costellazione 2, formata da un quarto, un quinto ed un sesto punto immagine 4a”-4c”, rispettivamente corrispondenti alla prima, alla seconda ed alla terza sorgente luminosa 4a-4c. Si noti che, per semplicità di visualizzazione, in figura 5 si è assunto che ciascun punto immagine tra il quarto, il quinto ed il sesto punto immagine 4a”-4c” ecciti un solo pixel, sebbene ciascun punto immagina possa eccitare un numero di pixel superiore ad uno.
Sulla base della prima distribuzione di M intensità luminose, l’unità elettronica di elaborazione 30 è in grado di determinare un primo, secondo ed un terzo pixel, rispettivamente indicati con 11a-11c, i quali corrispondono, rispettivamente, al quarto, al quinto ed al sesto punto immagine 4a”-4c”.
Ad esempio, l’unità elettronica di elaborazione 30 può identificare il primo, il secondo ed il terzo pixel 11a-11c mediante ricerca dei massimi relativi tra le M intensità luminose della prima distribuzione di M intensità luminose. In tal caso, in modo di per sé noto, il primo, il secondo ed il terzo pixel 11a-11c si caratterizzano per il fatto che, considerato uno qualsiasi di essi, l’intensità luminosa da esso rilevata è maggiore delle intensità luminose rilevate dai pixel ad esso circostanti.
In altre parole, il quarto, il quinto ed il sesto punto immagine 4a”-4c” sono identificabili elettronicamente come distinti tra loro, ed in particolare come corrispondenti a tre pixel differenti. Ciò significa che la seconda immagine I2è nitida, cioè può essere elaborata elettronicamente dall’unità elettronica di elaborazione 30 al fine di identificare, in modo di per sé noto, un numero di massimi relativi di intensità luminosa pari al numero di sorgenti luminose presenti nella costellazione 2 (nella fattispecie, tre), tali massimi relativi di intensità luminosa essendo appunto corrispondenti al quarto, al quinto ed al sesto punto immagine 4a”-4c”.
Al contrario, il primo, il secondo ed il terzo punto immagine 4a’-4c’ eccitano un solo pixel, nella fattispecie un quarto pixel indicato con 11d, pertanto essi non sono identificabili elettronicamente come distinti tra loro. In altre parole, la prima immagine I1della costellazione 2 non è nitida.
In pratica, il fatto che una generica immagine formata sulla superficie di rilevazione A del sensore optoelettronico 10 sia nitida dipende, in modo di per sé noto, dalle dimensioni della costellazione 2, dalla distanza della costellazione 2 dal secondo satellite sat2, dalla lunghezza focale del corrispondente treno ottico che l’ha generata, nonché dall’area della superficie di rilevazione A del sensore optoelettronico 10. A tal proposito, nel seguito si assume, senza perdita di generalità, che la superficie di rilevazione A abbia forma quadrata di lato Q, e che ciascun pixel 11 abbia forma quadrata di lato q.
Inoltre, a stretto rigore, il fatto che una generica immagina sia nitida o meno dipende dalle tecniche di elaborazione (note) adottate dall’unità elettronica di elaborazione 30 per elaborare la distribuzione di M intensità luminose rilevate dagli M pixel 11. Infatti, sebbene sia possibile, come precedentemente descritto, che l’unità elettronica di elaborazione 30 determini i massimi relativi di intensità luminosa direttamente sulla base delle intensità luminose rilevate dai pixel 11, è altresì possibile che la determinazione dei massimi relativi sia effettuata mediante il cosiddetto metodo del centroide, o similari. In particolare, il metodo del centroide, descritto ad esempio in “Error analysis of CCD-based point source centroid computation under the background light”, di Xiaoyu Ma, Changhui Rao e Hanqing Zheng, OPTICS EXPRESS Vol. 17, No. 10 ed in “Improved Iteration Centroid Algorithm Based on Linear CCD Light-spot Location”, Shengjin Tang, Zhaofa Zhou, Xiaosong Guo, Yongchao Xiao, The Ninth International Conference on Electronic Measurement & Instruments, ICEMI 2009, prevede di interpolare le intensità luminose rilevate dai pixel 11, di per sé discretizzate nello spazio, al fine di determinare curve interpolanti (ad esempio, gaussiane) spazio-continue, sulla cui base si determinano i massimi relativi.
Si noti che, nel caso in cui l’unità elettronica di elaborazione 30 determini i massimi relativi di intensità luminosa meramente sulla base delle intensità luminose rilevate dai pixel 11, senza operazioni di interpolazione, una generica immagine è nitida se l’unità elettronica di elaborazione 30 è in grado di identificare, per ciascun punto immagine della generica immagine, un corrispondente pixel, il quale esibisce un massimo relativo di intensità luminosa. Se così avviene, l’unità elettronica di elaborazione 30 associa i punti immagine della generica immagine alle coordinate dei corrispondenti pixel. Ad esempio, nel caso del quarto, del quinto e del sesto punto immagine 4a”-4c”, essi sono associati alle coordinate (descritte in seguito) del primo, del secondo e del terzo pixel 11a-11c. Pertanto, la massima discretizzazione che è possibile ottenere nella determinazione della posizione, all’interno della superficie di rilevazione A, di eventuali punti immagine è pari al lato q di un singolo pixel 11.
Viceversa, adottando tecniche note di interpolazione, quale ad esempio il metodo del centroide, è possibile ottenere una discretizzazione spaziale inferiore a q, cioè è possibile associare ai punti immagine coordinate aventi una discretizzazione inferiore a q. Infatti, perché un’immagine sia nitida è sufficiente che l’unità elettronica di elaborazione 30 sia in grado di identificare, sulla base delle M intensità luminose rilevate dai pixel 11 ed in modo di per sé noto, un numero di massimi di intensità luminosa pari al numero di sorgenti luminose presenti nella costellazione 2, indipendentemente dal fatto che, sulla base delle M intensità luminose rilevate dai pixel 11 e della sola ricerca dei massimi relativi tra tali intensità luminose, non sia possibile identificare un numero di pixel corrispondente al numero di sorgenti luminose presenti nella costellazione. Ad esempio, l’identificazione di un numero di pixel corrispondente al numero di sorgenti luminose presenti nella costellazione 2 può essere impedita dal fatto che tale ricerca fornisce un numero di massimi relativi inferiore o superiore al numero di sorgenti luminose.
Per semplicità di descrizione, nel seguito si assume, salvo laddove specificato diversamente, che l’unità elettronica di elaborazione 30 determini i massimi relativi di intensità luminosa meramente sulla base della ricerca dei massimi relativi tra le intensità luminose rilevate dai pixel 11, senza operazioni di interpolazione, e dunque che il terzo, il quarto, il quinto ed il sesto punto immagine 4a”-4c” siano rispettivamente associati alle coordinate del primo, del secondo e del terzo pixel 11a-11c.
Nuovamente con riferimento alla prima ed alla seconda immagine I1e I2mostrate in figura 5, l’unità elettronica di elaborazione 30 filtra elettronicamente, in modo di per sé noto, i pixel corrispondenti alla prima immagine I1, nella fattispecie il quarto pixel 11d. In pratica, l’unità elettronica di elaborazione 30 non considera il quarto pixel 11d per le elaborazioni descritte qui di seguito; tali operazioni di filtraggio possono essere eseguite prima o dopo aver identificato il primo, il secondo ed il terzo pixel 11a-11c. In altre parole, l’unità elettronica di elaborazione 30 seleziona la seconda immagine I2.
Successivamente, l’unità elettronica di elaborazione 30 calcola la posizione reciproca del primo e del secondo satellite sat1 e sat2 sulla base della seconda immagine I2, ed in particolare, sulla base delle coordinate del primo, del secondo e del terzo pixel 11a-11c.
A tal proposito, assumendo un secondo sistema di riferimento x2,y2,z2formato da tre assi x2, y2, z2(figura 5) ortogonali tra loro, solidale rispetto al secondo satellite sat2 e tale per cui la superficie di rilevazione A del sensore optoelettronico 10 giace nel piano definito dagli assi x2e y2, le coordinate di ciascuno tra il primo, il secondo ed il terzo pixel 11a-11c sono esprimibili come terne rispettivamente del tipo [X2a,Y2a,0], [X2b,Y2b,0] e [X2c,Y2c,0].
Ciò premesso, in modo di per sé noto, l’unità elettronica di elaborazione 30 determina mediante algoritmi noti, e sulla base della forma (nota) della costellazione 2 e delle terne [X2a,Y2a,0], [X2b,Y2b,0], [X2c,Y2c,0], una terna di spostamenti reciproci [Δx,Δy,Δz] tra il primo ed il secondo satellite sat1 e sat2. A titolo puramente esemplificativo, al fine di determinare la terna di spostamenti [Δx,Δy,Δz], l’unità elettronica di elaborazione 30 può impiegare algoritmi di per sé noti nell’ambito della metrologia proiettiva. A tal proposito si noti che, in generale, a seconda del numero di sorgenti luminose e a seconda dell’algoritmo utilizzato, l’unità elettronica di elaborazione 30 può essere in grado di determinare solo alcuni tra gli spostamenti della terna di spostamenti [Δx,Δy,Δz], oppure può essere in grado di determinare ulteriori gradi di libertà. Ad esempio, nel caso in cui il numero di sorgenti luminose della costellazione 2 sia appunto pari a tre, è possibile determinare anche una rotazione della costellazione 2 rispetto all’asse z1, quest’ultima essendo un’informazione relativa all’assetto reciproco tra il primo ed il secondo satellite sat1 e sat2. Alternativamente, e sempre a titolo esemplificativo, nel caso in cui il numero di sorgenti luminose sia pari a due, è possibile determinare gli spostamenti Δx, Δy, in assenza di rotazioni della costellazione 2 attorno agli assi del sistema di riferimento x1,y1,z1.
Come illustrato in figura 6, la prima e la seconda lunghezza focale f1e f2sono inoltre tali per cui, quando il primo ed il secondo satellite sat1, sat2 si trovano ad una distanza D2(con D2<D1), il secondo fascio ottico R2non incide effettivamente sul sensore optoelettronico 10, bensì viene diretto all’esterno della superficie di rilevazione A, mentre il solo primo fascio ottico R1incide sulla superficie di rilevazione A, ivi formando una seconda distribuzione di M intensità luminose, come rilevate dagli M pixel 11 del sensore optoelettronico 10.
In pratica, come mostrato in figura 7, il secondo fascio ottico R2formerebbe una corrispondente immagine solo nel caso in cui, in luogo della superficie di rilevazione A del sensore optoelettronica 10, vi fosse una superficie di dimensioni maggiori rispetto alla superficie di rilevazione A. in tal caso, si formerebbero tre corrispondenti punti immagine, indicati in figura 7 con 4ai, 4bi e 4ci.
Al contrario, il primo fascio ottico R1continua a formare sulla superficie di rilevazione A del sensore optoelettronico 10 la seconda immagine I2della costellazione 2, la quale è nitida. Infatti, la seconda immagine I2è formata da un settimo, un ottavo ed un nono punto immagine 4a’’’, 4b’’’ e 4c’’’, i quali sono distanziati a tal punto da consentire all’unità elettronica di elaborazione 30 di identificare un quinto, un sesto ed un settimo pixel 11e-11g, mediante ricerca dei massimi relativi tra le M intensità luminose rilevate dai pixel 11. In maniera analoga a quanto discusso in precedenza, l’unità elettronica di elaborazione 30 è quindi in grado di determinare, sulla base delle terne [X3a,Y3a,0], [X3b,Y3b,0] e [X3c,Y3c,0] che indicano le coordinate del quinto, del sesto e del settimo pixel 11e-11g, una nuova terna di spostamenti reciproci [Δx,Δy,Δz] tra il primo ed il secondo satellite sat1 e sat2. Circa la possibilità di determinare, da parte dell’unità elettronica di elaborazione 30, solo alcuni tra gli spostamenti della terna di spostamenti [Δx,Δy,Δz], oppure ulteriori grandezze, valgono le considerazioni precedentemente riportate. Nel seguito si assume, per semplicità, che l’unità elettronica di elaborazione 30 determini tutta la terna di spostamenti [Δx,Δy,Δz].
In pratica, grazie alla presenza del primo e del secondo treno ottico OT1 ed OT2, aventi differenti lunghezze focali, l’unità elettronica di elaborazione 30 è in grado di determinare gli spostamenti reciproci tra il primo ed il secondo satellite sat1 e sat2, sia alla distanza D1che alla distanza D2, le quali possono essere molto differenti tra loro. Ad esempio, la distanza D1può essere pari a 2km, mentre la distanza D2può essere pari a 20m. Di conseguenza, il sistema metrologico 1 può operare in un intervallo di distanze tra il primo ed il secondo satellite sat1 e sat2 molto ampio. Inoltre, il sistema metrologico 1 può essere dimensionato in funzione di un intervallo desiderato di distanze tra il primo ed il secondo satellite sat1 e sat2, previa conoscenza delle dimensioni della costellazione.
In dettaglio, al fine di consentire al sistema metrologico 1 di operare per distanze comprese tra una distanza massima Dmaxed una distanza minima Dmin, è possibile determinare la prima e la seconda lunghezza focale f1, f2come descritto qui di seguito. A tal proposito, si premette che, data una qualsiasi distanza tra il primo ed il secondo satellite sat1 e sat2, il primo ed il secondo treno ottico OT1 e OT2 producono, in un ipotetico piano infinitamente esteso e contenente la superficie di rilevazione A, due immagini differenti della costellazione 2. In particolare, l’immagine prodotta dal secondo treno ottico OT2 ha dimensioni maggiori rispetto a quella prodotta dal primo treno ottico OT1, perché la seconda lunghezza focale f2è maggiore della prima lunghezza focale f1, e dunque il secondo treno ottico OT2 si caratterizza nei confronti del primo treno ottico OT1 per un maggior ingrandimento.
Ciò premesso, è possibile determinare la seconda lunghezza focale f2in modo che, quando la costellazione 2 si trova alla distanza massima Dmaxdall’unità ottica 6, la corrispondente immagine fornita dal secondo treno ottico OT2 sia nitida. Assumendo, per semplicità di calcolo, che la costellazione sia formata da sole due sorgenti luminose distanti tra loro una distanza O, tale condizione è soddisfatta se l’immagine fornita dal secondo treno ottico OT2 occupa almeno due pixel del sensore optoelettronico 10. A tal fine, è possibile imporre f2=(Dmax·Hq)/O, in cui Hqè pari a 2*q (essendo q la lunghezza del lato di un pixel).
Analogamente, è possibile determinare la prima lunghezza focale f1in modo che, quando la costellazione 2 si trova alla distanza minima Dmindall’unità ottica 6, la corrispondente immagine fornita dal primo treno ottico OT1, oltre ad essere nitida, sia esattamente contenuta all’interno della superficie di rilevazione A. Assumendo ancora, per semplicità di calcolo, che la costellazione sia formata da sole due sorgenti luminose distanti tra loro una distanza O, è dunque possibile imporre f1=(Dmin·Q)/O, in cui Q è appunto la lunghezza del lato della superficie di rilevazione A. Ad esempio, assumendo Dmin=20m e Q=12,79mm, ed assumendo che la costellazione sottenda alla distanza Dminun angolo di ±4°, cui corrisponde O=2,797m, si ha f1=91,45mm.
Si noti che, a stretto rigore, la distanza massima Dmaxè la distanza tra la costellazione 2 ed il secondo piano principale P2, mentre la distanza minima Dminè la distanza tra la costellazione 2 ed il primo piano principale P1. Per semplicità di descrizione, tuttavia, si fa generico riferimento alla distanza tra costellazione 2 ed unità ottica 6.
Come mostrato qualitativamente in figura 8, al fine di aumentare il più possibile l’intervallo di distanze in cui si può utilizzare il sistema metrologico 1, è possibile dimensionare la prima e la seconda lunghezza focale f1e f2, la costellazione 2 e la superficie di rilevazione A in modo che, indicando con Dxla massima distanza tra il primo ed il secondo satellite sat1 e sat2 tale per cui la prima immagine I1è nitida, a tale distanza Dxsi verifichi inoltre che il secondo fascio ottico R2viene proiettato immediatamente al di fuori della superficie di rilevazione A. In altre parole, alla distanza Dx, si verifica che il secondo fascio ottico R2forma, in un ipotetico piano contenente la superficie di rilevazione A, un’immagine esterna alla stessa superficie di rilevazione A, i cui punti immagine sono tangenti ai bordi della superficie di rilevazione A. Ancora in altre parole, i raggi ottici del secondo fascio ottico R2sono tangenti esternamente alla superficie di rilevazione A.
In tal modo, a qualsiasi distanza, sulla superficie di rilevazione A si forma al massimo una sola immagine nitida della costellazione 2, cioè si forma una sola immagine che può essere elaborata elettronicamente dall’unità elettronica di elaborazione 30 in modo da identificare i corrispondenti massimi di intensità e, quindi, in modo da consentire la determinazione della terna di spostamenti [Δx,Δy,Δz]. Infatti, come mostrato qualitativamente in figura 8, se la distanza tra il primo ed il secondo satellite sat1 e sat2 è compresa tra Dmaxe Dx, sulla superficie di rilevazione A la sola immagine nitida è la seconda immagine I2, formata dal secondo fascio ottico R2. Al contrario, se la distanza tra il primo ed il secondo satellite sat1 e sat2 è compresa tra Dxe Dmin, la sola immagine nitida è la prima immagine I1, formata dal primo fascio ottico R1. In altre parole, indicando con [Dmax,Dx] l’intervallo di distanze tali per cui la seconda immagine I2è nitida, ed indicando con [Dx,Dmin] l’intervallo di distanze tali per cui la prima immagine I1è nitida, gli intervalli [Dmax,Dx] e [Dx,Dmin] sono contigui.
In tal modo, risultano semplificate le operazioni che l’unità elettronica di elaborazione 30 svolge al fine di identificare i massimi relativi di intensità luminosa e di determinare le corrispondenti coordinate, sulla cui base calcola la terna di spostamenti [Δx,Δy,Δz], non essendo necessario eseguire la selezione di una singola immagine.
Nel caso in cui, invece, la prima e la seconda lunghezza focale f1e f2, la costellazione 2 e la superficie di rilevazione A siano tali per cui esistono distanze tra il primo ed il secondo satellite sat1 e sat2 tali per cui, sulla superficie di rilevazione A, si formano contemporaneamente due immagini nitide della costellazione 2, l’unità elettronica di elaborazione 30 può selezionare di volta in volta una singola immagine, su cui successivamente esegue le operazioni atte a determinare la terna di spostamenti [Δx,Δy,Δz]. Ad esempio, l’unità elettronica di elaborazione 30 può selezionare l’immagine avente dimensioni maggiori, cioè i cui punti immagine sono maggiormente distanti tra loro. In pratica, tale situazione comporta che gli intervalli [Dmax,Dx] e [Dx,Dmin] siano almeno in parte sovrapposti.
Sono peraltro possibili ulteriori forme di realizzazione, in cui l’unità ottica 6 dispone di ulteriori treni ottici, aventi lunghezze focali differenti dalla prima e dalla seconda lunghezza focale f1e f2, al fine di incrementare ulteriormente l’ampiezza dell’intervallo di distanze in cui è possibile impiegare il sistema metrologico 1.
Come mostrato in figura 9, il presente sistema metrologico può dunque essere impiegato all’interno di un sistema satellitare 40, includente il primo ed il secondo satellite sat1, sat2, ed in cui il secondo satellite sat2 ospita un sistema di controllo di assetto e/o posizione 42, elettronicamente accoppiato all’unità elettronica di elaborazione 30. Il sistema di controllo di assetto e/o posizione 42 può dunque ricevere le terne di spostamenti [Δx,Δy,Δz] e/o ulteriori gradi di libertà che, nel tempo, vengono determinati dall’unità elettronica di elaborazione 30, iterando le operazioni precedentemente descritte. Il sistema di controllo di assetto e/o posizione 42 può quindi operare, in modo di per sé noto, sulla base delle terne di spostamenti [Δx,Δy,Δz] e/o di ulteriori gradi di libertà forniti dall’unità elettronica di elaborazione 30.
I vantaggi che la presente unità ottica 6 consente di ottenere emergono chiaramente dalla descrizione precedente. In particolare, l’impiego dell’unità ottica 6 consente al sistema metrologico 1 di determinare la posizione reciproca tra due satelliti in un intervallo di distanze particolarmente ampio, che si estende da distanze dell’ordine di poche decine di metri fino a distanze dell’ordine di diversi chilometri. Inoltre, tali vantaggi sono ottenuti senza impiegare parti mobili, né allestire differenti unità ottiche aventi focali differenti, ciascuna con un rispettivo sensore optoelettronico; infatti, l’unità ottica 6 presenta un singolo sensore optoelettronico, con evidenti vantaggi in termini di riduzione dei costi e della complessità costruttiva.
In aggiunta, dal momento che sia il primo che il secondo cammino ottico iniziano in un medesimo punto, ossia in corrispondenza della lente di ingresso 12, non ci creano fenomeni di visione stereoscopica.
Risulta infine evidente che al sistema metrologico 1 descritto possono essere apportate modifiche e varianti, senza uscire dall’ambito della presente invenzione.
La lente di ingresso 12 e la prima e la seconda lente intermedia possono essere di tipo differente da quanto descritto. Inoltre, in luogo della prima e della seconda lente intermedia 22, 24 possono essere presenti corrispondenti gruppi ottici formati da numerose lenti, i quali consentono di migliorare, in modo di per sé noto, la qualità delle immagini, essendo meno soggetti a fenomeni quali l’aberrazione cromatica. Analogamente, la lente di ingresso 12 può essere sostituita da un corrispondente gruppo ottico di maggiore complessità, oppure può essere sostituita da un diaframma. In quest’ultimo caso, il primo ed il secondo piano principale P1, P2cadono, rispettivamente, all’interno della prima e della seconda lente intermedia 22, 24, ed inoltre la prima e la seconda lunghezza focale f1, f2coincidono con le lunghezze focali della prima e della seconda lente intermedia 22, 24. Similmente, il primo ed il secondo divisore di fascio ottico 14, 16 possono essere formati da corrispondenti prismi, oppure possono essere di qualsiasi tipo noto.
Inoltre, le sorgenti luminose possono essere differenti rispetto a quanto descritto. Ad esempio, le sorgenti luminose possono essere passive, comprendendo ciascuna uno specchio, ad esempio del tipo cosiddetto “angolo di cubo” (“coner cube”). In tal caso, l’unità ottica 6 comprende inoltre un illuminatore (non mostrato) atto ad illuminare la costellazione, in maniera tale per cui gli specchi che formano le sorgenti luminose riflettono radiazione verso l’unità ottica 6 stessa.
Infine, l’unità ottica 6 ed il sistema metrologico 1 possono, come precedentemente accennato, trovare impieghi in ambiti differenti dal settore aerospaziale. Ad esempio, la costellazione 2 può essere montata su un primo oggetto, mentre l’unità ottica 6 può essere montata su un secondo oggetto, il primo ed il secondo oggetto essendo meccanicamente accoppiati, in maniera tale per cui il sistema metrologico 1 consente di determinare il posizionamento reciproco tra il primo ed il secondo oggetto. Ad esempio, tali primo e secondo oggetto possono essere due differenti elementi di un telescopio, meccanicamente collegati.
Claims (10)
- RIVENDICAZIONI 1. Unità ottica (6) per un sistema metrologico ottico proiettivo (1) configurata per ricevere un segnale luminoso (R1,R2) proveniente da una costellazione luminosa (2) e per definire due differenti cammini ottici per il segnale luminoso verso un sensore optoelettronico di immagine (10); i due cammini ottici essendo tali per cui, quando la costellazione luminosa dista dall’unità ottica di una distanza compresa in un primo intervallo di distanze ([Dx,Dmin]), il segnale luminoso ricevuto forma sul sensore optoelettronico di immagine, attraverso uno dei due cammini ottici, una prima immagine (I1) della costellazione luminosa elaborabile per determinare almeno una grandezza indicativa della disposizione reciproca tra la costellazione luminosa e l’unità ottica, mentre quando la costellazione luminosa dista dall’unità ottica di una distanza compresa in un secondo intervallo di distanze ([Dmax,Dx]) differente dal primo intervallo di distanze, il segnale luminoso ricevuto forma sul sensore optoelettronico di immagine, attraverso l’altro cammino ottico, una seconda immagine (I2) della costellazione luminosa anch’essa elaborabile per determinare detta almeno una grandezza indicativa della disposizione reciproca tra la costellazione luminosa e l’unità ottica. 2. Unità ottica secondo la rivendicazione 1, comprendente inoltre un elemento ottico ricevente (12) configurato per ricevere il segnale luminoso (R1,R2) proveniente dalla costellazione luminosa (2); ed in cui entrambi i cammini ottici si estendono verso il sensore optoelettronico di immagine (10) a partire dall’elemento ottico ricevente. 3. Unità ottica secondo la rivendicazione 2, comprendente inoltre un primo ed un secondo circuito ottico (OT1,OT2), il primo circuito ottico avendo un primo piano principale posteriore (P1) ed una prima lunghezza focale effettiva posteriore (f1), e definendo un primo cammino ottico di detti due cammini ottici, il secondo circuito ottico avendo un secondo piano principale posteriore (P2) ed una seconda lunghezza focale effettiva posteriore (f2), e definendo un secondo cammino ottico di detti due cammini ottici; e in cui il primo ed il secondo piano principale posteriore distano dal sensore optoelettronico di immagine (10) rispettivamente una prima ed una seconda distanza (d1,d2) misurate rispettivamente lungo il primo ed il secondo cammino ottico, la prima e la seconda distanza essendo rispettivamente funzione della prima e della seconda lunghezza focale effettiva posteriore (f1,f2). 4. Unità ottica secondo la rivendicazione 3, in cui la prima e la seconda distanza (d1,d2) sono sostanzialmente pari, rispettivamente, alla prima ed alla seconda lunghezza focale effettiva posteriore (f1,f2). 5. Unità ottica secondo la rivendicazione 3 o 4, in cui il primo ed il secondo circuito ottico (OT1,OT2) sono inoltre configurati in modo da generare, a partire dal segnale luminoso ricevuto dall’elemento ottico ricevente (12), un primo ed un secondo fascio ottico (R1,R2), ed indirizzare verso il sensore optoelettronico di immagine (10) detti primo e secondo fascio ottico, rispettivamente lungo il primo ed il secondo cammino ottico, in maniera tale per cui la prima e la seconda immagine (I1,I2) sono rispettivamente formate dal primo e dal secondo fascio ottico; e in cui il primo ed il secondo circuito ottico sono inoltre configurati in modo che il primo ed il secondo fascio ottico incidano sul sensore optoelettronico di immagine lungo una medesima direzione di incidenza (OA). 6. Unità ottica secondo la rivendicazione 5, in cui il primo circuito ottico (OT1) comprende l’elemento ottico ricevente (12) ed un primo ed un secondo divisore di fascio ottico (14,16), il secondo circuito ottico (OT2) comprendendo l’elemento ottico ricevente, il primo ed il secondo divisore di fascio ottico, ed un primo ed un secondo elemento riflettente (18,20); e in cui il primo divisore di fascio ottico è configurato in modo da suddividere il segnale luminoso ricevuto dall’elemento ottico ricevente nel primo e nel secondo fascio ottico (R1,R2), il primo divisore di fascio ottico essendo inoltre configurato per indirizzare il primo ed il secondo fascio ottico, rispettivamente, verso il secondo divisore di fascio ottico ed il primo elemento riflettente; e in cui il primo ed il secondo elemento riflettente sono configurati per ricevere il secondo fascio ottico e indirizzare il secondo fascio ottico verso il secondo divisore di fascio ottico, il quale è configurato per indirizzare sia il primo che il secondo fascio ottico verso il sensore optoelettronico di immagine (10), lungo la direzione di incidenza (OA). 7. Sistema metrologico ottico proiettivo comprendente un’unità ottica secondo una qualsiasi delle rivendicazioni precedenti ed una costellazione luminosa (2) formata da una pluralità di sorgenti luminose (4a-4c) aventi una predeterminata disposizione spaziale. 8. Sistema metrologico ottico proiettivo secondo la rivendicazione 7, in cui il sensore optoelettronico di immagine (10) comprende una superficie di rilevazione (A), e comprendente inoltre un’unità elettronica di elaborazione (30) accoppiata al sensore optoelettronico di immagine (10), ed in cui i due cammini ottici, la costellazione luminosa (2) e la superficie di rilevazione sono tali per cui: - quando la costellazione luminosa dista dall’unità ottica di una distanza compresa nel primo intervallo di distanze ([Dx,Dmin]), la prima immagine (I1) è contenuta all’interno della superficie di rilevazione ed è tale per cui l’unità di elettronica di elaborazione è in grado di determinare un numero di massimi di intensità luminosa pari al numero di sorgenti luminose della costellazione luminosa, sulla base della prima immagine; e - quando la costellazione luminosa dista dall’unità ottica di una distanza compresa nel secondo intervallo di distanze ([Dmax,Dx]), la seconda immagine (I2) è contenuta all’interno della superficie di rilevazione ed è tale per cui l’unità di elettronica di elaborazione è in grado di determinare un numero di massimi di intensità luminosa pari al numero di sorgenti luminose della costellazione luminosa, sulla base della seconda immagine; e in cui l’unità elettronica di elaborazione è inoltre configurata per determinare, per ciascun massimo di intensità luminosa determinato, corrispondenti coordinate che identificano la posizione del massimo di intensità luminosa in un sistema di riferimento (x2,y2,z2) solidale alla superficie di rilevazione, l’unità elettronica di elaborazione essendo inoltre configurata per determinare detta almeno una grandezza sulla base delle coordinate determinate. 9. Sistema metrologico ottico proiettivo secondo la rivendicazione 8, in cui la costellazione luminosa (2), la superficie di rilevazione (A) ed i due cammini ottici sono tali per cui il primo ed il secondo intervallo di distanze (Dx,Dmin],[Dmax,Dx]) sono contigui. 10. Sistema satellitare comprendente un primo ed un secondo satellite (sat1,sat1) ed un sistema metrologico ottico proiettivo (1) secondo la rivendicazione 8 o 9, in cui la costellazione luminosa (2) e l’unità ottica (6) sono vincolati rispettivamente al primo ed al secondo satellite; e comprendente inoltre un sistema di controllo di assetto e/o posizione (42) vincolato al secondo satellite e configurato per ricevere detta almeno una grandezza determinata dall’unità elettronica di elaborazione (30). COARSE AND FINE PROJECTIVE OPTICAL METROLOGY SYSTEM 1. An optical unit (6) for a projective optical metrology system (1) configured to receive a light signal (RI,R2)coming from a light target (2) and to define two different optical paths for the light signal towards an image optoelectronic sensor (10); the two optical paths being such that, when the light target is spaced from the optical unit by a distance in a first range of distances ([Dx/Dmin]), the received light signal forms on the image optoelectronic sensor, through one of the two optical paths, a first image (Ii) of the light target processable to determine at least one quantity indicative of the reciprocal arrangement between the light target and the optical unit, while when the light target is spaced from the optical unit by a distance in a second range of distances ([Dmax,Dx]) different from the first interval of distances, the received light signal forms on the image optoelectronic sensor, through the other optical path, a second image (I2)of the light target also processable to determine said at least one quantity indicative of the reciprocal arrangement between the light target and the optical unit.
- 2. The optical unit according to claim 1, further comprising a receiving optical element (12) configured to receive the light signal (RI,R2)coming from the light target (2); and wherein both the optical paths extend towards the image optoelectronic sensor (10) from the receiving optical element.
- 3. The optical unit according to claim 2, further comprising a first and a second optical circuit (OT1, OT2), the first optical circuit having a first main back plane (Pi) and a first effective back focal length (fi), and defining a first optical path of said two optical paths, the second optical circuit having a second main back plane (P2)and a second effective back focal length (f2), and defining a second optical path of said two optical paths; and wherein the first and second main back planes are spaced from the image optoelectronic sensor (10) respectively by a first and a second distance (di,d2)measured respectively along the first and second optical paths, the first and second distances being respectively a function of the first and second effective back focal lengths (fi,f2 ).
- 4. The optical unit according to claim 3, wherein the first and second distances (di,d2)are substantially equal respectively to the first and second effective back focal lengths (fi,f2;fei,fe2)■
- 5. The optical unit according to claim 3 or 4, wherein the first and second optical circuits (OT1, OT2) are also configured so as to generate, from the light signal received from the receiving optical element (12), a first and a second optical beam (RI,R2), and direct said first and second optical beams towards the image optoelectronic sensor (10), respectively along the first and second optical paths, so that the first and second images (11,12 )are respectively formed by the first and second optical beams; and wherein the first and second optical beams are also configured so that the first and second optical beams impinge on the image optoelectronic sensor along the same incidence direction (OA).
- 6. The optical unit according to claim 5, wherein the first optical circuit (OT1) comprises the receiving optical element (12) and a first and a second optical beam splitter (14, 16), the second optical circuit (OT2) comprising the receiving optical element, the first and second optical beam splitters, and a first and a second reflecting element (18,20); and wherein the first optical beam splitter is configured so as to subdivide the light signal received from the receiving optical element into the first and second optical beams (RI,R2), the first optical beam splitter also being configured to direct the first and second optical beams, respectively, towards the second optical beam splitter and the first reflecting element; and wherein the first and second reflecting elements are configured to receive the second optical beam and direct the second optical beam towards the second optical beam splitter, which is configured to direct both the first and second optical beams towards the image optoelectronic sensor (10), along the incidence direction (OA).
- 7. A projective optical metrology system comprising an optical unit according to any of the preceding claims and a light target (2) formed by a plurality of light sources (4a-4c) having a predetermined arrangement in space.
- 8. The projective optical metrology system according to claim 7, wherein the image optoelectronic sensor (10) comprises a detection surface (A), and also comprising an electronic processing unit (30) coupled to the image optoelectronic sensor (10), and wherein the two optical paths, the light target (2) and the detection surface are such that: - when the light target is spaced from the optical unit by a distance in the first range of distances ([Dx,Dmin]), the first image (11) is contained within the detection surface and is such that the electronic processing unit can determine a number of light intensity maximums equivalent to the number of light sources of the light target, on the basis of the first image; and - when the light target is spaced from the optical unit by a distance in the second range of distances ([Dmax,Dx]); the second image (12) is contained within the detection surface and is such that the electronic processing unit can determine a number of light intensity maximums equivalent to the number of light sources of the light target, on the basis of the second image; and wherein the electronic processing unit is also configured to determine, for each of the determined light intensity maximums, corresponding coordinates that identify the position of the light intensity maximum in a reference system {x2rJ2rz2) integral with the detection surface, the electronic processing unit also being configured to determine said at least one quantity on the basis of the determined coordinates.
- 9. The projective optical metrology system according to claim 8, wherein the light target (2), the detection surface (A) and the two optical paths are such that the first and second ranges of distances (Dx,Dmin],[Dmax,Dx]) are contiguous .
- 10. A satellite system comprising a first and a second satellite (satl, sat2) and a projective optical metrology system (1) according to claim 8 or 9, wherein the light target (2) and the optical unit (6) are respectively constrained to the first and second satellites; and further comprising an attitude and/or position control system (42) constrained to the second satellite and configured to receive said at least one quantity determined by the electronic processing unit (30) .
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000323A ITTO20110323A1 (it) | 2011-04-08 | 2011-04-08 | Sistema metrologico ottico proiettivo grossolano e di precisione |
US13/440,691 US8724104B2 (en) | 2011-04-08 | 2012-04-05 | Coarse and fine projective optical metrology system |
ES12163652.6T ES2568689T3 (es) | 2011-04-08 | 2012-04-10 | Sistema de metrología óptica proyectiva gruesa y fina |
EP12163652.6A EP2508428B1 (en) | 2011-04-08 | 2012-04-10 | Coarse and fine projective optical metrology system |
PL12163652.6T PL2508428T3 (pl) | 2011-04-08 | 2012-04-10 | Zgrubny i dokładny rzutowy układ metrologii optycznej |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000323A ITTO20110323A1 (it) | 2011-04-08 | 2011-04-08 | Sistema metrologico ottico proiettivo grossolano e di precisione |
Publications (1)
Publication Number | Publication Date |
---|---|
ITTO20110323A1 true ITTO20110323A1 (it) | 2012-10-09 |
Family
ID=44554047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000323A ITTO20110323A1 (it) | 2011-04-08 | 2011-04-08 | Sistema metrologico ottico proiettivo grossolano e di precisione |
Country Status (5)
Country | Link |
---|---|
US (1) | US8724104B2 (it) |
EP (1) | EP2508428B1 (it) |
ES (1) | ES2568689T3 (it) |
IT (1) | ITTO20110323A1 (it) |
PL (1) | PL2508428T3 (it) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITTO20110325A1 (it) * | 2011-04-08 | 2012-10-09 | Thales Alenia Space Italia S P A C On Unico Socio | Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione |
US9261625B2 (en) * | 2011-11-10 | 2016-02-16 | California Institute Of Technology | Ultra high resolution gravity gradiometery technique |
US20160146600A1 (en) * | 2013-11-22 | 2016-05-26 | Shervin Taghavi Larigani | Novel technique of displacement and rotation measurement |
US9696408B2 (en) * | 2014-02-04 | 2017-07-04 | University Of Florida Research Foundation, Inc. | Robust integrated precision high-speed satellite attitude determination and control system (ADCS) |
US10295651B2 (en) * | 2016-09-21 | 2019-05-21 | Pinhas Ben-Tzvi | Linear optical sensor arrays (LOSA) tracking system for active marker based 3D motion tracking |
JP6740182B2 (ja) * | 2017-06-28 | 2020-08-12 | 三菱重工業株式会社 | 飛行体 |
US10949992B2 (en) * | 2018-04-12 | 2021-03-16 | Francis Bretaudeau | Localization system with a cooperative optronic beacon |
CN110514286B (zh) * | 2019-07-22 | 2021-10-01 | 北京空间机电研究所 | 一种遥感卫星相机光轴微振动测量方法 |
IT202000017488A1 (it) | 2020-07-17 | 2022-01-17 | Thales Alenia Space Italia Spa Con Unico Socio | Unita' ottica per un sistema metrologico ottico proiettivo per la determinazione di grandezze relative a assetto e/o posizione e la comunicazione di dati |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4834531A (en) * | 1985-10-31 | 1989-05-30 | Energy Optics, Incorporated | Dead reckoning optoelectronic intelligent docking system |
FR2702056A1 (fr) * | 1993-02-23 | 1994-09-02 | Centre Nat Rech Scient | Appareil et objectif de prise de vues en stéréovision axiale. |
US20080002191A1 (en) * | 2006-06-27 | 2008-01-03 | Thales | Lateral and longitudinal metrology system |
US20080111985A1 (en) * | 2006-04-20 | 2008-05-15 | Faro Technologies, Inc. | Camera based six degree-of-freedom target measuring and target tracking device |
US20110043808A1 (en) * | 2009-08-18 | 2011-02-24 | Hisashi Isozaki | Measuring apparatus |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3784136B2 (ja) * | 1997-06-02 | 2006-06-07 | 株式会社ルネサステクノロジ | 投影露光装置および投影露光方法 |
US6870975B1 (en) * | 2001-11-14 | 2005-03-22 | Fiber Optic Systems Technology, Inc. | Fiber optic sensor usable over wide range of gage lengths |
GB0204603D0 (en) * | 2002-02-27 | 2002-04-10 | Univ Sussex The | Pattern recognition system |
KR100716882B1 (ko) * | 2005-01-07 | 2007-05-09 | 주식회사 현대오토넷 | 이동통신시스템을 이용한 위치정보 공유 시스템 및 방법 |
TWI370894B (en) * | 2007-02-26 | 2012-08-21 | Corning Inc | Method for measuring distortion |
ES2529185T3 (es) | 2007-04-27 | 2015-02-17 | Alcatel Alenia Space Italia S.P.A. | Determinación de la posición y de la orientación |
EP2151704B1 (en) * | 2008-08-07 | 2013-11-20 | Thales Alenia Space Italia S.p.A. | Shielding device for optical and/or electronic apparatuses, and space vehicle comprising such device |
-
2011
- 2011-04-08 IT IT000323A patent/ITTO20110323A1/it unknown
-
2012
- 2012-04-05 US US13/440,691 patent/US8724104B2/en active Active
- 2012-04-10 PL PL12163652.6T patent/PL2508428T3/pl unknown
- 2012-04-10 ES ES12163652.6T patent/ES2568689T3/es active Active
- 2012-04-10 EP EP12163652.6A patent/EP2508428B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4834531A (en) * | 1985-10-31 | 1989-05-30 | Energy Optics, Incorporated | Dead reckoning optoelectronic intelligent docking system |
FR2702056A1 (fr) * | 1993-02-23 | 1994-09-02 | Centre Nat Rech Scient | Appareil et objectif de prise de vues en stéréovision axiale. |
US20080111985A1 (en) * | 2006-04-20 | 2008-05-15 | Faro Technologies, Inc. | Camera based six degree-of-freedom target measuring and target tracking device |
US20080002191A1 (en) * | 2006-06-27 | 2008-01-03 | Thales | Lateral and longitudinal metrology system |
US20110043808A1 (en) * | 2009-08-18 | 2011-02-24 | Hisashi Isozaki | Measuring apparatus |
Also Published As
Publication number | Publication date |
---|---|
US8724104B2 (en) | 2014-05-13 |
PL2508428T3 (pl) | 2016-10-31 |
EP2508428B1 (en) | 2016-02-10 |
ES2568689T3 (es) | 2016-05-03 |
US20120261513A1 (en) | 2012-10-18 |
EP2508428A1 (en) | 2012-10-10 |
EP2508428A8 (en) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITTO20110323A1 (it) | Sistema metrologico ottico proiettivo grossolano e di precisione | |
KR102050632B1 (ko) | 다채널 라이다 센서 모듈 | |
US9625368B2 (en) | Apparatus, optical assembly, method for inspection or measurement of an object and method for manufacturing a structure | |
US9587977B2 (en) | Boresight error monitor for laser radar integrated optical assembly | |
JP2019049719A (ja) | 光源配置を用いてフォーカストラッキングが改善したシステム及び方法 | |
US10119815B2 (en) | Binocular with integrated laser rangefinder | |
US20090152440A1 (en) | Extended range focus detection apparatus | |
KR20190075044A (ko) | 깊이 정보 결정을 위한 다중 이미터 조명 | |
EP2989419B1 (en) | Surface roughness measurement device | |
EP3220100B1 (en) | Three-dimensional shape measuring apparatus using diffraction grating | |
KR102209500B1 (ko) | 라이다 장치 | |
EP3862812A1 (en) | Imaging apparatus and distance measuring apparatus using the same | |
CN104749901A (zh) | 一种调焦调平装置 | |
CN105954734B (zh) | 大口径激光雷达光轴监测装置 | |
CN107894208A (zh) | 光谱共焦距离传感器 | |
ITTO20110325A1 (it) | Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione | |
JP7411682B2 (ja) | 光シート顕微鏡および試料空間内の物体の屈折率を特定するための方法 | |
JP2013050352A (ja) | ステレオカメラの取り付け調整方法及びステレオカメラ | |
CN103471561A (zh) | 一种三维小角度测量装置及方法 | |
Kahlmann et al. | Calibration and improvements of the high-resolution range-imaging camera SwissRanger | |
US20210278533A1 (en) | Optical device for determining a distance of a measurement object | |
JPH09133873A (ja) | 固体物体の向きを決定するための光学装置 | |
CN109596064B (zh) | 双目共焦立体视觉扫描振镜位置误差矫正装置和方法 | |
US6822732B2 (en) | Surveying instrument having an auto-collimating function and a distance measuring function | |
JP4651550B2 (ja) | 三次元座標計測装置および方法 |