DE69709482T2 - Erntegutlinie-Ortungsvorrichtung mit Bildverarbeitung - Google Patents
Erntegutlinie-Ortungsvorrichtung mit BildverarbeitungInfo
- Publication number
- DE69709482T2 DE69709482T2 DE69709482T DE69709482T DE69709482T2 DE 69709482 T2 DE69709482 T2 DE 69709482T2 DE 69709482 T DE69709482 T DE 69709482T DE 69709482 T DE69709482 T DE 69709482T DE 69709482 T2 DE69709482 T2 DE 69709482T2
- Authority
- DE
- Germany
- Prior art keywords
- harvesting machine
- pixel
- line
- vote counts
- crop
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 title description 9
- 238000000034 method Methods 0.000 claims description 40
- 238000003306 harvesting Methods 0.000 claims description 35
- 230000003595 spectral effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012935 Averaging Methods 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims 4
- 230000006870 function Effects 0.000 description 28
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000011218 segmentation Effects 0.000 description 11
- 239000000463 material Substances 0.000 description 7
- 230000004438 eyesight Effects 0.000 description 6
- 241001124569 Lycaenidae Species 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000002706 hydrostatic effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000003750 conditioning effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000219823 Medicago Species 0.000 description 1
- 235000017587 Medicago sativa ssp. sativa Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004459 forage Substances 0.000 description 1
- 230000005226 mechanical processes and functions Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D41/00—Combines, i.e. harvesters or mowers combined with threshing devices
- A01D41/12—Details of combines
- A01D41/127—Control or measuring arrangements specially adapted for combines
- A01D41/1278—Control or measuring arrangements specially adapted for combines for automatic steering
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B69/00—Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
- A01B69/001—Steering by means of optical assistance, e.g. television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Environmental Sciences (AREA)
- Mechanical Engineering (AREA)
- Soil Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Guiding Agricultural Machines (AREA)
Description
- Die vorliegende Erfindung bezieht sich aufi landwirtschaftliche Maschinen und insbesondere auf selbstfahrende Erntegut-Erntemaschinen, die als Teil des Erntevorganges das Erntegut oder die Pflanzen, auf denen das Erntegut gewachsen ist, mähen. Die Erfindung ergibt eine automatische Lenkungssteuerung, die in der Lage ist, die Erntegut-Linie zwischen dem gemähten und ungemähten Erntegut zu bestimmen und die Erntemaschine entlang der Erntegut-Linie zu lenken, während die Erntemaschine das Feld überquert.
- In den vergangenen Jahren wurden viele der Funktionen von Erntemaschinen, die normalerweise manuell von einem Fahrer gesteuert wurden, automatisiert. Die akustische und optische Wahrnehmung durch den Fahrer wurde durch optische, akustische, magnetische, Funkfrequenz- und andere Arten von Sensoren ersetzt. Mikroprozessoren, die in Abhängigkeit von Bedingungen arbeiten, die von den Sensoren gemessen werden, haben die manuelle Fahrer-Steuerung der mechanischen Funktionen ersetzt. Es ist jedoch immer noch erforderlich, einen Fahrer einzusetzen, um die Erntemaschine so zu steuern, daß sie sich entlang einer Erntegut-Linie bewegt.
- Die menschlichen Fähigkeiten stellen eine wesentliche Beschränkung des Wirkungsgrades des Erntevorganges dar. Die Erntemaschine wird am wirkungsvollsten mit maximaler Geschwindigkeit betrieben, wobei ein Ende des Mähmechanismus geringfügig die Erntegut-Linie zwischen gemähtem und ungemähtem Erntegut überlappt. Wenn keine Überlappung vorliegt, so verbleibt ein ungemähter Streifen von Erntegut in dem Feld. Wenn andererseits die Überlappung zu groß ist, so wird nicht die maximale Breite des Erntegutes gemäht.
- Derzeit verfügbare Erntemaschinen sind mit Fahrgeschwindigkeiten von 6 bis 8 km/h betreibbar, und zukünftige Erntemaschinen werden für einen Betrieb bei höheren Geschwindigkeiten konstruiert. Obwohl ein Fahrer leicht eine Erntemaschine entlang der Erntegut-Linien mit Geschwindigkeiten von 6 bis 8 km/h lenken kann, ist die dauernde Aufmerksamkeit, die hierfür erforderlich ist, äußerst ermüdend, und der Fahrer kann den maximalen Erntewirkungsgrad bei dieser Geschwindigkeit über lange Zeitperioden nicht aufrechterhalten. Somit könnte der Nutzwirkungsgrad der Erntemaschine dadurch vergrößert werden, daß irgendeine Art von "Fahrsteuerung" vorgesehen wird, die automatisch die Erntemaschine entlang einer Erntegut-Linie mit der maximalen Erntemaschinen-Geschwindigkeit lenkt, wobei ein Eingriff des Fahrers allenfalls dann erforderlich ist, wenn sich die Erntemaschine dem Ende eines Erntegut- Feldes nähert.
- Vorrichtungen, die dazu verwendet werden können, die Erntegut-Linie zu erfassen, können in zwei Kategorien unterteilt werden: Verfahren auf Entfernungsbasis, die versuchen, den Höhenunterschied zwischen dem gemähten und dem ungemähten Erntegut festzustellen, und auf Sicht oder Abbildungen beruhende Verfahren, die versuchen, Unterschiede des Erscheinungsbildes zwischen dem Erntegut auf der gemähten und der ungemähten Seite der Erntegut-Linie festzustellen. Verfahren auf Entfernungsbasis können einen Laser-Abtast-Entfernungsrnesser, ein Laserlicht- Streifengerät, ein Stereo-Kamerasystem und ein optisches Ablaufverfahren einschließen. Auf Sicht oder Abbildungen beruhende Verfahren können eine Merkmal- Verfolgungstechnik und eine Segmentierung oder Unterteilung auf der Grundlage der Textur, Intensität und Farbe einschließen.
- Während der Entwicklung der vorliegenden Erfindung wurde ein Konfiguration in Erwägung gezogen, die einen Zweiachsen-Laserabtast-Entfemungsmesser verwendet. Dieser Sensor lenkt einen Laserstrahl über eine Szene ab und mißt die Zeit, die erforderlich ist, damit das reflektierte Licht zum Sensor zurückkehrt. Das System liefert eine Tiefeninformation über ein Sichtfeld von 360º in Azimutrichtung und 40º in Elovationsrichtung zurück. Der Sensor führt ungefähr zehn Ablenkvorgänge pro Sekunde aus und benötigt somit grob gerechnet 20 Sekunden, um ein vollständiges 2048 · 200-Entfernungsbild zu erzeugen. Diese Abtasteinrichtung ist in der Lage Höhendifferenzen von lediglich wenigen Zentimetern in einer Entfernung von 20 Metern festzustellen, und in Feldversuchen war die Höhendifferenz zwischen dem gemähten und dem ungemähten Erntematerial ziemlich klar zu erkennen. Die Nachteile dieses Systems schließen eine langsame Zykluszeit, hohe Kosten und Bedenken hinsichtlich der mechanischen Zuverlässigkeit ein.
- Ein weiteres alternatives System, das für eine Auswertung betrachtet wurde, war ein Laserlicht-Streifensensor. Lichtstreifensysteme haben zwei Bauteile: eine Lichtquelle und eine Kamera, die so abgestimmt ist, daß sie lediglich die von der Lichtquelle emittierten Frequenzen erfaßt. Typischerweise wird ein Laserstrahl durch eine Zylinderlinse geschickt, die den geradlinigen Strahl in eine Ebene aufspreizt. Diese Ebene schneidet die Szene in einer beleuchteten Linie. Entfernungen zu allen Punkten auf der Linie können dann durch Triangulation bestimmt werden.
- Die Lichtstreifeneinrichtung hat keine sich bewegenden Teile, erfordert lediglich eine minimale Rechenleistung und ist mit möglicherweise wenig aufwendig. Weil Erntemaschinen jedoch im freien Gelände arbeiten, würde ein Laser mit einer seine Anwendung ausschließenden Leistung zur Vermeidung einer Überdeckung durch Sortnenlicht erforderlich sein, um Entfernungsinformationen über die erforderliche Entfernung (ungefähr 5 Meter) zu erfassen. Das Lichtstreifensystem weist weiterhin den Nachteil auf, daß es lediglich eine geradlinige Gruppe von Tiefen zurückliefert, so daß lediglich ein Punkt entlang der Mählinie zu einer Zeit erfaßt werden.
- Stereo-Kameras ergeben eine weitere mögliche alternative Lösung auf Entfernungsbasis zur Erfassung der Erntegut-Mählinie, und zwar auf der Grundlage eines weiteren Verfahrens auf der Grundlage der Triangulation. Eine Tiefeninformation wird dadurch erzielt, daß das gleiche Objekt von zwei oder mehreren unterschiedlichen Blickpunkten aus gleichzeitig betrachtet wird, wie dies bei dem Sichtsystem des Menschen der Fall ist. Bei dieser Anwendung ist eine extrem präzise Tiefeninformation nichterforderlich. Daher wurden zwei Kamerasysteme mitrelativ kleinen Basislinien (zwischen 15 und 60 cm) untersucht. Der Storm-Stereoalgorithmus, wie er in einer Veröffentlichung für die IEEE Conference on Computer Vision and Pattern Recognition 1993 von Bill Ross mit dem Titel "A Practical Stereo Vision System" definiert wurde, wurde zur Berechnung der Korrespondenzen verwendet. Obwohl festgestellt wurde, daß ein Alfalfa-Feld eine ausreichende Textur aufweist; um das Korrespondenz- Problem zu lösen, bleibt die Berechnungsgeschwindigkeit ein Hauptproblem bei der Stereo-basierten Nachführung.
- Die US-A-4 077 488 offenbart eine Technik auf Sicht- oder Bild-Grundlage zum Lenken eines landwirtschaftlichen Fahrzeuges. Hier wird das Feld durch eine Kombination eines Kollimators und einer rotierenden Scheibe abgetastet, die mit einer Vielzahl von Öffnungen versehen ist. Ein optisches Bandpaßfilter ermöglicht es Licht, mit einer vorgegebenen Wellenlänge den Photosensor in dem Kollimator zu erreichen. Das Vorbeilaufen der Scheiben-Öffnungen vor dem Kollimator erzeugt ein Signal, das die Verteilung von mehr oder weniger reflektierenden Teilen in dem Feld anzeigt. Eine geeignete Wahl des Filters ermöglicht eine Unterscheidung zwischen Reflexionen von dem gemähten und ungemähten Erntegut. Das Signal wird in eine Rechteckschwingung transformiert, in der die Nulldurchgänge die Position der Kante des nicht gemähten Erntegutes anzeigen. Die Fahrtrichtung des Fahrzeuges wird so eingestellt, daß der Nulldurchgang und damit die Erntegut-Kante zur Mitte des Abtastfensters verschoben wird. Das System tastet das Erntegut entlang lediglich einer Linie ab, die die Erntegut-Kante überquert, derart, daß lediglich ein Überkreuzungspunkt berücksichtigt wird. Entsprechend ist das System sehr empfindlich gegenüber Störungen, die sich aus unregelmäßigen Kantenmustern ergeben, beispielsweise wenn sich das Fahrzeug Stellen nähert, an denen der Erntegutertrag schlecht ist oder an denen das Erntematerial vollständig fehlt.
- Eine alternative Technik auf Sicht- oder Bildgrundlage ist als ein Fenster-basiertes Merkmal-Verfolgungsverfahren definiert, wie es in dem Carnegie-Mellon Technical Report, 1991, veröffentlicht von C. Tomasi und T. Kanade mit dem Titel "Detection and Tracking of Point Features" beschrieben ist. Ausgehend von einem Bild der Erntegut- Mählinie wurde ein Satz von kleinen (angenähert 20 · 30-Pixeln) Fenstern, die die Mählinien-Begrenzung überlappen, von Hand ausgewählt. Diese Fenster wurden dann als Merkmale in den Algorithmus eingegeben und dann von einem Bild zum nächsten verfolgt. Auf diese Weise war es möglich, die Erntegut-Linie über eine Folge von 20 Bildern hinweg zu verfolgen. Dieses Verfahren erfordert immer noch, daß die anfänglichen Merkmalsfenster entlang der Erntegut-Linie gewählt werden.
- Ein weiteres alternatives Verfahren, das in Betracht gezogen wurde, verwendet einen örtlichen 2-D-Fourier-Transformationsoperator als Basis für eine Textur-basierte Segmentierung, die dies in einer Veröffentlichung von 1994 mit dem Titel "Segmenting textured 3D surfaces using the space/frequency representation" in Spatial Vision, Band 8, Nr. 2, beschrieben ist. Der Sinn dieses Verfahrens bestand darin, ein Raumfrequenzband mit einem erheblichen Unterschied zwischen gemähtem und ungemähtem Erntegut zu lokalisieren. Leider zeigten Vorversuche jedoch keinen klaren Nachweis einer derartigen Anzeige.
- Eine visuelle Überprüfung einiger Erntegut-Linien-Bilder zeigte, daß Teile des Bildes, die ungemähtes Erntematerial enthielten, einen wesentlich dunkler waren und einen etwas anderen Farbton aufwiesen, als die Teile, die gemähtes Erntematerial enthalten. Von diesen beiden ist der Farbunterschied allgemein stärker ausgeprägt, was sich weitgehend aus dem ausschließlichen Vorhandensein eines Blätterdaches auf der nicht gemähten Seite der Erntegut-Linie ergibt. Aufgrund der Konstantheit dieses Farbeffektes, der relativen Robustheit des Sensors und der geringeren Sensorkosten stellt ein Bild-basiertes System unter Verwendung von Farbsegmentierungstechniken das vielversprechendste Verfahren dar, das für die Erntegut-Mählinien-Nachführung verfolgt werden sollte.
- Die Bild-basierte Lenkung von landwirtschaftlichen Fahrzeugen ist keine neue Idee, und andere haben das Wahrnehmungsproblem untersucht, das hier auftritt. Beispielsweise beschreiben J. F. Reid und S. W. Searcy in einem Artikel für die ASAE im November/Dezember 1988 mit dem Titel "An Algorithm for Separating Guidance Information from Row Crop Images" ein Verfahren zur Segmentierung verschiedener unterschiedlicher Erntegut-Bedeckungen gegenüber dem Boden durch lntensitäts- Schwellenwertbildung. Sie verwenden jedoch nicht tatsächlich den Algorithmus zum Lenken eines Fahrzeuges. M. Hayashi und Y. Fujii haben in einem Artikel für das "USA-Japan Symposium on Flexible Automation" mit dem Titel "Automatic Lawn Mower Guidance Using a Vision System" eine Glättung, Kantendetektion und eine Hough-Transformation verwendet, um einen Rasenmäher entlang einer Begrenzung zwischen gemähten und ungemähten Bereichen zu lenken. Ihr Algorithmus findet jedoch nur geradlinige Begrenzungen; und sie erwähnen nicht die Geschwindigkeit, bei der sie diese Aufgabe ausführen können: Gerhard Jahns liefert einen Überblick über automatische Lenkungstechniken für landwirtschaftliche Fahrzeuge in einer ASAE-Veröffentlichung von 1983 mit dem Titel "Automatic Guidance in Agriculture: A Review".
- Die DE-A-35 07 570 offenbart ein automatisches Lenkungssystem für ein landwirtschaftliches Fahrzeug, das entlang eines Feldes oder durch ein Feld mit in Reihen von gewachsenem Erntegut gefahren wird. Das System leitet die Ausrichtung der Pflanzenreihen aus einem Anfangsbild ab. Dann wird dieses Bild entlang von Zeilen abgetastet, die parallel zu der abgeleiteten Ausrichtung sind, und die mittleren Grauwerte pro Linie werden in einem Speicher gespeichert. Während der Bewegung über das Feld wird das Feld entlang der gleichen Zeilen abgetastet. Die Abtastergebnisse pro Zeile werden mit den Werten in dem Speicher verglichen, und eine Verschiebung zwischen den Ist-Werten und den Bezugswerten wird dadurch kompensiert, daß das Fahrzeug nach links oder rechts gelenkt wird. Dieses System ist speziell für Erntegut ausgelegt, das in geraden Reihen gewachsen ist, doch ist es nicht sehr wirkungsvoll, wenn eine Erntegut-Kante oder noch schlimmer, eine gekrümmte Erntegut-Kante verfolgt werden soll.
- Nach Wissen des Anmelders ist die nachfolgend beschriebene Arbeit das einzige System, das jemals erfolgreich dazu verwendet wurde, eine Erntemaschine zu lenken.
- Es ist ein Ziel der vorliegenden Erfindung, ein Bild-basiertes Verfahren und eine Vorrichtung zur automatischen Lenkung einer selbstfahrenden Erntemaschine entlang einer Erntegut-Linie zu schaffen.
- Gemäß einem Gesichtspunkt der vorliegenden Erfindung wird ein Verfahren zum Lenken einer landwirtschaftlichen Erntemaschine entlang einer Erntegut-Linie geschaffen, wobei die Erntemaschine Steuereinrichtungen für lenkbare Räder aufweist, um auf diese Weise die Erntemaschine zu lenken, wobei das Verfahren folgendes umfaßt:
- a) Befestigen einer Betrachtungseinrichtung auf der Erntemaschine; wobei die Betrachtungseinrichtung so ausgerichtet ist, daß sie eine eine Erntegut-Linie einschließende Landschaft vor der Erntemaschine betrachtet und ein Bild hiervon bildet, und
- b) Abtasten von zumindest einem Fenster des Bildes Zeile für Zeile und Pixel für Pixel, um Informationssignale zu erzeugen, die das Bild darstellen, wobei das Verfahren durch die folgenden weiteren Schritte gekennzeichnet ist:
- c) Ableiten, aus den Informationssignalen jeder Abtastzeile i, einer Vielzahl von Diskriminanten-Funktionswerten d (i, j), worin i die Abtastzeile identifiziert und j die relative Position eines Pixels auf der Abtastzeile i ist,
- d) Bestimmen, für jede Abtastzeile i; einer Pixelposition jn, die die Pixelposition j einer Stufe in einer Stufenfunktion darstellt, die die beste Anpassung an die Diskriminanten-Funktionswerte d (i, j) darstellt, die für die Abtastzeile i erzeugt wurden,
- e) Entwickeln, für jede Pixelposition j, einer Summe der Anzahl von Malen, zu denen die Stufenposition jn bei dieser Pixelposition j während einer vollständigen Abtastung des Fenster auftritt, um für dieses Fenster Votenzählungen zu entwickeln, die bevorzugte Lenkrichtungen darstellen,
- f) Zuführen eines Lenksignals an die Steuereinrichtungen, das aus den entwickelten Votenzählungen bestimmt ist.
- Gemäß einem weiteren Gesichtspunkt der vorliegenden Erfindung wird eine selbstfahrende landwirtschaftliche Erntemaschine (10) geschaffen, die folgendes umfaßt:
- eine Betrachtungseinrichtung (30); die auf der Erntemaschine (10) befestigt und so ausgerichtet ist, daß sie eine eine Erntegut-Linie (16) einschließende Landschaft vor der Erntemaschine betrachtet und Bilder hiervon bildet, wobei der Betrachtungseinrichtung (30) eine Abtasteinrichtung zur Abtastung von zumindest einem Fenster eines Bildes Zeile für Zeile und Pixel für Pixel zugeordnet ist, um Informationssignale zu erzeugen, die dieses Fenster darstellen, und
- Steuereinrichtungen (40, 50, 46, 48) für lenkbare Räder (22, 24), um auf diese Weise die Erntemaschine (10) in Abhängigkeit von den Informationssignalen zu lenken,
- wobei die Erntemaschine dadurch gekennzeichnet ist, daß sie weiterhin folgendes umfaßt:
- erste Einrichtungen (42) zur Erzeugung, aus den Informationssignalen jeder Abtastzeile i, einer Vielzahl von Diskriminanten-Funktionswerten d(i, j) worin i die Abtastzeile und j die relative Position eines Pixels auf der Abtastzeile i identifiziert;
- zweite Einrichtungen (42), die auf die ersten Einrichtungen ansprechen; um für jede Abtastzeile eine Pixelposition jn zu bestimmen, die die Pixelposition j einer Stufe in der Stufenfunktion darstellt, die eine beste Anpassung an die Diskriminanten- Funktionswerte d(i, j) ergibt, die für die Abtastzeile i erzeugt wurden,
- eine Vielzahl von Zählern, wobei zumindest ein Zähler jeder Pixelposition j des Fenster entspricht, wobei die Zähler auf die zweiten Einrichtungen (42) ansprechen, um die Anzahl von Malen zu akkumulieren, zu denen die Stufenposition jn an dieser Pixelposition j während einer vollständigen Abtastung des Fensters auftritt, um hieraus Votenzählungen zu entwickeln, die bevorzugte Lenkrichtungen anzeigen, und dritte Einrichtungen (42), die auf die Votenzählungen ansprechen, um den Steuereinrichtungen (40, 50, 46, 48) ein Lenksignal zuzuführen, das aus den Votenzählungen bestimmt ist.
- Bei dieser Vorrichtung und dem Verfahren kann die eine beste Anpassung ergebende Stufenfunktion aus Berechnungen bestimmt werden, die das Fehlerquadrat- Fehlerkriterium verwenden. Wenn rekursive Verfahren zur Berechnung der eine beste Anpassung darstellenden Stufenfunktion verwendet werden, kann die Berechnungszeit beträchtlich verringert werden.
- Die Votenzählungen können dadurch normalisiert werden, daß die entwickelten Summen durch die Anzahl von Abtastzeilen dividiert werden. Die Lenkungszuverlässigkeit wird durch Ableiten von bevorzugten Lenkrichtungen aus einer Vielzahl von Bildern verbessert. Das Lenksignal kann dann von den gemittelten Votenzählungen abgeleitet werden. Die Zählungen können zeitlich bewertet sein, so daß Votenzählungen, die für neuere Bilder erzeugt wurden, eine größere Wertigkeit bei der Bestimmung des Lenksignals haben.
- Benachbarte Pixelposition können Fächern zugeordnet werden, die unterschiedlichen Radpositionen entsprechen, und die Votenzählungen können aus der Anzahl von Malen entwickelt werden, zu denen die Stufenposition jn, an der Pixelposition auftritt, die einem Fach zugeordnet ist.
- Die Diskriminanten-Funktion kann die prozentuale Intensität eines einzelnen Spektralbandes oder das Intensitätsverhältnis zwischen zwei Spektralbändern sein.
- Die Betrachtungseinrichtungen können eine Farb-Videokamera oder eine Schwarz- Weiß-Kamera umfassen, die ein oder mehrere zugehörige Bandpaßfilter aufweist.
- Die Erfindung wird nunmehr ausführlicher unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
- Fig. 1 eine Erntemaschine zeigt, die sich über ein Feld bewegt; auf dem ein Teil des Erntegutes gemäht wurde,
- Fig. 2 eine teilweise fortgeschnittene Seitenansicht einer selbstfahrenden Erntemaschine zeigt, auf der die Erfindung verwendet werden kann,
- Fig. 3 ein schematisches Blockschaltbild der Hardware zeigt, die das Erntemaschinen-Steuersystem bildet;
- Fig. 4A-4E Diagramme sind, die zur Erläuterung der mathematischen Grundlage des Betriebs der Erntegut-Linien-Verfolgungseinrichtung nützlich sind,
- Fig. 5A und 5B ein Ablaufdiagramm bilden, das die Betriebsweise der Erntegut-Linien-Verfolgungseinrichtung erläutert, und
- Figure 6 graphische Darstellungen umfaßt, die die Wirkung der zeitlichen Bewertung und der Mittelwertbildung von Erntegut-Linien-Verfolgungseinrichtungs- Lenksignalen erläutert.
- Fig. 1 zeigt eine selbstfahrende landwirtschaftliche Erntemaschine 10 während des Mähens eines Erntegutes auf einem Feld, das eine Umgrenzung 12 aufweist. Der nicht gemähte Teil des Erntegutes ist durch den schattierten Bereich 14 angezeigt. Die Kante oder Unterteilung zwischen dem gemähten Erntegut und dem ungemähten Erntegut vor der Erntemaschine wird allgemein als die Erntegut-Linie bezeichnet, und ist mit der Bezugsziffer 16 bezeichnet. Üblicherweise ist nicht die gesamte Fläche des Feldes mit Erntegut bepflanzt. Ein Wendebereich mit einer Breite D bleibt an jedem Ende des Feldes unbepflanzt und ergibt einen Bereich, in dem die Erntemaschine gewendet werden kann. Die Unterteilung zwischen dem Wendebereich und dem Teil des Feldes, das mit Erntegut bepflanzt ist, wird allgemein als das "Ende einer Reihe" bezeichnet und ist mit der Bezugsziffer 18 markiert. Die Erfindung ist nicht auf die Verwendung in rechtwinkligen Feldern beschränkt, und die zu mähende Erntegutfläche kann eine unregelmäßige Form aufweisen.
- Die Erntemaschine 10 kann vielfältige Formen annehmen (Mähdrescher, Feldhäcksler, usw.), doch wurden die Versuche unter Verwendung einer Maschine vom Typ 2550 Speedrower TM ausgeführt, die im Handel von der Firma New Holland North America Inc. erhältlich ist. Diese Erntemaschine ist ähnlich der, die in Fig. 2 gezeigt ist. Sie mäht Feldfrucht-Erntegut und bereitet dies auf und gibt das geerntete Erntegut auf den Boden entweder in einem verdichteten Schwad oder einem Schwad ab, der im wesentlichen so breit ist, wie die Mähbreite der Maschine. Die Erntemaschine weist einen Mähbalken 13 auf, der angehoben und abgesenkt werden kann, und der geringfügig über der Bodenhöhe an der Vorderseite der Erntemaschine gehaltert wird, wenn Erntegut gemäht wird. Eine Haspel 20 lenkt das gemähte Erntegut-Material in Aufbereitungswalzen 21 zur weiteren Aufbereitung, und das aufbereitete Erntematerial wird dann ausgeworfen.
- Zur Verwendung bei der vorliegenden Erfindung wurde die im Handel erhältliche Erntemaschine nachträglich mit linken und rechten elektrohydraulisch gesteuerten Antriebsmotoren 46 und 48 (Fig. 3) zum differenziellen und reversiblen Antreiben der Vorderräder 22, 24 ausgerüstet. Die auf diese Weise modifizierte Erntemaschine wird dadurch gelenkt, daß die Vorderräder mit unterschiedlichen Relativgeschwindigkeiten angetrieben werden.
- Die Erntemaschine 10 ist mit zumindest einer Videokamera 30 (Fig. 2) versehen, die auf einem Arm befestigt ist, der sich von einer Seite der Erntemaschine aus nach außen erstreckt. Für Versuchszwecke wurde die Kamera von einem Arm gehaltert, der in der Nähe der Oberseite der Fahrerkabine 26 befestigt war und sich zur linken Seite der Erntemaschine in einer Höhe von ungefähr 4 Metern oberhalb des Bodens erstreckte. Die Kamera ist auf einen Bereich ungefähr 4 Meter vor der Erntemaschine gerichtet, um ein Bild der Landschaft vor der Erntemaschine zu erfassen. Die Kamera ist geringfügig einwärts bezüglich des linken Endes des Erntemaschinen-Mähbalkens gehaltert, so daß sie sich direkt über der Erntegut-Linie befindet, wenn die Erntemaschine der Erntegut-Linie richtig folgt. Dies vermeidet die Notwendigkeit von Berechnungen, die sich auf die Versetzung beziehen, und ermöglicht es, daß der Lenksteueralgorithmus ausschließlich auf der Lenkung der Erntemaschine zum Halten der Erntegut-Linie in der Mitte des Bildes beruht. Wenn daher die Erntemaschine so gelenkt wird, daß die Kamera im wesentlichen über der Erntegut-Linie bleibt, so überlappt der Mähbalken geringfügig die Erntegut-Linie. Diese Überlappung stellt sicher, daß keine schmalen Streifen von ungemähtem Erntegut-Material auf dem Feld verbleiben.
- Weil die Kamera über der Erntegut-Linie gehaltert ist, beschränkt die Verwendung einer einzigen Kamera die Feld-Überdeckungspläne oder Bewegungsmuster, denen der Fahrer beim Mähen eines Feldes folgen kann, während er den Vorteil der vorliegenden Erfindung ausnutzt. Wenn beispielsweise die Erntemaschine eine einzige Kamera aufweist, die auf der linken Seite der Fahrerkabine 26 befestigt ist, so daß sie die Erntegut-Linie 16 (Fig. 1) verfolgt, so ist es nicht möglich, die Erntemaschine beim Erreichen des Endes der Reihe um 180º um das rechte Vorderrad 24 als Schwenkpunkt zuwenden und das Mähen wieder aufzunehmen. Die neue Erntegut- Linie 16' befindet sich dann auf der rechten Seite der Erntemaschine, doch befindet sich die Kamera immer noch auf der linken Seite. Daher kann es bei manchen Anwendungen wünschenswert sein, eine zweite Kamera 30, die auf der rechten Seite der Erntemaschine befestigt ist, und einen Videoschalter 32 vorzusehen, der so gesteuert ist, daß er das Video-Ausgangssignal von der passenden Kamera auswählt. Eine einzige Kamera ermöglicht jedoch die Verwendung einer derart großen Vielzahl von Feldüberdeckungsplänen, daß die Notwendigkeit für zwei Kameras äußerst begrenzt ist.
- Wie dies in Fig. 3 gezeigt ist, schließen die hauptsächlichen Hardware-Komponenten des Systems eine und möglicherweise zwei Videokameras 30, einen Videoschalter 32, wenn zwei Kameras verwendet werden, einen Computer 40 für die mechanische Steuerung, einen Video-Verarbeitungscomputer 42, linke und rechte Radantriebsmotoren 46, 48, ein elektrisch gesteuertes hydrostatisches Getriebe 50 und übliche, vom Fahrer betätigte Steuerungen 78 ein. Der Computer 40 für die mechanische Steuerung empfängt Befehle von den Steuerungen 78 und erzeugt in Abhängigkeit von diesen Befehlen Geschwindigkeits- und Lenkungssignale und Anbaugeräte- Steuerbefehle zur Steuerung des Mähbalken-Steuermechanismus 66. Die Erntemaschine wurde mit linken und rechten Vorderrad-Codierern 34 und 36 zu Zwecken versehen, die für die vorliegende Erfindung ohne Bedeutung sind.
- Der Computer 40 für die mechanische Steuerung kann ein Motorola-Modell MC68040 sein, das von dem V · Works-Echtzeit-Betriebssystem unterstützt wird. Der Video- Verarbeitungscomputer 42 kann eine Sun Sparc 20-Karte sein, auf der Unix läuft, und er schließt einen Digitalisierer 56 zur Digitalisierung von Videosignalen ein, die von dem Videoschalter 32 empfangen werden. Die Computer 40 und 42 sind über eine serielle Ethernet-Verbindungsstrecke 58 miteinander verbunden.
- Ein (nicht gezeigter) Manuell/Automatik-Betriebsartschalter steuert den Computer 40 für die mechanische Steuerung derart, daß dieser auf manuelle Lenkbefehle von den Steuerungen 78 oder auf automatische Lenkbefehle anspricht, die von dem Video- Verarbeitungs-Computer 42 entwickelt werden, wie dies weiter unten beschrieben wird.
- Der Computer 40 erzeugt seinerseits Lenkbefehle, die dem elektrisch gesteuerten hydrostatischen Getriebe 50 zugeführt werden. Ein Lenkbefehl hat einen Wert, der der reziproke Wert des Krümmungsradius der Kurve ist, für die ein Befehl gegeben wurde. Ein Lenkbefehl kann beispielsweise einen von 21 Werten zwischen -0,1 (maximale linke Kurve) und +0,1 (maximale rechte Kurve) haben, wobei der Wert von Null eine Geradeauslenkung befiehlt. Das elektrisch gesteuerte hydrostatische Getriebe 50 schließt Einrichtungen zum Auflösen der Befehle und zur Erzeugung von zwei Analogsignalen ein. Diese Analogsignale steuern die Aufteilung der insgesamt verfügbaren Hydraulikflüssigkeits-Strömung zwischen den Radantriebsmotoren 46, 48, die ihrerseits die Vorderräder mit unterschiedlichen Geschwindigkeiten antreiben, um zu bewirken, daß die Erntemaschine eine Kurve fährt. Eine Gashebel-Steuerung 76 regelt die insgesamt verfügbare Hydraulikflüssigkeit-Strömung und stellt somit die Erntemaschinen-Fahrgeschwindigkeit ein.
- Die Kamera 30 ist vorzugsweise eine Farbvideokamera, und bei der Entwicklung der Erfindung wurde eine RGB-(rot-grün-blau-) Kamera verwendet. Der Zweck der Kamera besteht darin, ein elektronisches Bild der Landschaft vor der Erntemaschine zu bilden und das Bild Zeile für Zeile und Pixel für Pixel abzutasten, um ein Signal zu erzeugen, das Informationen hinsichtlich des Spektralinhaltes des Bildes an jeder Pixelposition enthält.
- Es ist nicht erforderlich, ein gesamtes Bild abzutasten. Die Abtastung kann auf lediglich ein Fenster des Bildes beschränkt sein. Weiterhin ist es innerhalb eines Fensters nicht erforderlich, jede mögliche Abtastzeile zu verwenden. Fahrerbefehle, die in das System von einem (nicht gezeigten) Bedienfeld oder einer Tastatur eingegeben werden, können in einer bekannten Weise verwendet werden, um die Ablenkschaltungen der Kamera zu steuern, um die Größe des Fensters auszuwählen und somit Zeilenabtastungen zu überspringen. Ein Fenster kann beispielsweise 400 · 300 Pixel umfassen, doch kann diese Größe beträchtlich verändert werden. Der Zweck des Video-Verarbeitungs-Computers 42 besteht darin, das digitalisierte Videosignal, das die Szene innerhalb des Blickfeldes der Kamera 30 darstellt, zu analysieren und eine Anzeige dafür zu liefern, wo sich die Erntegut-Linie bezogen auf den Mittelpunkt der Szene befindet. Der Computer 42 ist so programmiert, daß er gerätemäßig einen Diskriminator und einen Segmentierer ausbildet.
- Die Schaffung eines Farb-Segmenierungsalgorithmus kombiniert zwei Teile: einen Diskriminator und einen Segmentierer. Der Diskriminator berechnet eine Funktion d (i, j) von einzelnen Pixeln, von denen die Signale eine gewisse Information darüber liefern, ob sich dieser Pixel in dem gemähten Bereich oder dem ungemähten Bereich befindet. Der Segmentierer verwendet dann die Diskriminante, um eine Segmentierung zu erzeugen. Damit der Segmentierer zuverlässig arbeitet, ist es wünschenswert, daß die Differenz in der Diskriminanten zwischen der gemähten Seite und der ungemähten Seite so groß wie möglich verglichen mit der Standardabweichung (S. D.) ist. Es wurden Experimente unter Verwendung einer RGB-Kamera durchgeführt, wobei die Diskriminante d (i, j) die prozentuale Intensität innerhalb eines vorgegebenen Spektralbandes oder das Verhältnis zwischen zwei Spektralbändern ist. Die Ergebnisse sind in der Tabelle I angegeben.
- Es wurden weiterhin Experimente unter Verwendung einer Schwarz-Weiß-Kamera mit sechs Bandpaßfiltern ausgeführt, die von 300-900 nm reichen, wobei jedes Filter ein Durchlaßband von 100 nm hatte. Es sei bemerkt, daß die Empfindlichkeit von im Handel erhältlichen CCD-Kameras außerhalb dieses Bereiches scharf abfällt. Die Ergebnisse sind in der Tabelle II gezeigt.
- Die Filterdaten deuten an, daß die Verwendung einer speziell hergestellten Kamera, die für lediglich einige wenige schmale Frequenzbänder empfindlich ist, einen Vorteil gegenüber einer RGB-Kamera ergeben kann.
- Auf der Grundlage der vorstehenden Tabellen und durch qualitative Beobachtung einer Anzahl von Segmentierungen wurde das Verhältnis von Rot zu Grün als die Diskriminanten-Funktion d (i, j) ausgewählt. Wenn eine erhebliche Datenbank an Bildern gewonnen wurde, kann eine lineare Fischer-Diskriminante, wie sie in einer Veröffentlichung aus dem Jahre 1974 von T. Young und T. Calvert mit dem Titel "Classification, Estimation and Pattern Recognition", veröffentlicht von der American Elsevier Publishing Co., beschrieben ist, dazu verwendet werden, die optimale lineare Diskriminante im Farbraum zu finden. Die Verwendung eines Maßes gleich diesem an einem kleinen Satz von Daten kann jedoch irreführend sein, weil die Qualität einer vorgegebenen Diskriminante sich beträchtlich für unterschiedliche Bilder ändert. Der Diskriminator berechnet aus dem digitalisierten Ausgangssignal einer Kamera eine Funktion d (i, j) von einzelnen Pixeln innerhalb eines Fensters oder eines interessierenden Bereiches von beispielsweise 400 · 300 Pixeln, die sich am Mittelpunkt des Videokamera-Bildschirmes befinden.
- Fig. 4 zeigt eine Kurve von d (i, j) für einen Teil einer Abtastzeile in der Nähe des Mittelpunktes einer Abtastzeile i, wobei die Diskriminanten-Funktion die Intensität des grünen prozentualen Anteils ist. Für jede Pixelposition j erzeugt der Diskriminator ein Ausgangssignal mit einer Größe d (i, j), die auf die prozentuale grüne Intensität an der Pixelposition bezogen ist. Aufgrund des Blätterwerks des ungemähten Erntegutes gruppieren sich die d (i, j) um einen ersten Mittelwert mr (Fig. 4E) für ungemähtes Erntegut und um einen zweiten Mittelwert ml für gemähtes Erntegut.
- Für die Aufgabe der Definition eines Segmentierers wurde beschlossen, die Anstrengungen auf die Darstellung von Segmentierungen zu beschränken, die das Bild in genau zwei verbundene Bereiche unterteilen. Es wurde weiterhin angenommen, daß die Grenze zwischen diesen Bereichen eine einwertige Funktion der Reihenkoordinate i ist, und daß diese Grenze weder die linke noch die rechte Kante des Bildes schneidet. Diese Grenzfunktion ist explizit durch den Satz von Pixeln (i, j) dargestellt, die auf ihr liegen, so daß nichts weiter über die Form der Grenze angenommen wird.
- Fig. 4A zeigt eine darstellbare Segmentierung, und die Fig. 4B und 4C zeigen einige nicht darstellbare Segmentierungen. Diese Darstellung wurde nicht gewählt, weil sie genau alle die Bilder genau charakterisiert, die segmentiert werden müssen, sondern weil sie schnell berechnet werden. Obwohl Bilder, wie diejenigen in Fig. 4B und 4C auftreten, deckt die gewählte Darstellung die große Mehrzahl der Bilder ab, die bei einem Erntevorgang auftreten.
- Fig. 4E schlägt eine Stufenfunktion vor, die durch drei Parameter definiert ist: jn, die j-Koordinate der Diskontinuität, ml, den Mittelwert der Stufenfunktion auf der linken Seite der Diskontinuität, und mr, den Mittelwert der Stufenfunktion auf der rechten Seite der Diskontinuität. Das Auffinden der besten Segmentierung ist damit eine Frage des Auffindens der die beste Anpassung darstellenden Stufenfunktion (niedrigster Fehlerquadrat = Fehler) zu d (i, j) entlang einer vorgegebenen Abtastzeile.
- Der Segmentierer kann jn, entsprechend dem folgenden Algorithmus bestimmen:
- kleinster Fehler = unendlich
- für jedes mögliche jd von jmin bis jmax
- berechne ml
- berechnet mr
- berechne Fehler
- wenn (Fehler < kleinster_Fehler)
- kleinster_Fehler = Fehler
- jn = nd
- Ende wenn
- Ende für.
- Der Hauptteil der Rechenzeit für diesen Algorithmus ergibt sich aus der Berechnung von ml, mr und des Fehlers e. Die Berechnung der Mittelwerte und der Fehler für den ersten Wert jd erfordert eine Zeit in der Größenordnung von (jmax - jmin) Dies erfordert jedoch lediglich eine kleine konstante Anzahl von Operationen zur Neuberechnung von ml, mr und des Fehlers e für nachfolgende Werte von jd. Das Endergebnis besteht darin, daß der gesamte Algorithmus lediglich eine Zeit in der Größenordnung von (jmax - jmin) zum Auffinden der eine beste Anpassung darstellenden Stufenfunktion für eine vorgegebene Abtastzeile erfordert. Unter Verwendung eines 400 · 300- Pixelfensters des Bildes kann eine Zykluszeit von ungefähr von 4 Hz für das gesamte System unter Verwendung des nachfolgend abgeleiteten Algorithmus erzielt werden.
- Wenn jd als die am weitesten rechts liegenden Spalte oder das Pixel auf der linken Seite der Diskontinuität definiert ist, und wenn sich die Spaltennummern von 0 bis jmax ändern, so können ml, mr und der Fehler e als Funktionen von jd berechnet werden, wobei diese Ausdrücke für jd von 0 bis jmax - 1 definiert sind.
- Es ist eine Zeit in der Größenordnung von n zur Berechnung von Fehler(jd) aus d (i, j) allein erforderlich. Es ist jedoch möglich, Fehler (jd + 1) aus Fehler (jd) in einer konstanten Zeit dadurch zu berechnen, daß die Berechnung von Fehler (jd) in Ausdrücken der folgenden Funktionen ausgedrückt wird.
- tl(jd) = d(i, j) (1)
- tr(jd) = d(i, j) (2)
- t2l(jd) = [d(i, j)]² (3)
- t2r(jd) = [d(i, j)]² (4)
- i = i~+1
- Aus den Gleichungen 1-4 kann Fehler(jd) berechnet werden:
- Als nächstes können die Gleichungen 1-4 rekursiv erneut ausgedrückt werden:
- tl (0) = d (i, 0) (6a)
- tl(jd) = tl(jd - 1) + d(i; jd) (6b)
- tr(0) = d(i, j) (7a)
- tr(jd) = tr(jd - 1) - d(i, jd) (7b)
- t2l(0) = [d(i, 0]² (8a)
- t2r(jd) = t2l(jd - 1) + [d(i, jd)]² (8b)
- t2r(0) = [d(i, j)]² (9a)
- t2r(jd) = t2r(jd - 1) - [d(i, jd)]² (9b)
- Es erfordert lediglich eine konstante Anzahl von Operationen zur Berechnung von t&sub1;, tr, t2l und t2r bei jd + 1, sofern ihre Werte bei jd gegeben sind. Die Gleichung 5 wird dann zur Berechnung des Fehlers bei jd + 1 verwendet.
- Die Berechnung kann mit noch weniger Schritten durchgeführt werden, wenn irgendeine monotone 1-zu-1-Funktion von Fehler (jd) anstelle von Fehler (jd) berechnet wird. Beispielsweise erspart die Berechnung
- f(jd) = [e(jd)·(jmax + 1)]² (10)
- eine Quadratwurzel- und Divisions-Operation bei jedem Schritt. Es ist noch besser,
- f(jd) = [e(jd)·(jmax + 1)]² - d(i, j) (11)
- zu berechnen, wobei diese Gleichung rekursiv unter Verwendung der folgenden drei Gleichungen berechnet werden kann.
- tl(0) = d(i, 0) (12a)
- tl(jd) = tl(jd - 1) + d(i, jd) (12b)
- tr(0) = d(i, j) (13a)
- tr(jd) = tr(jd - 1) - d(i, jd) (13b)
- Verglichen mit der direkten Berechnung von Fehler (jd) führt dies zu einer Vergrößerung der Zyklusrate (Verringerung der Rechenzeit) von ungefähr 30%.
- Die Fig. 5A und 5B erläutern eine Programmroutine, die von dem Video- Verarbeitungs-Computer 42 ausgeführt wird, um einen Lenkbefehl aus den digitalisierten Videosignalen zu erzeugen, die durch die Abtastung elektronischer Bilder gewonnen werden, die auf dem Schirm der Kamera 30 gebildet werden, während die Kamera die Landschaft vor der Erntemaschine sieht. Der Schritt 100 berechnet und speichert den Diskriminanten-Wert d (i, j) für ein Pixel j entsprechend der verwendeten Diskriminanten-Funktion, beispielsweise dem Verhältnis Rot/Grün. Der Schritt 101 bestimmt, ob dies das letzte Pixel (i, j) ist, das in der derzeitigen Abtastzeile i zu untersuchen ist, und wenn dies nicht das letzte Pixel ist, so wird der Schritt 100 erneut wiederholt, um einen Diskriminanten-Wert d (i, j + 1) für das nächste Pixel zu entwickeln und zu speichern. Unter der Annahme, daß das zu analysierende Fanster 400 Pixel breit ist, werden die Schritte 100 und 101 400 mal wiederholt, um 400 Werte d (i, 1) bis d (i, 400) zu entwickeln und zu speichern. Nachdem ein Wert d (i, j) für jede Position j auf einer Abtastzeile berechnet wurde, erweist sich die Prüfung im Schritt 101 als wahr, und die Routine geht zum Schritt 102 über, die eine eine beste Anpassung darstellende Stufenfunktion für diese Werte berechnet. Die Position des Schrittes definiert eine Pixelposition in, die ihrerseits die Segmentierung darstellt, d. h. die Position der Erntegut-Linie zwischen gemähtem und ungemähtem Erntegut, wie sie aus der derzeitigen Abtastzeile i bestimmt wird. Das im Schritt 102 erzeugte Segmentierer-Ausgangssignal ist ein Binärsignal, das eine jeder Pixelposition j auf einer einzigen Abtastzeile i und innerhalb des interessierenden Fensters entsprechende Bit-Position aufweist. In dem Signal ist ein einziges 1-Bit in der Position enthalten, die der berechneten Stufenfunktions-Pixelposition jn entspricht. Dieses Bit stellt ein Erntegut-Linien-Verfolgungs-"Votum" hinsichtlich des Lenkwinkels oder der Richtung dar, in die die Erntemaschine gesteuert werden sollte, damit der Erntegut-Linie gefolgt wird und damit das Erntegut-Linien-Bild am Mittelpunkt des Fensters gehalten wird.
- In idealer Weise sollten die Voten hinsichtlich der Lenkrichtung in der gleichen Bit- Position in jedem Ausgangssignal auftreten, wenn die Erntemaschine der Erntegut- Linie folgt. In der tatsächlichen Praxis bewirken jedoch Erntegut-freie leere Bereiche, Bereiche von schlechtem oder totem Erntematerial und andere Anomalien eine Verteilung der Voten auf unterschiedliche Bit-Positionen für unterschiedliche Abtastzeilen. Es ist ein Akkumulator für jede Pixelposition vorgesehen, und im Schritt 103 wird das im Schritt 102 erzeugte Votum in den Akkumulator addiert, der Voten für die Grenz-Position j, akkumuliert. Der Segmentierer erzeugt ein Ausgangssignal oder ein Votum für jede Abtastzeile i innerhalb des Fensters oder des interessierenden Bereichs. Der Schritt 104 bestimmt, ob die letzte Abtastzeile des Fensters verarbeitet wurde. Wenn die letzte Abtastzeile noch nicht verarbeitet wurde, so erfolgt eine Rückkehr zum Schritt 100, und die Schritte 100-103 werden wiederholt, um ein Votum hinsichtlich der Lenkrichtung für die nächste Abtastzeile zu entwickeln.
- Unter der Annahme, daß das Fenster 100 Pixel hoch ist, so stellt der Schritt 104 fest, wenn alle 100 Abtastzeilen des Bildes innerhalb des Fensters verarbeitet wurden, und das Programm geht zum Schritt 105 über. An diesem Punkt hat die Erntegut-Linien- Verfolgungseinrichtung aus einer vollständigen Abtastung des Bildes 100 Voten hinsichtlich der Lenkrichtung entwickelt, wobei diese Voten auf 400 Voten- Akkumulatoren verteilt sind. Die elektrischen Steuerungen des hydrostatischen Getriebes 50 (Fig. 3) sind jedoch lediglich in der Lage, die Lenkung bei ungefähr 21 unterschiedlichen Krümmungsgraden zu steuern. Daher werden die 400 Pixelpositionen in Gruppen von benachbarten Positionen unterteilt und 21 Fächern zugeordnet. Die akkumulierten Voten-Zählungen für alle Pixelpositionen, die einem vorgegebenen Fach zugeordnet werden, werden dann im Schritt 105 summiert, um 21 Fach-Votenzählungen zu gewinnen. Im Schritt 106 werden die Fach- Votenzählungen dadurch normalisiert, daß sie durch die Anzahl von Abtastzeilen (100) dividiert werden, und die normalisierten Voten-Zählungen werden gespeichert. Somit erzeugt die Erntegut-Linie-Verfolgungseinrichtung für jedes Bild 21 normalisierte Fach-Voten hinsichtlich der Lenkrichtung, wobei jedes normalisierte Votum einen Wert zwischen 0,0 und 1,0 hat, und die Summe der normalisierten Voten gleich 1 ist. Die normalisierten Fach-Voten werden im Speicher für eine Weiterverarbeitung gespeichert, die nachfolgend beschrieben wird.
- Wie dies weiter oben erwähnt wurde, muß die Größe des Bildfensters nicht 400 · 100 Pixel betragen, und es ist nicht erforderlich, jede Pixelposition des Bildes innerhalb des Fensters zu verarbeiten. Beispielsweise kann die Verarbeitung jedes dritten oder vierten Pixels fortgelassen werden, um die Signalverarbeitungszeit zu verringern, wenn das ungemähte Erntegut relativ gleichförmig über das Feld hinweg verteilt ist und es leicht ist, dieses Erntegut von dem gemähten Abschnitt des Feldes zu unterscheiden.
- Die normalisierten Fach-Votenzählungen, die im Schritt 106 als Ergebnis der Abtastung eines Bildes gespeichert werden, sind zeitlich abklingend, und sie werden mit dem Fach-Votenzählungen gemittelt, die sich aus Abtastungen vorhergehender Bilder ergeben. Der Grund hierfür kann unter Bezugnahme auf Fig. 6 erläutert, werden, die eine typische Situation für den Fall eines schlechten Ernteguts erläutert. Die Figur ist für den Fall von mehr als 21 Lenkrichtungen gezeichnet, um klarer die Glättungsfunktion zu demonstrieren. In Fig. 6 sei angenommen, daß die graphischen Darstellungen (a)-(d) die Fach-Votenzählungen darstellen, die als Ergebnis der Abtastung von vier aufeinanderfolgenden Bildern erzeugt werden, wobei die graphische Darstellung (a) für das letzte Bild gilt. Jeder vertikale Balken in einer graphischen Darstellung stellt die Votenzählung in einem der Fächer dar, d. h. die akkumulierte Votenzählung für ein Fach, wie sie von der Erntegut-Linien-Verfolgungseinrichtung im Schritt 105 in Fig. 5A entwickelt wurde, und bevor die Votenzählungen normalisiert sind. In jeder graphischen Darstellung wurden die für jedes Bild akkumulierten Voten durch einen Faktor zeitlich bewertet, wie dies auf der linken Seite jeder graphischen Darstellung gezeigt ist.
- In der graphischen Darstellung (a) hat das Fach oder die Lenkrichtung, die mit 220 bezeichnet ist, die höchste Votensumme, so daß, wenn die für dieses Bild abgeleiteten Voten allein betrachtet wurden, ein Befehl an die Erntemaschine geliefert würde, eine ziemlich extreme Kurve nach links zu fahren, weil dieses Fach von dem "geradeaus"-Fach, das durch 0 dargestellt ist, um ungefähr 15 Fächer getrennt ist. Andererseits sind für die drei vorhergehenden Bilder die Votensummierungen für die mit 221, 222 bzw. 223 bezeichneten Fächer am größten, so daß, wenn die Votensummierungen für diese Bilder allein berücksichtigt würden, ein Befehl an die Erntemaschine gegeben würde, leicht nach rechts in sich geringfügig ändernden Ausmaß zu steuern.
- Die Votensummierungen in der graphischen Darstellung (a) ergaben sich offensichtlich aus irgendeiner Anomalie, und sie würden eine unerwünschte Lenkung nach links hervorrufen, wenn sie allein berücksichtigt würden. Um einen derartigen Vorgang zu vermeiden, werden die Fach-Votenzählungen für mehrere Bilder gespeichert, und sie klingen in ihrem Wert mit der Zeit ab, und die abklingenden Votenzählungs-Werte werden dann miteinander addiert. Die graphische Darstellung (e), die nicht in dem gleichen Maßstab gezeichnet ist, wie die graphischen Darstellungen (a-d), zeigt das Ergebnis. Durch die zeitliche Bewertung und Summierung der normalisierten Votenzählungen in entsprechenden Fächern für die vier Bilder hat das mit 224 bezeichnete Fach die größte Summe. Damit kann durch die Berücksichtigung der Voten über vier Bilder die fehlerhafte Lenkungsanzeige, die in der graphischen Darstellung (a) dargestellt ist, ausgefiltert oder ausgemittelt werden, und es kann ein Befehl an die Erntemaschine geliefert werden, leicht nach rechts zu lenken, obwohl die Analyse des letzten Bildes anzeigt, daß eine starke Lenkung nach links erforderlich ist.
- Gemäß Fig. 5B bewertet der Schritt 107 jede der 21 normalisierten Fach- Votenzählungen, die sich aus den Abtastungen der letzten n Bilder ergeben, in zeitlicher Weise oder er läßt diese abklingen. Obwohl Fig. 6 die Summierung von Voten für n = 4 Bilder zeigt, kann n irgendeine feste Anzahl oder die Anzahl von Bildern sein, die von der Erntegut-Linien-Verfolgungseinrichtung 102 innerhalb eines festen Intervalls von beispielsweise ein oder zwei Sekunden verarbeitet werden.
- Der Schritt 108 mittelt die zeitlich abklingenden normalisierten Fach-Votenzählungen, die im Schritt 107 erzeugt wurden, um ein Vorzugs-Lenksignal zu erzeugen. Aus der folgenden Beschreibung ist ersichtlich, daß dieses Vorzugs-Lenksignal 21 Fächer oder Werte umfaßt. Das Vorzugs-Lenksignal wird dann im Schritt 109 gespeichert. Nachdem das Vorzugs-Lenksignal gespeichert wurde, prüft der Schritt 110 einen Zeitgeber, ob 0,1 Sekunden abgelaufen sind. Lenkbefehle werden unter Intervallen von 0,1 Sekunden erzeugt. Wenn der Schritt 110 feststellt, daß noch nicht 0,1 Sekunden seit der Erzeugung des letzten Lenkbefehls abgelaufen sind, so werden die Schritte 107-109 wiederholt. Nach 0,1 Sekunden erweist sich die Prüfung im Schritt 110 als wahr, und der Schritt 111 wird ausgeführt. Der Schritt 111 überprüft jeden der 21 Fach-Gesamtsummen, die im Schritt 109 gespeichert wurden, und bestimmt, welches Fach die größte Gesamtsumme hat. Ein Lenkbefehl wird dann erzeugt (Schritt 112), wobei der Lenkbefehl ein 1-Bit an der Position hat, die der Position des Faches entspricht, von dem festgestellt wurde, daß es den größten Wert hat.
- Die im Schritt 112 erzeugten Lenkbefehle werden von dem Computer 42 über den Computer 40 an die elektrischen Steuerungen des Getriebes 50 übertragen, die die Befehle in der vorstehend beschriebenen Weise decodieren, um die Vorderräder in unterschiedlicher Weise anzutreiben und damit die Erntemaschine in der befohlenen Richtung zu lenken.
- Die vorstehend beschriebene Erfindung ist in der Lage, als eine "Fahrsteuerung" zu wirken, was den Fahrer von der Verantwortlichkeit für das Lenken der Erntemaschine entlastet. Sie kann in Verbindung mit einem das Ende einer Reihe feststellenden Detektor verwendet werden, der die Vorwärtsbewegung der Erntemaschine verlangsamt oder stoppt und dem Fahrer signalisiert, daß er eine manuelle Steuerung übernehmen kann, um das Wenden durchzuführen. Die Erfindung kann weiterhin in ein vollständig automatisiertes Steuersystem eingefügt werden, das außerdem das Wenden steuert, wodurch die Notwendigkeit eines Fahrers auf der Erntemaschine entfallen kann.
- Obwohl die Erfindung bezüglich einer bevorzugten Ausführungsform beschrieben wurde, ist es verständlich, daß verschiedene Ersetzungen und/oder andere Modifikationen bei der beschriebenen Ausführungsform durchgeführt werden können, ohne von dem Grundgedanken und dem Schutzumfang der Erfindung abzuweichen, wie er in den beigefügten Ansprüchen definiert ist.
Claims (23)
1. Verfahren zum Lenken einer landwirtschaftlichen Erntemaschine (10) entlang
einer Erntegut-Linie (16), wobei die Erntemaschine Steuereinrichtungen (40, 50, 46,
48) für lenkbare Räder (22, 24) aufweist, um auf diese Weise die Erntemaschine (10)
zu lenken, wobei das Verfahren folgende Schritte umfaßt:
a) Befestigen einer Betrachtungseinrichtung (30) auf der Erntemaschine,
wobei die Betrachtungseinrichtung so ausgerichtet ist, daß sie eine eine Erntegut-
Linie (16) einschließende Landschaft vor der Erntemaschine betrachtet und ein Bild
hiervon bildet, und
b) Abtasten von zumindest einem Fenster des Bildes Zeile für Zeile und Pixel
für Pixel, um Informationssignale zu erzeugen, die das Bild darstellen,
wobei das Verfahren durch die folgenden weiteren Schritte gekennzeichnet ist:
c) Ableiten, aus den Informationssignalen jeder Abtastzeile i, einer Vielzahl
von Diskriminanten-Funktionswerten d (i, j), worin i die Abtastzeile identifiziert und j
die relative Position eines Pixels auf der Abtastzeile i ist,
d) Bestimmen, für jede Abtastzeile i, einer Pixelposition jn, die die
Pixelposition j einer Stufe in einer Stufenfunktion darstellt, die die beste Anpassung
an die Diskriminanten-Funktionswerte d (i, j) darstellt, die für die Abtastzeile i erzeugt
wurden,
e) Entwickeln, für jede Pixelposition j, einer Summe der Anzahl von Malen,
zu denen die Stufenposition jn bei dieser Pixelposition j während einer vollständigen
Abtastung des Fensters auftritt, um für dieses Fenster Votenzählungen zu entwickeln,
die bevorzugte Lenkrichtungen darstellen,
f) Zuführen eines Lenksignals an die Steuereinrichtungen (40, 50, 46, 48),
das aus den entwickelten Votenzählungen bestimmt ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß im Schritt d) die
eine beste Anpassung darstellende Stufenfunktion unter Verwendung des
Fehlerquadrat-Fehlerkriteriums bestimmt wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die eine beste
Anpassung darstellende Stufenfunktion unter Verwendung einer Berechnung von auf
den quadrierten Fehler bezogenen Werten für einen Bereich von Pixelpositionen jd in
einer rekursiven Weise bestimmt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß:
im Schritt e) die Votenzählungen dadurch normalisiert werden, daß die für jede
Pixelposition j entwickelte Summe durch die Anzahl von Abtastzeilen dividiert wird,
und
im Schritt f) das Lenksignal aus den normalisierten Votenzählungen bestimmt
wird:
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß:
die Schritte b) bis e) für eine Vielzahl von Bildern wiederholt werden, und
im Schritt f) das den Steuereinrichtungen (40, 50, 46, 48) zugeführte
Lenksignal aus den Votenzählungen bestimmt wird, die für die Vielzahl von Bildern
entwickelt wurden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß während des
Schrittes f) die für eine Vielzahl von Bildern entwickelten Votenzählungen gemittelt
werden, um das Lenksignal zu bestimmen.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß im Schritt f) die für
eine Vielzahl von Bildern entwickelten Votenzählungen zeitlich bewertet und dann
gemittelt werden, so daß die für die neuesten Bilder erzeugten Votenzählungen eine
größere Wertigkeit bei der Bestimmung des Lenksignals aufweisen.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß im Schritt e) Gruppen von benachbarten Pixelpositionen j
Fächern (220-223) zugeordnet werden, und daß für jedes Fach eine Fach-Summe
entwickelt wird, die die Anzahl von Malen darstellt, zu denen die Stufenposition jn der
Stufenfunktion an irgendeiner Pixelposition j auftritt, die dem Fach zugeordnet ist, um
die Votenzählungen zu entwickeln.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß im Schritt e) die
Votenzählungen durch Dividieren der Fach-Summe für jedes Fach (220-223) durch
die Anzahl von Abtastzeilen normalisiert werden.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß der Schritt a) die Befestigung einer Farbvideokamera (30) auf
der Erntemaschine (10) umfaßt.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die
Farbvideokamera eine RGB-Videokamera (30) ist.
12. Verfahren nach einem der Ansprüche 1-9, dadurch gekennzeichnet, daß der
Schritt a) die Befestigung einer Schwarz-Weiß-Videokamera (30) mit einem oder
mehreren zugehörigen Bandpaßfiltern auf der Erntemaschine (10) umfaßt.
13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß die Diskriminanten-Funktion d(i, j) das Intensitätsverhältnis
zwischen zwei vorgegebenen Spektralbändern ist.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß die Diskriminanten-
Funktion d(i, j) das Intensitätsverhältnis der roten zur grünen Farbe ist.
15. Verfahren nach einem der Ansprüche 1-12, dadurch gekennzeichnet, daß die
Diskriminanten-Funktion d(i, j) die prozentuale Intensität eines vorgegebenen
Spektralbandes ist.
16. Selbstfahrende landwirtschaftliche Erntemaschine (10), die folgendes umfaßt:
eine Betrachtungseinrichtung (30), die auf der Erntemaschine (10) befestigt
und so ausgerichtet ist, daß sie eine eine Erntegut-Linie (16) einschließende
Landschaft vor der Erntemaschine betrachtet und Bilder hiervon bildet, wobei der
Betrachtungseinrichtung (30) eine Abtasteinrichtung zur Abtastung von zumindest
einem Fenster eines Bildes Zeile für Zeile und Pixel für Pixel zugeordnet ist, um
Informationssignale zu erzeugen, die dieses Fenster darstellen, und
Steuereinrichtungen (40, 50, 46, 48) für lenkbare Räder (22, 24), um auf diese
Weise die Erntemaschine (10) in Abhängigkeit von den Informationssignalen zu
lenken,
wobei die Erntemaschine dadurch gekennzeichnet ist, daß sie weiterhin
folgendes umfaßt:
erste Einrichtungen (42) zur Erzeugung, aus den Informationssignalen jeder
Abtastzeile i, einer Vielzahl von Diskriminanten-Funktionswerten d (i, j), worin i die
Abtastzeile und j die relative Position eines Pixels auf der Abtastzeile i identifiziert;
zweite Einrichtungen (42), die auf die ersten Einrichtungen ansprechen; um für
jede Abtastzeile eine Pixelposition jn zu bestimmen, die die Pixelposition j einer Stufe
in der Stufenfunktion darstellt, die eine beste Anpassung an die Diskriminanten-
Funktionswerte d (i, j) ergibt, die für die Abtastzeile i erzeugt wurden;
eine Vielzahl von Zählern, wobei zumindest ein Zähler jeder Pixelposition j des
Fensters entspricht, wobei die Zähler auf die zweiten Einrichtungen (42) ansprechen,
um die Anzahl von Malen zu akkumulieren, zu denen die Stufenposition jn an dieser
Pixelposition j während einer vollständigen Abtastung des Fensters auftritt, um
hieraus Votenzählungen zu entwickeln, die bevorzugte Lenkrichtungen anzeigen, und
dritte Einrichtungen (42), die auf die Votenzählungen ansprechen, um den
Steuereinrichtungen (40, 50, 46, 48) ein Lenksignal zuzuführen, das aus den
Votenzählungen bestimmt ist.
17. Erntemaschine nach Anspruch 16, dadurch gekennzeichnet, daß die dritten
Einrichtungen Einrichtungen (42) zum Mitteln der Votenzählungen umfassen, die von
den Zählern während der Abtastung von Fenstern von aufeinanderfolgenden Bildern
erzeugt werden.
18. Erntemaschine nach Anspruch 17, dadurch gekennzeichnet, daß die dritten
Einrichtungen (42) weiterhin Einrichtungen zur zeitlichen Bewertung der für
aufeinanderfolgende Bilder erzeugten Votenzählungen vor deren Mittelung aufweisen,
so daß die für jüngere Bilder erzeugten Votenzählungen eine größere Wertigkeit bei
der Bestimmung des Lenksignals haben:
19. Erntemaschine nach einem der Ansprüche 16-18, dadurch gekennzeichnet,
daß die dritten Einrichtungen (42) Akkumulatoreinrichtungen zur Akkumulation von
Fach-Votenzählungen durch Bildung der Gesamtsumme der Votenzählungen
einschließen, die von den Zählern für Gruppen (220-224) von benachbarten
Pixelpositionen erzeugt werden.
20. Erntemaschine nach einem der Ansprüche 16-19, dadurch gekennzeichnet,
daß die ersten Einrichtungen (42) einen Diskriminanten-Funktionswert d(i, j), der
durch das Intensitätsverhältnis zwischen zwei vorgegebenen Spektralbändern
bestimmt ist, an jeder Pixelposition (i, j) erzeugen.
21. Erntemaschine nach einem der Ansprüche 16-20, dadurch gekennzeichnet,
daß die ersten Einrichtungen (42) einen Diskriminanten-Funktionswert d(i, j), der
durch die prozentuale Intensität eines vorgegebenen Spektralbandes bestimmt ist, an
jeder Pixelposition (i, j) erzeugen.
22. Erntemaschine nach einem der Ansprüche 16-21, dadurch gekennzeichnet,
daß die Betrachtungseinrichtungen eine RGB-Farbvideokamera (30) oder eine
Schwarz-Weiß-Videokamera mit einem oder mehreren zugeordneten Bandpaßfiltern
umfassen.
23. Erntemaschine nach einem der Ansprüche 16-22, dadurch gekennzeichnet,
daß die Steuereinrichtungen (40, 50, 46, 48) zum Lenken der Räder (22, 24) erste
und zweite Antriebsmotoren (46, 48) zum Antrieb eines ersten und eines zweiten der
Antriebsräder, jeweils bei unterschiedlichen Drehgeschwindigkeiten, umfassen, um
die Erntemaschine (10) zu steuern.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US1623696P | 1996-04-19 | 1996-04-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69709482D1 DE69709482D1 (de) | 2002-02-14 |
DE69709482T2 true DE69709482T2 (de) | 2002-11-07 |
Family
ID=21776080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69709482T Expired - Lifetime DE69709482T2 (de) | 1996-04-19 | 1997-04-15 | Erntegutlinie-Ortungsvorrichtung mit Bildverarbeitung |
Country Status (3)
Country | Link |
---|---|
US (1) | US5911669A (de) |
EP (1) | EP0801885B1 (de) |
DE (1) | DE69709482T2 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10328395B4 (de) * | 2003-06-18 | 2010-11-11 | Gebr. Pöttinger GmbH | Verfahren zur Steuerung einer Landmaschine |
DE102005005557B4 (de) * | 2005-02-07 | 2016-02-25 | Alois Pöttinger Maschinenfabrik Gmbh | Vorrichtung zur Steuerung und/oder Regelung einer Landmaschine mittels einer Bilderfassungs- und -verarbeitungseinrichtung |
DE102018220410A1 (de) * | 2018-11-28 | 2020-05-28 | Zf Friedrichshafen Ag | Selbsttätiges Lenken einer landwirtschaftlichen Maschine auf einer landwirtschaftlichen Fläche |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0975209B1 (de) * | 1997-04-16 | 2003-05-21 | Carnegie Mellon University | Agrar-erntemaschine mit roboter-kontrolle |
DE19719939A1 (de) * | 1997-05-13 | 1998-11-19 | Claas Ohg | Automatisch lenkbare Erntemaschine |
DE29724569U1 (de) | 1997-06-25 | 2002-05-16 | Claas Selbstfahrende Erntemaschinen GmbH, 33428 Harsewinkel | Vorrichtung an Landmaschinen zur berührungslosen Abtastung von sich über dem Boden erstreckender Konturen |
DE19743884C2 (de) * | 1997-10-04 | 2003-10-09 | Claas Selbstfahr Erntemasch | Vorrichtung und Verfahren zur berührungslosen Erkennung von Bearbeitungsgrenzen oder entsprechenden Leitgrößen |
US6469628B1 (en) | 1998-03-23 | 2002-10-22 | Time Domain Corporation | System and method for using impulse radio technology in the farming field |
US6540633B1 (en) * | 1998-09-25 | 2003-04-01 | Tuff Torq Corporation | Transmission for speed changing and steering of a vehicle |
DE19853085B4 (de) * | 1998-11-18 | 2014-03-20 | Claas Selbstfahrende Erntemaschinen Gmbh | Verfahren zum Justieren einer an einer Feldmaschine befestigten Sensoreinheit sowie eine Justiereinrichtung und eine Feldmaschine |
ATE374517T1 (de) | 1999-07-20 | 2007-10-15 | Agriculture Guided Implement S | Ortungssystem und verfahren |
IT1311624B1 (it) * | 1999-12-30 | 2002-03-14 | Claudio Ciani | Apparato per il trattamento di piantagioni in filari. |
AU2001258220B2 (en) * | 2000-05-03 | 2003-10-16 | Claas E-Systems Verwaltungs Gmbh | A method of segmentation of a digital image and a method of controlling an implement |
US6385515B1 (en) * | 2000-06-15 | 2002-05-07 | Case Corporation | Trajectory path planner for a vision guidance system |
US6364027B1 (en) * | 2000-06-26 | 2002-04-02 | Donald Tvetene | Sod harvester |
US6714662B1 (en) * | 2000-07-10 | 2004-03-30 | Case Corporation | Method and apparatus for determining the quality of an image of an agricultural field using a plurality of fuzzy logic input membership functions |
US6721453B1 (en) * | 2000-07-10 | 2004-04-13 | The Board Of Trustees Of The University Of Illinois | Method and apparatus for processing an image of an agricultural field |
DE10129136A1 (de) * | 2001-06-16 | 2002-12-19 | Deere & Co | Einrichtung zur selbsttätigen Lenkung eines landwirtschaftlichen Arbeitsfahrzeugs |
US6615570B2 (en) * | 2001-06-28 | 2003-09-09 | Deere & Company | Header position control with forward contour prediction |
DE10204702A1 (de) * | 2002-02-05 | 2003-08-14 | Claas Selbstfahr Erntemasch | Ortungssystem an selbstfahrenden landwirtschaftlichen Arbeitsmaschinen |
US6943824B2 (en) * | 2002-03-13 | 2005-09-13 | Deere & Company | Image processing spout control system |
JP3950358B2 (ja) * | 2002-04-24 | 2007-08-01 | 株式会社 神崎高級工機製作所 | 作業車の操向装置 |
DE10227484A1 (de) * | 2002-06-19 | 2004-02-26 | Claas Selbstfahrende Erntemaschinen Gmbh | Vorrichtung und Verfahren zur Lagesteuerung eines Erntegutaufnahmegerätes landwirtschaftlicher Erntemaschinen |
US6738695B1 (en) | 2002-12-16 | 2004-05-18 | Caterpillar Inc | System and method for initializing autoguidance for a mobile machine |
CA2427416C (en) * | 2003-05-01 | 2010-11-16 | 101039130 Saskatchewan Ltd. | Steering device for towed implements |
US20060185340A1 (en) * | 2003-05-19 | 2006-08-24 | Eyre Robert J | Cutting and threshing header for harvesting machine |
US7916898B2 (en) * | 2003-09-15 | 2011-03-29 | Deere & Company | Method and system for identifying an edge of a crop |
FR2859873B1 (fr) * | 2003-09-22 | 2006-11-24 | Moreau Jean Ets | Procede de guidage d'un appareil agricole fonctionnant selon ce procede |
DE10351861A1 (de) | 2003-11-06 | 2005-06-09 | Deere & Company, Moline | Verfahren und Lenksystem zum selbsttätigen Lenken einer landwirtschaftlichen Maschine |
US7412905B1 (en) | 2004-05-31 | 2008-08-19 | Richard Anthony Bishel | Paddle sensor |
DE102004059543A1 (de) * | 2004-12-09 | 2006-06-29 | Claas Selbstfahrende Erntemaschinen Gmbh | Landwirtschaftliche Arbeitsmaschine |
US20060271262A1 (en) * | 2005-05-24 | 2006-11-30 | Mclain Harry P Iii | Wireless agricultural network |
US7684916B2 (en) * | 2005-07-01 | 2010-03-23 | Deere & Company | Method and system for vehicular guidance using a crop image |
US8185275B2 (en) * | 2005-07-01 | 2012-05-22 | Deere & Company | System for vehicular guidance with respect to harvested crop |
US7792622B2 (en) * | 2005-07-01 | 2010-09-07 | Deere & Company | Method and system for vehicular guidance using a crop image |
US7404355B2 (en) * | 2006-01-31 | 2008-07-29 | Deere & Company | Tractor and baler combination with automatic baling and tractor halt control |
US8121345B2 (en) * | 2006-05-18 | 2012-02-21 | Applied Perception, Inc. | Vision guidance system and method for identifying the position of crop rows in a field |
US7865285B2 (en) * | 2006-12-27 | 2011-01-04 | Caterpillar Inc | Machine control system and method |
US7740083B2 (en) * | 2007-07-23 | 2010-06-22 | Trebro Holding Co., Inc. | Sod harvesting apparatus |
US8132700B2 (en) * | 2007-08-02 | 2012-03-13 | Trek Bicycle Corporation | Bicycle accessory mounting system |
US8195342B2 (en) * | 2008-09-11 | 2012-06-05 | Deere & Company | Distributed knowledge base for vehicular localization and work-site management |
US20100063652A1 (en) * | 2008-09-11 | 2010-03-11 | Noel Wayne Anderson | Garment for Use Near Autonomous Machines |
US8989972B2 (en) | 2008-09-11 | 2015-03-24 | Deere & Company | Leader-follower fully-autonomous vehicle with operator on side |
US8478493B2 (en) * | 2008-09-11 | 2013-07-02 | Deere & Company | High integrity perception program |
US9235214B2 (en) * | 2008-09-11 | 2016-01-12 | Deere & Company | Distributed knowledge base method for vehicular localization and work-site management |
US9026315B2 (en) | 2010-10-13 | 2015-05-05 | Deere & Company | Apparatus for machine coordination which maintains line-of-site contact |
US8224500B2 (en) | 2008-09-11 | 2012-07-17 | Deere & Company | Distributed knowledge base program for vehicular localization and work-site management |
US8229618B2 (en) * | 2008-09-11 | 2012-07-24 | Deere & Company | Leader-follower fully autonomous vehicle with operator on side |
US8195358B2 (en) | 2008-09-11 | 2012-06-05 | Deere & Company | Multi-vehicle high integrity perception |
US8818567B2 (en) * | 2008-09-11 | 2014-08-26 | Deere & Company | High integrity perception for machine localization and safeguarding |
US9188980B2 (en) * | 2008-09-11 | 2015-11-17 | Deere & Company | Vehicle with high integrity perception system |
US8392065B2 (en) * | 2008-09-11 | 2013-03-05 | Deere & Company | Leader-follower semi-autonomous vehicle with operator on side |
US8233709B2 (en) * | 2009-03-06 | 2012-07-31 | Sony Corporation | Color effects for compressed digital video |
US8306663B2 (en) * | 2009-05-13 | 2012-11-06 | Robotic Harvesting LLC | Robot with 3D grasping capability |
US8731295B2 (en) * | 2009-07-01 | 2014-05-20 | Mtd Products Inc. | Visual segmentation of lawn grass |
US8396597B2 (en) * | 2009-08-18 | 2013-03-12 | Deere & Company | Distributed robotic guidance |
US20110046784A1 (en) * | 2009-08-18 | 2011-02-24 | Noel Wayne Anderson | Asymmetric stereo vision system |
US8635015B2 (en) | 2009-12-17 | 2014-01-21 | Deere & Company | Enhanced visual landmark for localization |
US8224516B2 (en) * | 2009-12-17 | 2012-07-17 | Deere & Company | System and method for area coverage using sector decomposition |
US20110153338A1 (en) * | 2009-12-17 | 2011-06-23 | Noel Wayne Anderson | System and method for deploying portable landmarks |
US9587491B2 (en) * | 2010-09-22 | 2017-03-07 | Joy Mm Delaware, Inc. | Guidance system for a mining machine |
JP5626056B2 (ja) * | 2011-03-18 | 2014-11-19 | 富士通株式会社 | 農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置 |
KR101448248B1 (ko) * | 2011-08-03 | 2014-10-07 | 엘지전자 주식회사 | 잔디 깎기용 이동로봇 및 이의 제어방법 |
US8857137B2 (en) * | 2011-11-17 | 2014-10-14 | Tzvi Avnery | Robotic lawn mower for cutting around conveyance member |
US9271446B2 (en) * | 2012-06-28 | 2016-03-01 | Forage Innovations B.V. | Self-aligning apparatus and methods for gathering bales |
WO2014105927A1 (en) * | 2012-12-28 | 2014-07-03 | Agco Corporation | Using a virtual boom to steer agricultural equipment along the edge of worked/unworked areas |
WO2014105928A1 (en) * | 2012-12-28 | 2014-07-03 | Agco Corporation | Method and applications of local coordinate system based on optical flow with video cameras |
EP2798928B1 (de) * | 2013-04-29 | 2024-02-07 | CLAAS E-Systems GmbH | Betriebssystem für, und verfahren zum betrieb eines automatischen lenksystems eines landwirtschaftlichen fahrzeugs |
US9609858B2 (en) | 2013-09-13 | 2017-04-04 | Palo Alto Research Center Incorporated | Unwanted plant removal system having variable optics |
US9609859B2 (en) | 2013-09-13 | 2017-04-04 | Palo Alto Research Center Incorporated | Unwanted plant removal system having a stabilization system |
WO2015035450A1 (en) * | 2013-09-13 | 2015-03-19 | Queensland University Of Technology | Vision based guidance in broad-acre agriculture |
US9565848B2 (en) * | 2013-09-13 | 2017-02-14 | Palo Alto Research Center Incorporated | Unwanted plant removal system |
US9642306B1 (en) * | 2013-09-18 | 2017-05-09 | Lon Owen Crosby | Offset, drive-assisted header for a grain harvester |
DE102014105820A1 (de) * | 2014-04-25 | 2015-10-29 | Usines Claas France S.A.S. | Kombination aus einem Zugfahrzeug und einer davon gezogenen Erntemaschine |
US9585309B2 (en) * | 2015-07-14 | 2017-03-07 | Cnh Industrial America Llc | Header height control system for an agricultural harvester |
CN105251563B (zh) * | 2015-09-22 | 2018-04-24 | 中国矿业大学 | 一种齿辊式破碎机的自动调速控制系统及控制方法 |
JP6754594B2 (ja) * | 2016-03-23 | 2020-09-16 | 株式会社小松製作所 | モータグレーダ |
US10051774B2 (en) | 2016-09-16 | 2018-08-21 | Cnh Industrial Canada, Ltd. | Common lift/lower ground entrance point |
JP2018097526A (ja) * | 2016-12-12 | 2018-06-21 | 株式会社クボタ | 作業車 |
ES2951738T3 (es) * | 2016-12-16 | 2023-10-24 | Commw Scient Ind Res Org | Escáner de cultivos |
US9989835B1 (en) | 2017-02-09 | 2018-06-05 | Cnh Industrial America Llc | System and method for mounting a camera on a work vehicle |
IT201700058505A1 (it) | 2017-05-30 | 2018-11-30 | Volta Robots S R L | Metodo di controllo di un mezzo di lavorazione del terreno sulla base di elaborazioni d'immagini e relativo sistema |
CN110352697B (zh) * | 2018-04-09 | 2022-05-17 | 迪尔公司 | 用于控制收割割台的操作参数的系统以及农业收割机 |
WO2020014527A1 (en) * | 2018-07-11 | 2020-01-16 | Raven Industries, Inc. | Calibrating a crop row computer vision system |
EP3874925B1 (de) * | 2018-11-20 | 2023-06-14 | Honda Motor Co., Ltd. | Autonome arbeitsmaschine, steuerungsverfahren für autonome arbeitsmaschinen und programm |
EP3874924B1 (de) | 2018-11-20 | 2023-08-09 | Honda Motor Co., Ltd. | Autonome arbeitsmaschine, steuerungsverfahren für autonome arbeitsmaschinen und programm |
WO2020134236A1 (zh) * | 2018-12-29 | 2020-07-02 | 丰疆智能科技股份有限公司 | 收割机及其自动驾驶方法 |
DE102019204251A1 (de) * | 2019-03-27 | 2020-10-01 | Zf Friedrichshafen Ag | Verfahren und System zur Linienerfassung auf einer landwirtschaftlichen Nutzfläche |
US11367279B1 (en) | 2019-04-19 | 2022-06-21 | David R. Wilmot | Sensors, sod harvester with the sensors and methods for steering or guiding sod harvesters |
US20220400606A1 (en) * | 2021-06-18 | 2022-12-22 | Green Industry Innovators, L.L.C. | Landscaping equipment with included laser and methods of operation |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4077488A (en) * | 1976-06-15 | 1978-03-07 | Sperry Rand Corporation | Guidance assist system for agricultural machines |
US4482960A (en) * | 1981-11-20 | 1984-11-13 | Diffracto Ltd. | Robot tractors |
US4555725A (en) * | 1983-08-24 | 1985-11-26 | Deutz-Allis Corporation | Agricultural implement steering guidance system and method |
US4700301A (en) * | 1983-11-02 | 1987-10-13 | Dyke Howard L | Method of automatically steering agricultural type vehicles |
DE3507570A1 (de) * | 1985-03-04 | 1986-09-04 | Willi Eisen GmbH, 3060 Stadthagen | Verfahren und vorrichtung zur automatischen lenkung eines fahrzeuges, insbesondere eines landwirtschaftlichen fahrzeuges, entlang eines in fahrtrichtung orientierten musters |
AU653958B2 (en) * | 1990-09-24 | 1994-10-20 | Andre Colens | Continuous, self-contained mowing system |
US5442552A (en) * | 1993-03-16 | 1995-08-15 | The Regents Of The University Of California | Robotic cultivator |
US5509486A (en) * | 1994-08-12 | 1996-04-23 | Loral Corporation | Method of steering an agricultural vehicle |
-
1997
- 1997-04-15 DE DE69709482T patent/DE69709482T2/de not_active Expired - Lifetime
- 1997-04-15 EP EP97201110A patent/EP0801885B1/de not_active Expired - Lifetime
- 1997-04-16 US US08/840,771 patent/US5911669A/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10328395B4 (de) * | 2003-06-18 | 2010-11-11 | Gebr. Pöttinger GmbH | Verfahren zur Steuerung einer Landmaschine |
DE102005005557B4 (de) * | 2005-02-07 | 2016-02-25 | Alois Pöttinger Maschinenfabrik Gmbh | Vorrichtung zur Steuerung und/oder Regelung einer Landmaschine mittels einer Bilderfassungs- und -verarbeitungseinrichtung |
DE102005005557C5 (de) | 2005-02-07 | 2019-03-14 | Pöttinger Landtechnik Gmbh | Vorrichtung zur Steuerung und/oder Regelung einer Landmaschine mittels einer Bilderfassungs- und -verarbeitungseinrichtung |
DE102018220410A1 (de) * | 2018-11-28 | 2020-05-28 | Zf Friedrichshafen Ag | Selbsttätiges Lenken einer landwirtschaftlichen Maschine auf einer landwirtschaftlichen Fläche |
US11606895B2 (en) | 2018-11-28 | 2023-03-21 | Zf Friedrichshafen Ag | Automatic steering of an agricultural machine on an agricultural surface |
Also Published As
Publication number | Publication date |
---|---|
EP0801885A1 (de) | 1997-10-22 |
US5911669A (en) | 1999-06-15 |
DE69709482D1 (de) | 2002-02-14 |
EP0801885B1 (de) | 2002-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69709482T2 (de) | Erntegutlinie-Ortungsvorrichtung mit Bildverarbeitung | |
Ollis et al. | First results in vision-based crop line tracking | |
EP3866593B1 (de) | Verfahren zum ausbringen eines spritzmittels auf ein feld | |
EP1529428B1 (de) | Verfahren und Lenksystem zum selbstständigen Lenken einer landwirtschaftlichen Maschine | |
DE69811667T2 (de) | Vorrichtung und verfahren zur erkennung und bestimmung der position eines tierteils | |
EP1630574A2 (de) | Vorrichtung an Landmaschinen zur berührungslosen Abtastung von sich über dem Boden erstreckenden Konturen | |
EP2229045B1 (de) | Vorrichtung zur landschaftspflege | |
DE102016118227A1 (de) | Bildanlysesystem für landwirtschaftliche Arbeitsmaschinen | |
EP0906720A1 (de) | Vorrichtung und Verfahren zur berührungslosen Erkennung von Bearbeitungsgrenzen oder entsprechenden Leitgrössen | |
EP2286653A2 (de) | Autonome mobile Plattform zur Oberflächenbearbeitung | |
DE19719939A1 (de) | Automatisch lenkbare Erntemaschine | |
EP0732045B1 (de) | Reflex-Ortungsvorrichtung | |
DE10129136A1 (de) | Einrichtung zur selbsttätigen Lenkung eines landwirtschaftlichen Arbeitsfahrzeugs | |
EP3786664B1 (de) | Verfahren zur signalauswertung von signalen eines entfernungsmessers | |
EP3738420B1 (de) | Verfahren für den betrieb einer selbstfahrenden landwirtschaftlichen arbeitsmaschine | |
DE2455836C3 (de) | Einrichtung zur selbsttätigen Führung landwirtschaftlicher Arbeitsmaschinen | |
DE10148062A1 (de) | Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes | |
WO2021105006A1 (de) | Verfahren zum schätzen eines verlaufs von pflanzenreihen | |
EP3622799B1 (de) | Verfahren zum betrieb einer selbstfahrenden erntemaschine | |
EP4262381B1 (de) | Verfahren zum klassifizieren von pflanzen für landwirtschaftliche zwecke | |
EP3786663B1 (de) | Verfahren zur signalauswertung von signalen eines entfernungsmessers | |
EP4262379B1 (de) | Verfahren und vorrichtung zum ausbringen eines spritzmittels auf eine landwirtschaftliche fläche | |
EP4523514A1 (de) | Verfahren zur ansteuerung mindestens einer selbstfahrenden landwirtschaftlichen arbeitsmaschine | |
WO2024100068A1 (de) | Höhenführung für ein schnittsystem, schnittsystem und verfahren zur höhenführung eines solchen schnittsystems | |
EP4324315A1 (de) | Schwaderfassungsvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |