[go: up one dir, main page]

JP2020114778A - Projection instruction device, goods assort system and projection instruction method - Google Patents

Projection instruction device, goods assort system and projection instruction method Download PDF

Info

Publication number
JP2020114778A
JP2020114778A JP2020029628A JP2020029628A JP2020114778A JP 2020114778 A JP2020114778 A JP 2020114778A JP 2020029628 A JP2020029628 A JP 2020029628A JP 2020029628 A JP2020029628 A JP 2020029628A JP 2020114778 A JP2020114778 A JP 2020114778A
Authority
JP
Japan
Prior art keywords
package
image
projection
processor
luggage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020029628A
Other languages
Japanese (ja)
Inventor
章裕 鈴木
Akihiro Suzuki
章裕 鈴木
紹二 大坪
Shoji Otsubo
紹二 大坪
隆昭 守山
Takaaki Moriyama
隆昭 守山
隆明 出良
Takaaki IDERA
隆明 出良
石原 健
Takeshi Ishihara
健 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020029628A priority Critical patent/JP2020114778A/en
Publication of JP2020114778A publication Critical patent/JP2020114778A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)

Abstract

To assort goods further efficiently and accurately to support a further increase in a distribution amount of goods.SOLUTION: A projection instruction device 30 for forming a projection image to be projected to goods based on sensing information of goods and goods identification information for identifying goods in the image includes a processor 34 and a memory 36. The processor 34 collaborates with the memory 36 to determine a direction of picking up goods based on the goods identification information and forms a projection image indicating a picking up direction.SELECTED DRAWING: Figure 3

Description

本開示は、荷物の仕分けに有用な投影指示装置、荷物仕分けシステムおよび投影指示方法に関する。 The present disclosure relates to a projection instruction device, a package sorting system, and a projection instruction method useful for sorting packages.

近年の経済活動の高まりに伴い、荷物の流通量は増大する一方である。荷物の流通工程において、荷物を行先別に仕分ける仕分け作業は時間のかかる工程であり、従前から人手による作業に頼っているが、仕分け作業の少なくとも一部を自動化する技術も提案されている。 With the increase in economic activity in recent years, the distribution volume of luggage is increasing. In the distribution process of packages, sorting work for sorting packages according to destinations is a time-consuming process, and has conventionally relied on manual work, but a technique for automating at least part of the sorting work has also been proposed.

特許文献1は、移動する荷物を追跡し、荷物から読み取った荷物に関する情報と当該荷物の位置の情報に基づき、表示する画像を決定し、プロジェクタから画像を荷物に投射して画像を荷物上に表示するシステムを開示している。 Patent Document 1 tracks a moving baggage, determines an image to be displayed based on the information about the baggage read from the baggage and the information on the position of the baggage, projects the image from the projector onto the baggage, and places the image on the baggage. A display system is disclosed.

米国特許第7090134号明細書U.S. Pat. No. 7,090,134

しかしながら、昨今荷物の流通量はますます増大するとともに、荷物の種類も様々なものとなっており、荷物をより効率的かつ正確に仕分ける技術が求められている。 However, with the recent increase in the distribution volume of luggage and various types of luggage, there is a demand for a technology that sorts the luggage more efficiently and accurately.

本開示は、荷物の仕分けをより効率的かつ正確に行うための技術に関する。 The present disclosure relates to a technique for more efficiently and accurately sorting packages.

本開示は、荷物のセンシング情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記荷物をセンシングした時刻に対応する第1の時刻情報に基づいて、前記投影画像を投影する位置を算出する。 The present disclosure is a projection instruction device that generates a projection image to be projected on a package based on sensing information of the package, and includes a processor and a memory, and the processor cooperates with the memory to The position where the projection image is projected is calculated based on the first time information corresponding to the time when the parcel is sensed.

本開示は、荷物のセンシング情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、前記荷物をセンシングした時刻に対応する第1の時刻情報に基づいて、前記投影画像を投影する位置を算出する。 The present disclosure is a projection instruction method for generating a projection image to be projected on a package based on sensing information of the package, the first time corresponding to a time when the processor cooperates with a memory to sense the package. The position where the projection image is projected is calculated based on the information.

本開示は、荷物のセンシング情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記センシング情報に基づき、荷物が拾い上げられた否かを判定し、前記荷物が拾い上げられたと判定した場合、前記荷物の詳細情報を含む投影画像を生成する。 The present disclosure is a projection instruction device that generates a projection image to be projected on a package based on sensing information of the package, and includes a processor and a memory, and the processor cooperates with the memory to Based on the sensing information, it is determined whether the package is picked up, and when it is determined that the package is picked up, a projection image including detailed information of the package is generated.

本開示は、荷物のセンシング情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、前記センシング情報に基づき、荷物が拾い上げられた否かを判定し、前記荷物が拾い上げられたと判定した場合、前記荷物の詳細情報を含む投影画像を生成する。 The present disclosure is a projection instruction method for generating a projection image to be projected on a package based on the sensing information of the package, wherein a processor cooperates with a memory to determine whether the package is picked up based on the sensing information. If it is determined that the package has been picked up, a projection image including detailed information of the package is generated.

本開示は、荷物を含む画像に基づき、当該荷物の位置を特定する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記画像の各画素が、荷物が存在すべき処理対象空間に含まれる画素であるか否かを、各画素の座標に基づき判定し、前記処理対象空間に含まれる画素のみを処理すべき処理点とみなして、前記メモリに登録し、登録された前記処理点に基づき前記荷物の画像を取得し、当該荷物の位置を特定する。 The present disclosure is a projection instructing device that identifies the position of a package based on an image including the package, and includes a processor and a memory, and the processor cooperates with the memory to provide each of the images. Whether or not the pixel is a pixel included in the processing target space where the baggage should exist is determined based on the coordinates of each pixel, and only the pixel included in the processing target space is regarded as a processing point to be processed, The package is registered in the memory, the image of the package is acquired based on the registered processing point, and the position of the package is specified.

本開示は、荷物を含む画像に基づき、当該荷物の位置を特定する投影指示装置であって、プロセッサがメモリと協働して、前記画像の各画素が、荷物が存在すべき処理対象空間に含まれる画素であるか否かを、各画素の座標に基づき判定し、前記処理対象空間に含まれる画素のみを処理すべき処理点とみなして、前記メモリに登録し、登録された前記処理点に基づき前記荷物の画像を取得し、当該荷物の位置を特定する。 The present disclosure is a projection instructing device that specifies the position of a package based on an image including the package, and a processor cooperates with a memory so that each pixel of the image is in a processing target space where the package should exist. Whether or not it is a pixel included is determined based on the coordinates of each pixel, only pixels included in the processing target space are regarded as processing points to be processed, and are registered in the memory, and the registered processing points are registered. Based on the above, the image of the package is acquired and the position of the package is specified.

本開示は、荷物を含む画像のセンシング情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記荷物のセンシング情報から当該荷物を含む特定の面を抽出し、前記特定の面のみに基づき投影画像を生成するための処理を行う。 The present disclosure is a projection instruction device that generates a projection image to be projected on a package based on sensing information of an image including the package, and includes a processor and a memory, and the processor cooperates with the memory. Then, a specific surface including the parcel is extracted from the sensing information of the parcel, and a process for generating a projection image based on only the specific face is performed.

本開示は、荷物を含む画像のセンシング情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、前記荷物のセンシング情報から当該荷物を含む特定の面を特定し、前記特定の面のみに基づき投影画像を生成するための処理を行う。 The present disclosure is a projection instruction method for generating a projection image to be projected on a package based on sensing information of an image including a package, wherein a processor cooperates with a memory to include the package from the sensing information of the package. A process for identifying a specific surface and generating a projection image based on only the specific surface is performed.

本開示は、荷物のセンシング情報および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記荷物特定情報に基づき、荷物を拾い上げる方向を判定し、前記拾い上げる方向を示す投影画像を生成する。 The present disclosure is a projection instructing device that generates a projection image to be projected onto a package based on package sensing information and package identification information that identifies the package in the image, the processor including a processor and a memory. The processor cooperates with the memory to determine a pickup direction of the package based on the package identification information, and generates a projection image indicating the pickup direction.

本開示は、荷物のセンシング情報および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、前記荷物特定情報に基づき、荷物を拾い上げる方向を判定し、前記拾い上げる方向を示す投影画像を生成する。 The present disclosure is a projection instruction method for generating a projection image to be projected onto a package based on package sensing information and package identification information that identifies a package in the image, wherein the processor cooperates with a memory to A direction for picking up the package is determined based on the package specifying information, and a projection image showing the direction for picking up the package is generated.

本開示は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置であって、プロセッサと、メモリと、を備え、前記プロセッサは、前記メモリと協働して、前記荷物特定情報に基づき、荷物を拾い上げるべき特定領域を判定し、前記荷物が前記特定領域に存在する場合に、前記投影画像を投影する。 The present disclosure is a projection instruction device that generates a projection image to be projected onto a package based on an image including the package and package identification information that identifies the package in the image, the processor including a processor and a memory. The processor cooperates with the memory to determine a specific area in which the package should be picked up based on the package identification information, and projects the projection image when the package exists in the specific region.

本開示は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、前記荷物特定情報に基づき、荷物を拾い上げるべき特定領域を判定し、前記荷物が前記特定領域に存在する場合に、前記投影画像を投影する。 The present disclosure is a projection instruction method for generating a projection image to be projected onto a package based on an image including a package and package identification information for identifying the package in the image, wherein the processor cooperates with a memory to A specific area in which the package should be picked up is determined based on the package specific information, and the projection image is projected when the package exists in the specific area.

また、本開示は、上述の投影指示装置と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダと、画像を取得する画像センサと、投影画像を前記荷物に投影する映像出力装置と、を備える荷物仕分けシステムである。 Further, the present disclosure, the projection instruction device described above, a label reader that reads the luggage specific information from the label attached to the luggage, an image sensor that acquires an image, a video output device that projects the projected image on the luggage, It is a luggage sorting system equipped with.

本開示によれば、荷物の仕分けをより効率的かつ正確に行うことができ、さらなる荷物の流通量の増大にも対応することができる。 According to the present disclosure, it is possible to sort packages more efficiently and accurately, and it is possible to cope with a further increase in the distribution amount of packages.

実施の形態にかかる荷物仕分けシステムの構成を示すブロック図。FIG. 1 is a block diagram showing the configuration of a package sorting system according to an embodiment. 実施の形態にかかる投影指示装置の構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of a projection instruction apparatus according to an embodiment. (a)は荷物仕分けシステムが物流センターに設置され、稼働している状況を示す概念図であり、(b)は荷物の上面に矢印を含む投影画像を投影した状態を示す図。(A) is a conceptual diagram which shows the state in which a package sorting system is installed in the distribution center and is operating, and (b) is a figure which shows the state which projected the projection image containing an arrow on the upper surface of a package. 主として投影指示装置が行う動作の概要手順を示すフローチャート。The flowchart which shows the outline procedure of operation mainly performed by a projection instruction|indication apparatus. 投影指示装置が処理すべき処理対象空間を示す概念図。The conceptual diagram which shows the process target space which a projection instruction|indication apparatus should process. 図4のステップS20の詳細な手順を示すフローチャート。The flowchart which shows the detailed procedure of step S20 of FIG. 投処理対象空間の変形例を示す概念図。The conceptual diagram which shows the modification of the throwing process target space. 図8は、図4のステップS70およびステップS100における、詳細な手順を示すフローチャート。FIG. 8 is a flowchart showing a detailed procedure in steps S70 and S100 of FIG.

以下、適宜図面を参照しながら、本開示に係る投影指示装置、荷物仕分けシステムおよび投影指示方法を具体的に開示した実施形態(以下、「本実施形態」という)を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, an embodiment (hereinafter referred to as “the present embodiment”) specifically disclosing a projection instruction apparatus, a baggage sorting system, and a projection instruction method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed description of well-known matters and duplicate description of substantially the same configuration may be omitted. This is for avoiding unnecessary redundancy in the following description and for facilitating understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter by them.

以下、図1〜図8を用いて本開示の実施の形態を説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to FIGS. 1 to 8.

[構成]
図1は、実施の形態にかかる荷物仕分けシステムの構成を示すブロック図である。図1に示す荷物仕分けシステム100は、例えば物流センターに設置される。荷物仕分けシステム100は、ラベルリーダ10と、距離画像センサ20と、投影指示装置30と、プロジェクタ40とを備える。荷物仕分けシステム100は、搬送コンベヤにより搬送されてくる荷物を仕分ける作業員の作業を支援するシステムである。荷物仕分けシステム100は、例えば小売業者、卸売業者、インターネット流通業者などが所有する物流センターに設置される。仕分け対象の荷物は、一般的には略直方体の形状を有するものであるが、その外形は特に限定はされず、荷物の種類も特に限定されない。なお、荷物仕分けシステムの構成は図1に記載したものに限定されない。例えば、一台のラベルリーダ10に複数の距離画像センサ20と、投影指示装置30と、プロジェクタ40を接続させるなど、各構成要素の数量は目的に応じて適宜変更させることができる。
[Constitution]
FIG. 1 is a block diagram showing a configuration of a package sorting system according to an embodiment. The luggage sorting system 100 shown in FIG. 1 is installed in, for example, a distribution center. The baggage sorting system 100 includes a label reader 10, a distance image sensor 20, a projection instruction device 30, and a projector 40. The baggage sorting system 100 is a system that assists the work of a worker who sorts packages transported by a transport conveyor. The package sorting system 100 is installed in, for example, a distribution center owned by a retailer, a wholesaler, an Internet distributor, or the like. The parcels to be sorted generally have a substantially rectangular parallelepiped shape, but their outer shape is not particularly limited, and the type of parcel is not particularly limited. The configuration of the package sorting system is not limited to that shown in FIG. For example, the number of each component can be appropriately changed according to the purpose, such as connecting a plurality of range image sensors 20, the projection instruction device 30, and the projector 40 to one label reader 10.

読取装置としてのラベルリーダ10は、図示せぬレンズ、イメージセンサ等の各種の要素を含む装置である。ラベルリーダ10を用いることで、搬送コンベヤにより搬送されてくる荷物に貼付されたラベルから当該荷物に関する各種の情報を記録したラベル記録情報を読み取ることができる。読み取られたラベル記録情報を用いることで、当該荷物を特定することが可能で有る。読み取られた情報によって荷物特定情報が定義づけられる。 The label reader 10 as a reading device is a device including various elements such as a lens and an image sensor (not shown). By using the label reader 10, it is possible to read the label record information in which various kinds of information regarding the parcel are recorded from the label attached to the parcel conveyed by the conveyor. It is possible to identify the parcel by using the read label record information. The parcel identification information is defined by the read information.

距離画像センサ20は、図示せぬレンズ、イメージセンサ等の各種の要素を含む撮像装置である。距離画像センサ20は、一般的には撮像カメラとして構成される。撮像カメラは3次元カメラ、複数台の2次元カメラなどである。距離画像センサ20は、搬送コンベヤにより搬送されてくる荷物を撮像し、距離画像を生成するにあたって、荷物の位置、荷物までの距離、荷物のサイズ等の情報を取得する。「距離画像」とは、撮像位置から各画素が示す位置(荷物の表面を含む)までの距離を示す距離情報を収容した画像のことをいう(つまり本開示において「画像」の語は距離画像を含む)。本開示において距離画像センサ20は荷物の位置を特定するために用いられる。よって距離画像センサ20は、他のセンシングデバイス(超音波センサ、赤外線センサ、ステレオカメラ、単眼ビデオカメラ)が代替することもできる。本開示においてはこれらの距離画像センサを含むセンシングデバイスから出力される情報をセンシング情報と呼ぶ。本実施の形態においてはセンシングデバイスの一例として距離画像センサ20を用いて説明を行う。また本実施の形態においては、センシング情報の一例として距離画像センサ20の出力である距離画像を用いて説明を行う。 The range image sensor 20 is an imaging device including various elements such as a lens and an image sensor (not shown). The range image sensor 20 is generally configured as an imaging camera. The imaging camera is a three-dimensional camera, a plurality of two-dimensional cameras, or the like. The distance image sensor 20 captures information about the position of the package, the distance to the package, the size of the package, and the like when imaging the package conveyed by the conveyor and generating the range image. The “distance image” refers to an image containing distance information indicating the distance from the imaging position to the position indicated by each pixel (including the surface of the luggage) (that is, in the present disclosure, the term “image” is a distance image). including). In the present disclosure, the range image sensor 20 is used to identify the position of the luggage. Therefore, the distance image sensor 20 can be replaced with another sensing device (ultrasonic sensor, infrared sensor, stereo camera, monocular video camera). In the present disclosure, information output from a sensing device including these range image sensors is referred to as sensing information. In the present embodiment, the distance image sensor 20 will be described as an example of the sensing device. Further, in the present embodiment, a description will be given using a distance image output from the distance image sensor 20 as an example of sensing information.

投影指示装置30は、荷物仕分けシステム100における演算装置としての役割を果たす。図2に示すように、投影指示装置30は、バスを介して接続された入力部32、プロセッサ34、メモリ36、出力部38を備える。入力部32は、ラベルリーダ10が読み込んだラベル記録情報から取得した荷物の特定が可能な荷物特定情報、距離画像センサ20が生成した距離画像を受け取る。プロセッサ34は一般的な演算装置によって構成され、荷物特定情報および距離画像に基づき、荷物に投影する投影画像を生成する。記憶装置としてのメモリ36は、プロセッサ34が各種処理に必要な制御プログラムの読み込み、データの退避等の操作を行う。すなわち、プロセッサ34とメモリ36は協働して投影指示装置30による各種処理を制御する。出力部38は、プロセッサ34が生成した投影画像をプロジェクタ40に出力する。なお、本開示において「プロセッサ」は単一のプロセッサのみを意味するものではない。「プロセッサ」は、複数の同一目的のプロセッサや、目的の異なるプロセッサ(例えば、汎用CPU(Central Processing
Unit)とGPU(Graphic Processing Unit))が共同して処理を行う場合の動作主体を意味する語としても使用される。
The projection instructing device 30 serves as a computing device in the baggage sorting system 100. As shown in FIG. 2, the projection instruction device 30 includes an input unit 32, a processor 34, a memory 36, and an output unit 38 that are connected via a bus. The input unit 32 receives the parcel identification information that can identify the parcel acquired from the label recording information read by the label reader 10 and the range image generated by the range image sensor 20. The processor 34 is configured by a general arithmetic unit and generates a projection image to be projected on the package based on the package identification information and the distance image. A memory 36, which is a storage device, is used by the processor 34 to perform operations such as reading control programs necessary for various processes and saving data. That is, the processor 34 and the memory 36 cooperate to control various processes by the projection instruction device 30. The output unit 38 outputs the projection image generated by the processor 34 to the projector 40. It should be noted that in the present disclosure, “processor” does not mean only a single processor. The “processor” is a plurality of processors having the same purpose or processors having different purposes (for example, a general-purpose CPU (Central Processing)).
(Unit) and GPU (Graphic Processing Unit)) are also used as a word that means an operating entity when performing processing in collaboration.

プロジェクタ40は一般的な投影装置により構成され、投影指示装置30から受信した投影画像を含む投影光を荷物に投影し、荷物上に表示する。 The projector 40 is configured by a general projection device, projects the projection light including the projection image received from the projection instruction device 30 onto the luggage, and displays it on the luggage.

荷物仕分けシステム100は、ラベルリーダ10と、距離画像センサ20と、投影指示装置30と、プロジェクタ40とを有線通信または無線通信で繋ぎ合わすことにより構築できる。また、ラベルリーダ10と、距離画像センサ20と、投影指示装置30と、プロジェクタ40のうちいずれかの二台以上の装置を一体型の装置として構築することもできる。例えば、距離画像センサ20とプロジェクタ40とを合わせて、一体型の撮像投影装置として構築することもできる(図3(a)参照)。 The luggage sorting system 100 can be constructed by connecting the label reader 10, the distance image sensor 20, the projection instruction device 30, and the projector 40 by wire communication or wireless communication. Further, any two or more of the label reader 10, the distance image sensor 20, the projection instructing device 30, and the projector 40 can be constructed as an integrated device. For example, the distance image sensor 20 and the projector 40 can be combined to construct an integrated image-projection device (see FIG. 3A).

[システムの概要]
図3(a)は、荷物仕分けシステム100が物流センターに設置され、稼働している状況を示す概念図である。従来の方法によれば、各作業者Mが、搬送コンベヤ50により矢印X方向に搬送されてくる各荷物Pに貼付されたラベルを目視によりチェックし、作業者自身が配送を担当する荷物が到着したら当該荷物を拾い上げて(ピックアップ)、作業者自身の足元、かご、トラックの荷台等の近傍に一旦置く必要があった。しかしながら、作業者の目視による仕分けの場合、作業者の作業効率には限界があるから、搬送速度を所定の値以下に抑える必要があった。結果として、作業者が単位時間内に仕分けることが可能な荷物の量の限界値は低かった。また、作業者がラベルの目視に際して誤認を行うことにより、仕分けに際して誤りを引き起こす可能性があった。近年、荷物の流通量は増大しており、これらの問題はより注目されつつある。
[System overview]
FIG. 3A is a conceptual diagram showing a situation in which the parcel sorting system 100 is installed in a distribution center and is operating. According to the conventional method, each worker M visually checks the label attached to each package P conveyed in the direction of the arrow X by the conveyor 50, and the worker himself/herself delivers the package. Then, it was necessary to pick up the luggage (pickup) and place it temporarily near the worker's feet, a car, a truck bed, or the like. However, in the case of sorting by the operator's visual inspection, there is a limit to the working efficiency of the operator, so it is necessary to suppress the transport speed to a predetermined value or less. As a result, the limit value of the amount of luggage that the worker can sort in a unit time is low. Further, the operator may make a mistake when visually recognizing the labels, which may cause an error in sorting. In recent years, the distribution volume of luggage has been increasing, and these problems are getting more attention.

そこで本実施形態では、図3(a)に示すように、搬送コンベヤ50の上方に配置されたラベルリーダ10が、搬送コンベヤ50により搬送されてくる各荷物Pに貼付されたラベルを読み取る。ラベルには、当該荷物に関する各種の情報を含むラベル記録情報が記載されている。ラベル記録情報は、当該荷物に個別に付与される荷物特定番号、発送人の氏名、住所、電話番号、受取人の氏名、住所、電話番号、荷物の種類、等に類似する情報を含む。ラベルの読み込みは、担当の作業者がラベル内のバーコードに、ラベルリーダ10としてのバーコードリーダを手で当てて読み込むことで行っても良い。 Therefore, in the present embodiment, as shown in FIG. 3A, the label reader 10 arranged above the transport conveyor 50 reads the label attached to each package P transported by the transport conveyor 50. The label has label record information including various information regarding the parcel. The label record information includes information similar to the parcel identification number, the sender's name, address, telephone number, the recipient's name, address, telephone number, type of parcel, etc., which is individually assigned to the parcel. The reading of the label may be performed by a worker in charge manually reading the barcode in the label with a barcode reader as the label reader 10.

さらに距離画像センサ20が、搬送コンベヤ50により搬送されてくる荷物Pの画像(距離画像)を撮像し、荷物Pの位置、荷物Pまでの距離、荷物Pのサイズ(荷物Pが直方体の場合は3辺の長さ)等の情報を取得する。尚、ラベルリーダ10、距離画像センサ20の配置位置や、センシングデバイスの種類、処理の順序は特に図示した形態に限定されない。上述した様に、本例では、距離画像センサ20とプロジェクタ40が一体型の撮像投影装置60として構築され、搬送コンベヤ50の上方に配置されている。 Further, the distance image sensor 20 captures an image (distance image) of the parcel P conveyed by the conveyor 50, and the position of the parcel P, the distance to the parcel P, the size of the parcel P (when the parcel P is a rectangular parallelepiped, Information such as (length of three sides) is acquired. The arrangement positions of the label reader 10 and the distance image sensor 20, the types of sensing devices, and the order of processing are not particularly limited to the illustrated form. As described above, in the present example, the range image sensor 20 and the projector 40 are constructed as an integrated type image projection device 60, and are arranged above the transport conveyor 50.

図3では示されていない投影指示装置30は、例えば搬送コンベヤ50の近傍や、別の部屋に配置されたコンピュータにより構成され、ラベルリーダ10が獲得した荷物を特定する情報と、距離画像センサ20が生成した距離画像に基づき、荷物P(荷物Pが直方体の場合は例えば上面)に表示する投影画像を生成する。投影指示装置30は投影画像を荷物Pに投影すべき投影指示をプロジェクタ40に送る。 The projection instruction device 30 not shown in FIG. 3 is configured by, for example, a computer placed in the vicinity of the transport conveyor 50 or in another room, and has information for identifying the parcel acquired by the label reader 10 and the distance image sensor 20. A projection image to be displayed on the baggage P (for example, the top surface when the baggage P is a rectangular parallelepiped) is generated based on the distance image generated by. The projection instruction device 30 sends to the projector 40 a projection instruction to project the projection image on the luggage P.

投影指示を受けた、映像出力装置としての、プロジェクタ40は、投影指示装置30が生成した投影画像を含む投影光を荷物Pに投影し、荷物P上に投影画像を表示する。ここで荷物Pに表示される投影画像は、例えば、当該荷物Pの配送先住所に対応した仕分け方向A、B、Cを示す矢印(搬送コンベヤ50の搬送方向に対して右または左)の画像である(図3(b)参照)。もちろん、状況に応じて、様々な種類の投影画像が表示される。なお、本開示において「映像出力装置」とは光線を直接荷物に投影するものに限定されない。本開示において「映像出力装置」には画像を表示可能な眼鏡も含む。つまり本開示において、荷物に投影光を投影する、荷物に画像を表示する、荷物に画像を投影する、などと表現した場合は、その表現は画像を表示可能な眼鏡を介して、擬似的に、荷物に投影光が投影されているかのように作業者に認識させることも含む。つまり、作業者が画像を表示可能な特殊な眼鏡を装着している場合、眼鏡を介して視認される荷物Pの像に、ここでの投影画像を重ねあわせてもよい。 Upon receiving the projection instruction, the projector 40 as a video output device projects the projection light including the projection image generated by the projection instruction device 30 onto the luggage P and displays the projection image on the luggage P. The projection image displayed on the package P here is, for example, an image of an arrow (right or left with respect to the transport direction of the transport conveyor 50) indicating the sorting directions A, B, and C corresponding to the delivery address of the package P. (See FIG. 3B). Of course, various types of projection images are displayed depending on the situation. It should be noted that in the present disclosure, the “video output device” is not limited to a device that directly projects light rays onto luggage. In the present disclosure, the “video output device” also includes glasses capable of displaying an image. That is, in the present disclosure, when it is expressed that the projection light is projected on the luggage, the image is displayed on the luggage, the image is projected on the luggage, etc., the expression is simulated through the glasses capable of displaying the image. , Including causing the worker to recognize as if the projection light is projected on the luggage. That is, when the worker wears special glasses capable of displaying an image, the projection image here may be superposed on the image of the luggage P visually recognized through the glasses.

以下、実施形態の荷物仕分けシステム100において、投影指示装置30が行う荷物仕分けの動作の概要を説明する。 Hereinafter, in the package sorting system 100 of the embodiment, an outline of the package sorting operation performed by the projection instructing device 30 will be described.

[動作の概要]
図4は、本実施形態の投影指示装置30、特に投影指示装置30のプロセッサ34が主として行う動作手順の概要を示すフローチャートである。まず、ラベルリーダ10による荷物のラベルのラベル記録情報の読み取り後、投影指示装置30の入力部32がラベルリーダ10から、ラベル記録情報に対応した荷物特定情報を取得する(ステップS1)。荷物特定情報とは、当該荷物に個別に付与される荷物特定番号、発送人の氏名、住所、電話番号、受取人の氏名、住所、電話番号、荷物の種類、等に類似する情報の少なくとも一つ含む情報である。プロセッサ34は、当該荷物特定情報に対して、当該荷物を特定する荷物特定番号としてのIDを付与し、IDを付与した時刻に対応する時刻情報とともにメモリ36に記録する(ステップS2)。メモリ36に記録するIDは、荷物特定情報に元から記録されていた荷物特定番号でもよいし、投影指示装置30が新しいIDを生成して付与してもよい。
[Outline of operation]
FIG. 4 is a flowchart showing an outline of an operation procedure mainly performed by the projection instruction device 30 of the present embodiment, particularly the processor 34 of the projection instruction device 30. First, after the label reader 10 reads the label record information of the label of the package, the input unit 32 of the projection instruction device 30 acquires the package identification information corresponding to the label record information from the label reader 10 (step S1). The parcel identification information is at least one piece of information similar to the parcel identification number, the sender's name, address, telephone number, the recipient's name, address, telephone number, type of parcel, etc., which is individually assigned to the parcel. This is information that includes one. The processor 34 adds an ID as a package identification number for identifying the package to the package identification information, and records it in the memory 36 together with time information corresponding to the time when the ID is provided (step S2). The ID recorded in the memory 36 may be the package identification number originally recorded in the package identification information, or the projection instruction device 30 may generate and give a new ID.

一方、ステップS1およびステップS2と並行して、距離画像センサ20による荷物の距離画像の撮像後、投影指示装置30の入力部32が距離画像センサ20からセンシング情報としての距離画像を取得する(ステップS20)。プロセッサ34は、当該距離画像に存在する荷物に対応するIDがメモリ36に存在するか否かを判定する。 On the other hand, in parallel with step S1 and step S2, after the distance image of the baggage is captured by the distance image sensor 20, the input unit 32 of the projection instruction apparatus 30 acquires the distance image as the sensing information from the distance image sensor 20 (step S20). The processor 34 determines whether or not the ID corresponding to the package existing in the distance image exists in the memory 36.

当該距離画像に存在する荷物に対応するIDがメモリ36に存在するか否かを判定する手法の一例としては、次のような手順によることが挙げられる。すなわち、プロセッサ34は、ラベルリーダ10と距離画像センサ20との間の距離(既知とする)、および搬送コンベヤ50の速度から、荷物がラベルリーダ10と距離画像センサ20の間を移動するために要する時間を計算する。そして、距離画像を取得した時刻から当該時間を引くことで、距離画像に存在する荷物がラベルリーダ10(およびプロセッサ34)によりIDを付与された時刻が推定できる。そして、当該推定した時刻に近接して付与されたIDが、当該距離画像に存在する荷物に対応するIDであると推定できる。また、他の一例としては、ラベルリーダ10近辺に他の距離画像センサを設置する手法が挙げられる。すなわち、ラベルリーダ10がID(およびプロセッサ34)を付与した際から、ラベルリーダ10近辺に設置した他の距離画像センサを用いて当該IDが付与された荷物を追跡することで、時刻毎に当該荷物(およびID)とラベルリーダ10との距離を計測する。プロセッサ34は計測された荷物(およびID)とラベルリーダ10との距離と、ステップS20で取得された距離画像における荷物の距離と、2つの距離画像センサとの距離(既知とする)から所定のステップS20で取得された距離画像における荷物のIDを推定することができる。 As an example of a method of determining whether or not the ID corresponding to the package present in the distance image exists in the memory 36, the following procedure can be mentioned. That is, the processor 34 uses the distance between the label reader 10 and the distance image sensor 20 (known) and the speed of the transport conveyor 50 to move the package between the label reader 10 and the distance image sensor 20. Calculate the time required. Then, by subtracting the time from the time when the distance image is acquired, it is possible to estimate the time when the luggage existing in the distance image is given the ID by the label reader 10 (and the processor 34). Then, it is possible to presume that the ID given close to the estimated time is the ID corresponding to the package present in the distance image. Further, as another example, a method of installing another range image sensor in the vicinity of the label reader 10 can be cited. That is, since the label reader 10 gives the ID (and the processor 34), the distance image sensor installed near the label reader 10 is used to track the package to which the ID is given, so that The distance between the luggage (and ID) and the label reader 10 is measured. The processor 34 determines a predetermined distance from the measured distance between the luggage (and ID) and the label reader 10, the distance between the luggage in the distance image acquired in step S20, and the distance between the two distance image sensors (known). The ID of the parcel in the range image acquired in step S20 can be estimated.

このようにして、プロセッサ34は当該距離画像に含まれる荷物に対応するIDがメモリ36に存在するか否かを判定する(ステップS30)。すなわち、ステップS2で述べたように、メモリ36には、荷物特定情報、ID、IDを付与した時刻に対応する時刻情報が予め記録されている。一方、プロセッサ34は、例えば上述したように、距離画像を取得した時刻から荷物がラベルリーダ10と距離画像センサ20の間を移動するために要する時間を引くことで、距離画像に存在する荷物がラベルリーダ10(およびプロセッサ34)によりIDを付与された時刻が推定できる。プロセッサ34は、予めメモリ36に記録された時刻情報と推定した時刻とを比較し、これらの値が近い場合は(例えば時間差が所定の閾値時間以下の場合など)、距離画像に含まれる荷物に対応するIDがメモリ36に存在すると判定することができる。メモリ36に荷物に対応するIDが存在すると判定した場合(ステップS30;Yes)、ステップS60以降の処理に進む。 In this way, the processor 34 determines whether or not the ID corresponding to the package included in the distance image exists in the memory 36 (step S30). That is, as described in step S2, the memory 36 stores in advance the package identification information, the ID, and the time information corresponding to the time when the ID is assigned. On the other hand, for example, as described above, the processor 34 subtracts the time required for the package to move between the label reader 10 and the range image sensor 20 from the time when the range image is acquired, so that the package existing in the range image can be detected. The time when the ID is given by the label reader 10 (and the processor 34) can be estimated. The processor 34 compares the time information recorded in advance in the memory 36 with the estimated time, and when these values are close (for example, when the time difference is less than or equal to a predetermined threshold time), the package included in the distance image It can be determined that the corresponding ID exists in the memory 36. When it is determined that the ID corresponding to the package exists in the memory 36 (step S30; Yes), the process proceeds to step S60 and subsequent steps.

メモリ36に荷物に対応するIDが存在しないと判定した場合(ステップS30;No)、プロセッサ34は、当該荷物にIDが付与されていないことを前提として、当該荷物の位置を改めて特定し(ステップS40)、荷物にIDを付与する(ステップS50)。ステップS30〜S50については、さらにその詳細について後述する。 When it is determined that the ID corresponding to the parcel does not exist in the memory 36 (step S30; No), the processor 34 re-specifies the position of the parcel on the assumption that the parcel does not have the ID (step S30; No). S40), ID is given to the package (step S50). Details of steps S30 to S50 will be described later.

さらにプロセッサ34は、所定の間隔をおいて入力部32が取得する距離画像センサ20からの距離画像に基づき、搬送コンベヤ50により搬送されて移動するID付きの荷物を追跡する(ステップS60)。そして、プロセッサ34は、同じく距離画像に基づき、追跡していた荷物が作業者により拾い上げられたか否かを判定する(ステップS70)。荷物が作業者により拾い上げられていないと判定した場合(ステップS70;No)、プロセッサ34は、荷物が、後述する特定領域(その荷物が拾い上げられるべき特定領域)に存在するか否かを判定する。そして、荷物が特定領域に存在する(到達した)と判定した場合(ステップS80;Yes)、プロセッサ34は投影画像を生成し、プロジェクタ40に送信する(ステップS90)荷物が特定領域に存在する(到達した)と判定しない場合(ステップS80;No)、ステップS60に戻り、プロセッサ34は、荷物の追跡を続行する。 Further, the processor 34 traces the ID-carried package conveyed by the conveyor 50 and moving based on the distance image from the distance image sensor 20 acquired by the input unit 32 at a predetermined interval (step S60). Then, the processor 34 also determines, based on the distance image, whether or not the tracked luggage has been picked up by the worker (step S70). When it is determined that the parcel has not been picked up by the worker (step S70; No), the processor 34 determines whether the parcel exists in a specific region (a specific region where the parcel should be picked up) described below. .. Then, when it is determined that the package exists (has arrived) in the specific region (step S80; Yes), the processor 34 generates a projection image and transmits it to the projector 40 (step S90). The package exists in the specific region (step S90). If it is not determined that it has arrived (step S80; No), the process returns to step S60, and the processor 34 continues the tracking of the package.

また、ステップS70で、荷物が作業者により拾い上げられたと判定した場合(ステップS70;Yes)、プロセッサ34は、荷物の詳細情報をメモリ36から読み出し(ステップS100)、詳細情報を含む投影画像を生成し、出力部38が生成した投影画像をプロジェクタ40に出力する(ステップS90)。投影指示装置30から投影画像を取得したプロジェクタ40は、当該投影画像を対応する荷物に投影する。 If it is determined in step S70 that the package has been picked up by the worker (step S70; Yes), the processor 34 reads detailed information of the package from the memory 36 (step S100) and generates a projection image including the detailed information. Then, the projection image generated by the output unit 38 is output to the projector 40 (step S90). The projector 40 that has obtained the projection image from the projection instruction device 30 projects the projection image onto the corresponding luggage.

以上は、投影指示装置30のプロセッサ34等が行う動作手順の概略というべきものであり、以下、さらに各処理の詳細な手順について説明する。 The above is the outline of the operation procedure performed by the processor 34 or the like of the projection instruction device 30, and the detailed procedure of each process will be described below.

[距離画像の取得]
プロセッサ34は、距離画像センサ20が取得した距離画像の全領域のデータを処理し、荷物の移動を追跡することができる。しかしながら、距離画像センサ20が取得するデータには荷物の移動とは関係のないデータも多く、また、撮像した距離画像の全領域の処理には時間がかかるという事情が存在する。このような事情を考慮すると、プロセッサ34は、必ずしも距離画像センサ20が取得したすべての距離画像のデータを処理する必要はない。そこで本実施形態では、プロセッサ34が、距離画像センサ20が取得した距離画像のうち、一部の領域のみを処理することで、プロセッサ34自身の処理の負担を軽減することにしている。
[Obtain range image]
The processor 34 can process the data of the entire range image of the range image acquired by the range image sensor 20 and track the movement of the package. However, the data acquired by the distance image sensor 20 includes a large amount of data unrelated to the movement of luggage, and it takes time to process the entire area of the captured distance image. In consideration of such circumstances, the processor 34 does not necessarily have to process all the range image data acquired by the range image sensor 20. Therefore, in the present embodiment, the processor 34 reduces the processing load of the processor 34 itself by processing only a partial area of the distance image acquired by the distance image sensor 20.

図5は、距離画像センサ20が所得した距離画像において、投影指示装置30が処理すべき画素に対応した座標点の集合体である処理対象空間Sを示す概念図である。荷物仕分けシステム100が仕分けするべき対象物は搬送コンベヤ50上の荷物Pであり、荷物Pが認識できれば、本来の目的が達成可能である。そこで本実施形態では、距離画像センサ20が取得した距離画像のうち、一部の領域である処理対象空間Sのみを投影指示装置30のプロセッサ34による処理対象に限定することにより、プロセッサ34の負担を軽減することにしている。距離画像センサ20が取得した距離画像の座標点は、平面の座標位置x、yと奥行であるdからなる(x,y,d)として定義される。処理対象空間Sを画定する座標点(x,y,d)の値は予め行う測定に基づき算出し、メモリ36などに記憶させておくことができる。プロセッサ34は、メモリ36に記録された座標点(x,y,d)の値を参考にして、図6で説明する処理を行うことができる。 FIG. 5 is a conceptual diagram showing a processing target space S which is a set of coordinate points corresponding to pixels to be processed by the projection instructing device 30 in a distance image obtained by the distance image sensor 20. The object to be sorted by the package sorting system 100 is the package P on the transport conveyor 50, and if the package P can be recognized, the original purpose can be achieved. Therefore, in the present embodiment, in the distance image acquired by the distance image sensor 20, only the processing target space S, which is a partial region, is limited to the processing target by the processor 34 of the projection instructing device 30, so that the load on the processor 34 is reduced. Will be reduced. The coordinate point of the distance image acquired by the distance image sensor 20 is defined as (x, y, d) consisting of coordinate positions x and y on the plane and d which is the depth. The values of the coordinate points (x i , y i , d i ) that define the processing target space S can be calculated based on the measurement performed in advance and stored in the memory 36 or the like. The processor 34 can perform the process described in FIG. 6 with reference to the values of the coordinate points (x i , y i , d i ) recorded in the memory 36.

本実施形態では、処理対象空間Sは、搬送コンベヤ50の面内であって、搬送コンベヤ50から所定の高さH、及び幅Wまでの範囲で区画された空間によって画定されている。この空間なら、搬送コンベヤ50上の荷物Pが捕捉可能であると考えられるからである。高さHの範囲は特に限定されないが、高さHが大きすぎるとプロセッサ34の処理負担が重くなり、高さHが小さすぎると荷物Pの捕捉が困難になる可能性がある。よって、高さHは例えば50cm程度に設定されるが特に限定はされない。幅Wは実際の搬送コンベヤの幅そのものには限定されず、所定の遊び幅を加えた、あるいは引いたものでもよいし、多少の広狭誤差を有していても良い。 In the present embodiment, the processing target space S is defined by a space within the surface of the transfer conveyor 50 and divided into a range from the transfer conveyor 50 to a predetermined height H and width W. This is because it is considered that the luggage P on the transport conveyor 50 can be captured in this space. The range of the height H is not particularly limited, but if the height H is too large, the processing load of the processor 34 becomes heavy, and if the height H is too small, it may be difficult to capture the luggage P. Therefore, the height H is set to, for example, about 50 cm, but is not particularly limited. The width W is not limited to the actual width of the conveyer conveyor, and may be a width with or without a predetermined play width, or may have a slight width error.

図6は、図4のステップS20である距離画像の取得において、プロセッサ34がメモリ36と協働して行う詳細な動作手順を示すフローチャートである。まず、プロセッサ34は、距離画像センサ20から距離画像のデータを取得する(ステップS21)。そしてプロセッサ34は、メモリ36に記録された座標点(x,y,d)の値を参考にして、未だ処理が行われていない座標点の群である未処理点群が存在するか否かを判定する(ステップS22)。未処理点群が存在しない場合は(ステップS22;No)、処理が、ステップS30に進む。 FIG. 6 is a flowchart showing a detailed operation procedure performed by the processor 34 in cooperation with the memory 36 in the acquisition of the range image in step S20 of FIG. First, the processor 34 acquires range image data from the range image sensor 20 (step S21). Then, the processor 34 refers to the values of the coordinate points (x i , y i , d i ) recorded in the memory 36, and there is an unprocessed point group that is a group of coordinate points that have not been processed yet. It is determined whether or not (step S22). When there is no unprocessed point group (step S22; No), the process proceeds to step S30.

未処理点群が存在する場合は(ステップS22;Yes)、プロセッサ34は、当該未処理点群から1つの座標点を取得する(ステップS23)。そしてプロセッサ34は、取得した座標点が処理対象空間Sに含まれるか否かを判定する(ステップS24)。この座標点が処理対象空間Sに含まれない場合は(ステップS24;No)、当該座標点に処理済の旨の情報を付加した後に、ステップS22に戻り、再度プロセッサ34は、距離画像の中に未処理点群が存在するか否かを判定する。また、ステップS23で取得した座標点が処理対象空間Sに含まれる場合は(ステップS24;Yes)、プロセッサ34は、当該座標点を処理対象空間Sに含まれる処理対象座標点としてメモリ36に記録(登録)する(ステップS25)。当該座標点にも処理済の旨の情報が付加される。 When there is an unprocessed point group (step S22; Yes), the processor 34 acquires one coordinate point from the unprocessed point group (step S23). Then, the processor 34 determines whether or not the acquired coordinate point is included in the processing target space S (step S24). If this coordinate point is not included in the processing target space S (step S24; No), information indicating that processing has been completed is added to the coordinate point, and then the process returns to step S22, and the processor 34 again determines in the range image. It is determined whether or not there is an unprocessed point group. When the coordinate point acquired in step S23 is included in the processing target space S (step S24; Yes), the processor 34 records the coordinate point in the memory 36 as the processing target coordinate point included in the processing target space S. (Register) (step S25). Information indicating that the processing has been completed is also added to the coordinate point.

図7は、処理対象空間Sの変形例を示す概念図である。本例では、処理対象空間Sを、さらに搬送コンベヤ50の搬送方向における所定の長さLの範囲で区画して限定している。これにより、プロセッサ34が処理すべき座標点の数をさらに減らし、プロセッサ34の処理負担を減らすことができる。1つの距離画像センサ20が時間の経過に応じて、撮像すべき所定の長さLに相当する領域を変えてもよいし、複数の距離画像センサ20が各々担当する所定の長さLに相当する領域をそれぞれ撮像してもよい。 FIG. 7 is a conceptual diagram showing a modified example of the processing target space S. In this example, the processing target space S is further limited by being divided into a range of a predetermined length L in the transport direction of the transport conveyor 50. As a result, the number of coordinate points to be processed by the processor 34 can be further reduced, and the processing load on the processor 34 can be reduced. One distance image sensor 20 may change an area corresponding to a predetermined length L to be imaged according to the passage of time, or a plurality of distance image sensors 20 each correspond to a predetermined length L in charge. You may image each area to do.

本実施形態によれば、プロセッサ34が処理すべき処理対象空間Sを限定し、処理対象を減らすことができ、結果的に荷物の仕分けをより効率的かつ正確に行うことが可能となる。尚、例えばプロセッサ34の処理能力が高いため、図5〜図7の処理、特にステップS24の判定処理を行わない場合、ステップS20は、単にセンシング情報としての距離画像を取得する動作となり、その後の処理では基本的に取得した距離画像の全部の座標点が処理対象となる。この結果、搬送コンベヤ50から拾い上げられた荷物が対象となる図4のステップS100、後述する図8のステップS101、ステップS102が実施可能となる。むろん、このような事実は図5〜図7の思想を否定するものではなく、図5〜図7の思想によって、プロセッサ34の処理負担の軽減という、ステップS100〜S102の作用効果とは独立した作用効果が得られる。逆の観点からは、図5〜図7の実施形態を適用することにより、ステップS100〜S102の動作は原則的に行われないことになるが、もちろんこれによって、ステップS100〜S102の思想が否定されるわけではない。 According to the present embodiment, the processing target space S to be processed by the processor 34 can be limited, the processing target can be reduced, and as a result, the packages can be sorted more efficiently and accurately. Note that, for example, since the processing capacity of the processor 34 is high, if the processing of FIGS. 5 to 7, particularly the determination processing of step S24 is not performed, step S20 is an operation of simply acquiring a distance image as sensing information, and thereafter, In the processing, basically all the coordinate points of the acquired distance image are to be processed. As a result, step S100 of FIG. 4 and steps S101 and S102 of FIG. 8, which will be described later, can be carried out for the packages picked up from the conveyor 50. Of course, such a fact does not deny the idea of FIGS. 5 to 7, and the idea of FIGS. 5 to 7 is independent of the operation effect of steps S100 to S102 of reducing the processing load of the processor 34. The effect is obtained. From the opposite point of view, by applying the embodiment of FIGS. 5 to 7, the operations of steps S100 to S102 are not performed in principle, but of course, this negates the idea of steps S100 to S102. It is not done.

[IDの付与]
投影指示装置30の入力部32がラベルリーダ10から、ラベル記録情報に対応した荷物特定情報を取得すると(ステップS1)、通常は荷物特定情報(荷物特定番号)に対応したIDが付与され、メモリ36に記録される(ステップS2)。しかしながら、ラベルリーダ10によるラベルの読み取りが失敗した場合や、読み取るべきラベルがそもそも荷物に貼付されていない場合、たとえステップS20で荷物の距離画像が取得されても、当該荷物の距離画像に対応するIDはメモリ36に存在しない(ステップS30;No)。この場合、プロセッサ34は、当該荷物にIDが付与されていないことを前提として、改めて、当該荷物の距離画像を距離画像センサ20から取得するととともに荷物の位置を特定し(ステップS40)、当該荷物にIDを付与し、メモリ36に記録する(ステップS50)。その後プロセッサ34は、所定の間隔をおいて入力部32が取得する距離画像センサ20からの距離画像に基づき、搬送コンベヤ50により搬送されて移動するID付きの荷物を追跡する(ステップS60)。
[Grant ID]
When the input unit 32 of the projection instructing device 30 acquires the package identification information corresponding to the label recording information from the label reader 10 (step S1), an ID corresponding to the package identification information (package identification number) is usually added to the memory. It is recorded in 36 (step S2). However, if the label reader 10 fails to read the label or the label to be read is not attached to the luggage in the first place, even if the distance image of the luggage is acquired in step S20, it corresponds to the distance image of the luggage. The ID does not exist in the memory 36 (step S30; No). In this case, the processor 34 again acquires the distance image of the parcel from the distance image sensor 20 and specifies the position of the parcel again on the assumption that the parcel has not been given an ID (step S40). Is assigned an ID and is recorded in the memory 36 (step S50). After that, the processor 34 tracks the ID-carried package conveyed by the conveyor 50 and moving based on the distance image from the distance image sensor 20 acquired by the input unit 32 at a predetermined interval (step S60).

[投影面の抽出]
プロセッサ34が荷物へのIDの付与後、荷物を追跡するに際して(ステップS60)、プロセッサ34は、距離画像センサ20が取得した荷物の全体像の距離画像に基づき、荷物の移動を追跡することができる。しかしながら、全体像の距離画像のデータ量は大きいため全体像の距離画像に基づく荷物の追跡は、処理量が多く、困難となる可能性がある。また、全体像の距離画像が荷物の移動の追跡に必要とは限らず、図4のステップS90において投影画像を投影すべき投影面が追跡できていればよいと考えられる。そこで本実施形態においては、プロセッサ34は、ステップS60において、メモリ36と協働して取得した荷物の全体像の距離画像から、投影画像を投影すべき特定の面である投影面を抽出し、抽出した投影面のみに基づき荷物を追跡する。このように荷物を抽出した投影面(特定の面)のみに基づいて荷物を追跡すると、全ての投影面に基づいて荷物を追跡するよりも少ない処理量で荷物の追跡を行うことができる。本開示においては、荷物の追跡その他の、投影画像を生成するために必要な処理(投影画像の生成そのものを含む)を、特定の面のみに基づいて行うことで、プロセッサ34の負担を軽減させている。
[Extraction of projection plane]
After the processor 34 assigns the ID to the package and tracks the package (step S60), the processor 34 may track the movement of the package based on the distance image of the entire image of the package acquired by the distance image sensor 20. it can. However, since the data amount of the distance image of the whole image is large, tracking of the package based on the distance image of the whole image requires a large amount of processing and may be difficult. Further, it is considered that the distance image of the whole image is not always necessary for tracking the movement of the luggage, and that the projection surface on which the projection image should be projected can be tracked in step S90 of FIG. Therefore, in the present embodiment, in step S60, the processor 34 extracts a projection surface, which is a specific surface on which the projection image is to be projected, from the distance image of the entire image of the package acquired in cooperation with the memory 36. Track the package based only on the extracted projection plane. By tracking the package based only on the projection plane (specific surface) from which the package is extracted in this manner, the package can be tracked with a processing amount smaller than that of tracking the package based on all the projection planes. In the present disclosure, the load of the processor 34 can be reduced by performing the processes (including the generation of the projection image itself) necessary for generating the projection image, such as tracking of luggage, based on only a specific surface. ing.

投影面は、例えば略直方体の荷物の上面(天面)がその典型例である。プロセッサ34は、このような上面を、距離画像のうち高さが一定の座標の点群に基づき抽出することができる。また、プロセッサ34は、このような上面を、距離画像のうち搬送コンベヤ50と平行な面を構成する座標の点群に基づき抽出することもできる。 A typical example of the projection surface is the upper surface (top surface) of a substantially rectangular parallelepiped luggage. The processor 34 can extract such an upper surface on the basis of a point group of coordinates having a constant height in the distance image. The processor 34 can also extract such an upper surface based on a point group of coordinates forming a surface parallel to the transport conveyor 50 in the distance image.

投影面は、例えば直方体の荷物の一側面であってもよい。プロセッサ34は、このような側面を、距離画像のうち搬送コンベヤ50に対し垂直な面を構成する座標の点群に基づき抽出することができる。上述した方法で予め上面を抽出しておくことより、側面の上端を画定できるため、予め上面を抽出しておくことが側面の抽出には好ましい。 The projection plane may be, for example, one side surface of a rectangular parallelepiped luggage. The processor 34 can extract such a side surface based on a point group of coordinates forming a surface perpendicular to the transport conveyor 50 in the distance image. It is preferable to extract the upper surface in advance because the upper end of the side surface can be defined by extracting the upper surface in advance by the method described above.

投影面の向きは、荷物の移動軌跡により得られる速度ベクトルとの関係で定義することができる。 The orientation of the projection plane can be defined in relation to the velocity vector obtained from the locus of movement of the luggage.

また、略直方体の荷物の上面や側面は、荷物の外接直方体を取得してから抽出することもできる。「外接直方体」とは、慣性主軸方向に平行な辺を有し、荷物が入る最小の直方体、即ち、直方体の6面のそれぞれが少なくとも一点において荷物の表面と接する直方体のことである。プロセッサ34は、荷物の距離画像を3次元マッチング空間にて座標展開し、座標展開された荷物の最終画像の外接直方体を生成し、当該外接直方体の3辺の寸法を算出する。この結果、荷物の上面、側面を取得することができる。 Further, the upper surface and the side surface of the substantially rectangular parallelepiped luggage can be extracted after the circumscribed rectangular parallelepiped of the luggage is acquired. The "circumscribing rectangular parallelepiped" is a rectangular parallelepiped having a side parallel to the principal axis of inertia and in which a load is put, that is, each of the six faces of the rectangular parallelepiped is in contact with the surface of the load at at least one point. The processor 34 coordinate-expands the distance image of the package in the three-dimensional matching space, generates the circumscribed rectangular parallelepiped of the final image of the coordinate-developed package, and calculates the dimensions of the three sides of the circumscribed rectangular parallelepiped. As a result, the upper surface and the side surface of the luggage can be acquired.

投影面の選択は任意であり、直方体以外の形状の荷物の場合、様々な選択対象の面が考えられる。また、作業者の利便性を考慮して投影面を選択することもできる。例えば作業者から見て遠くの位置に荷物がある場合は、プロセッサ34は、作業者から見た前面(直方体の荷物の場合、作業者に最も近い側面)を投影面として選択することができる。また、作業者から見て近くの位置に荷物がある場合は、プロセッサ34は、上面を投影面として選択することができる。このような処理により、ステップS90の後にプロジェクタ40が、作業者にとって最も認識しやすい面への投影画像の投影を行うことが可能となる。また、荷物の周囲に存在する作業者の位置も同時に認識し、その情報を元に投影面を切り替えてもよい。 The selection of the projection plane is arbitrary, and in the case of luggage having a shape other than the rectangular parallelepiped, various surfaces to be selected can be considered. Also, the projection plane can be selected in consideration of the convenience of the operator. For example, when the load is located far from the worker, the processor 34 can select the front surface (the side closest to the worker in the case of a rectangular parallelepiped) viewed from the worker as the projection surface. Further, when there is a load at a position near the operator, the processor 34 can select the upper surface as the projection surface. By such processing, after step S90, the projector 40 can project the projection image on the surface most easily recognized by the operator. Further, the positions of the workers around the luggage may be recognized at the same time, and the projection plane may be switched based on the information.

また、投影面を一面だけに絞り込むことにより、プロセッサ34の処理負担を減らすことができ、かつ選択した面に適した投影画像を後に生成することができる。 Further, by narrowing the projection plane to only one plane, the processing load on the processor 34 can be reduced, and a projection image suitable for the selected plane can be generated later.

本実施形態によれば、投影画像を投影すべき投影面を抽出することにより、プロセッサ34は、荷物の全体を表示する距離画像に対する処理を行う必要がなくなり、処理負荷が軽減される。ただし、処理負荷の問題がない限り、一面のみならず複数の面を投影面として選択し、ステップS90でプロジェクタ40が、複数の投影面に投影画像を投影してもよい。よって、投影画像を投影すべき特定の面は一面のみならず複数の面をも含む。 According to the present embodiment, by extracting the projection plane on which the projection image should be projected, the processor 34 does not need to perform the processing on the distance image displaying the entire package, and the processing load is reduced. However, as long as there is no processing load problem, not only one surface but also a plurality of surfaces may be selected as the projection surface, and the projector 40 may project the projection image on the plurality of projection surfaces in step S90. Therefore, the specific surface on which the projection image is projected includes not only one surface but also a plurality of surfaces.

ただし、本実施形態の様に投影面を抽出せずとも、プロセッサ34が稼働する限りステップS70以降の処理は可能である。よって、以降の説明でする処理は、投影面の抽出処理を必ずしも前提としたものではない。 However, even if the projection plane is not extracted as in the present embodiment, as long as the processor 34 operates, the processing of step S70 and thereafter can be performed. Therefore, the processing described below does not necessarily assume the extraction processing of the projection surface.

[投影位置の決定]
さらにプロセッサ34は荷物を追跡し、基本的に荷物が拾い上げられず(ステップS70;No)、後述する特定領域に荷物が存在する場合(ステップS80;Yes)、当該荷物に対応する投影画像を生成し、プロジェクタ40に送信する(ステップS90)。プロセッサ34は、最後に取得した距離画像の位置をもって、投影画像を投影する位置を決定することができる。
[Determination of projection position]
Further, the processor 34 tracks the parcel, and basically when the parcel is not picked up (step S70; No) and the parcel exists in a specific area described later (step S80; Yes), a projection image corresponding to the parcel is generated. Then, the data is transmitted to the projector 40 (step S90). The processor 34 can determine the position where the projection image is projected by using the position of the distance image acquired last.

しかしながら、距離画像の生成・取得にはある程度時間がかかり、その間にも荷物は搬送コンベヤ50により移動するため、最後に取得した距離画像の位置に投影画像を投影した場合、実際には既にその位置から荷物が移動してしまっている可能性もある。特に荷物の移動速度が速ければ速いほど、実際の荷物の位置と最後に距離画像を取得した位置のずれは大きくなり、投影画像を投影すべき投影位置が本来の位置からずれてしまう可能性が大きくなる。 However, it takes a certain amount of time to generate and acquire the distance image, and the luggage moves by the transport conveyor 50 during that time. Therefore, when the projection image is projected at the position of the last acquired distance image, the position is actually already at that position. There is a possibility that the luggage has been moved from. In particular, the faster the moving speed of the luggage, the greater the deviation between the actual luggage position and the position where the distance image was last acquired, and the projection position where the projection image should be projected may deviate from the original position. growing.

そこで本実施形態では、プロセッサ34は、荷物が移動する移動速度と、既に取得した荷物の位置を考慮して、投影画像を投影すべき位置である予測投影位置を予測し、当該予測投影位置に投影画像を投影し、適切に投影画像を荷物に投影することにしている。 Therefore, in the present embodiment, the processor 34 predicts the predicted projection position, which is the position where the projection image should be projected, in consideration of the moving speed of the package and the position of the package already acquired, and sets the predicted projection position to the predicted projection position. The projected image is projected, and the projected image is appropriately projected on the luggage.

プロセッサ34は、図4のステップS20において、距離画像センサ20が距離画像を取得した時刻に対応する第1の時刻情報であるタイムスタンプTS1を、当該距離画像に付与するとともに、メモリ36に記録する。さらにプロセッサ34は、投影画像の生成時に(ステップS90)、生成時の時刻に対応する第2の時刻情報であるタイムスタンプTS2を取得し、距離画像の取得時点TS1から投影画像の生成時点TS2までの間、すなわち、第1の時刻情報および第2の時刻情報の差分を算出する(TS2−TS1)。この差分に基づき、プロセッサ34は、メモリ36と協働して本来投影画像を投影すべき荷物の投影位置を取得することができる。なお、本開示において「時刻に対応する」とはその一時点を表すことのみに限定されない。「時刻に対応する」とは何らかのイベントが発生した時刻から所定期間離れた時点を表す場合も含む。 In step S20 of FIG. 4, the processor 34 adds the time stamp TS1 which is the first time information corresponding to the time when the distance image sensor 20 acquires the distance image to the distance image and records it in the memory 36. .. Further, at the time of generating the projection image (step S90), the processor 34 acquires the time stamp TS2 which is the second time information corresponding to the time at the time of generation, from the acquisition time TS1 of the distance image to the generation time TS2 of the projection image. In the meantime, that is, the difference between the first time information and the second time information is calculated (TS2-TS1). Based on this difference, the processor 34 can cooperate with the memory 36 to acquire the projection position of the baggage on which the originally projected image should be projected. Note that in the present disclosure, “corresponding to time” is not limited to representing the temporary point. “Corresponding to the time” also includes the case where the time point is a predetermined time away from the time point when some event occurs.

具体的には、荷物の移動速度(搬送コンベヤ50による搬送速度)がvである場合、荷物が移動した移動距離Dは、D=(TS2−TS1)×vによって計算することができる。なお、移動距離Dを方向付きの距離(例:東方向へ2cmなど)として算出しても良いし、荷物の移動方向が、搬送コンベヤ50の搬送方向と実質的に同じである場合は特に方向を定めない距離として算出してもよい(移動距離Dを方向つきの距離として算出するためにはvを方向付きの速度で定めればよい)。投影画像を投影すべき荷物の予測投影位置P2は、距離画像の位置P1に対しDを加えることで求めることができる。 Specifically, when the moving speed of the load (the transfer speed of the transfer conveyor 50) is v, the moving distance D of the load can be calculated by D=(TS2−TS1)×v. The moving distance D may be calculated as a distance with a direction (eg, 2 cm to the east), and particularly when the moving direction of the parcel is substantially the same as the carrying direction of the carrying conveyor 50. May be calculated as a distance that does not define (v may be defined as a speed with a direction in order to calculate the movement distance D as a distance with a direction). The predicted projection position P2 of the baggage on which the projection image should be projected can be obtained by adding D to the position P1 of the distance image.

上述したDの算出を可能にするために、vの値を推定もしくは実測によって定める必要がある。vの値を定めるには以下のような手法をとることができる。
1)荷物の追跡(S60)を行っている際に、時間当たりの移動距離および方向からvを算出する。
2)所定の速度および方向へ荷物が移動するものとみなして、当該速度をvとする。
3)コンベヤの搬送速度および方向をモータの出力等から監視し、当該速度をvとする(荷物の速度はコンベヤと等速であると仮定する)。
In order to enable the above-described calculation of D, it is necessary to determine the value of v by estimation or actual measurement. The following method can be used to determine the value of v.
1) While tracking the package (S60), v is calculated from the moving distance and direction per unit time.
2) Considering that the luggage moves in a predetermined speed and direction, let the speed be v.
3) The convey speed and direction of the conveyor are monitored from the output of the motor and the like, and the speed is v (assuming that the speed of the load is the same as the speed of the conveyor).

プロセッサ34は、以上のようにDを算出することで、投影画像を投影すべき位置である予測投影位置(P1+D)を算出する。本実施形態によれば、プロジェクタ40が、荷物に対し、その動きに沿ってより正確に投影画像を投影することが可能になり、人間の目から見ても画像の投影が滑らかに見えるようになる。 The processor 34 calculates the predicted projection position (P1+D), which is the position where the projection image should be projected, by calculating D as described above. According to the present embodiment, the projector 40 can more accurately project the projected image on the luggage along the movement thereof, so that the projected image can be seen smoothly by human eyes. Become.

なお、DをD=(TS2+Δt−TS1)×vによって算出してもよい。ここでΔtは投影指示装置30からプロジェクタ40への投影画像の伝送時間とすることができる。またはΔtはプロジェクタ内部での処理による遅延時間とすることもできる。またはΔtは投影指示装置30からプロジェクタ40への投影画像の伝送時間にプロジェクタ内部での処理による遅延時間を加えた時間とすることもできる。このようにΔtを定めることで予測投影位置をより精密に算出することができる。 Note that D may be calculated by D=(TS2+Δt−TS1)×v. Here, Δt can be the transmission time of the projection image from the projection instructing device 30 to the projector 40. Alternatively, Δt may be a delay time due to processing inside the projector. Alternatively, Δt may be the time obtained by adding the delay time due to the processing in the projector to the transmission time of the projection image from the projection instruction device 30 to the projector 40. By determining Δt in this way, the predicted projection position can be calculated more accurately.

[特定領域での投影]
本実施形態では、さらに図4のステップS80において、追跡している荷物の位置に応じて投影画像を投影すべきか否か、あるいは投影画像を変化させるか否かの判定を行う。本処理により、プロジェクタ40は、搬送コンベヤ50上において、当該荷物にとって仕分けの対象となる特定領域(特定区間)内を移動している場合に、当該荷物に投影画像の投影を行う、あるいは特定領域外に荷物が存在する場合と比較して投影映像を変化させることとなる。
[Projection in specific area]
In the present embodiment, further in step S80 of FIG. 4, it is determined whether or not the projection image should be projected or the projection image should be changed according to the position of the tracked luggage. By this processing, the projector 40 projects a projection image on the parcel when the parcel is moving within a specific region (specific section) to be sorted for the parcel on the transport conveyor 50, or the specific region. The projected image will be changed as compared with the case where there is luggage outside.

ラベルリーダ10が読み取る荷物特定情報は、荷物に個別に付与される荷物特定番号、発送人の氏名、住所、電話番号、受取人の氏名、住所、電話番号、荷物の種類等、に類似する情報の少なくとも一つを含む。これらの情報は、ステップS2やステップS50で述べたように荷物のIDと対応付けられて、メモリ36に記録されている。 The parcel identification information read by the label reader 10 is similar to the parcel identification number given to each parcel, the sender's name, address, telephone number, recipient's name, address, telephone number, type of parcel, etc. Including at least one of. These pieces of information are recorded in the memory 36 in association with the package ID as described in step S2 and step S50.

荷物が拾い上げられるべき特定領域とは、当該荷物を担当する作業者が搬送コンベヤ50から拾い上げる領域に相当する。本実施の形態において、搬送コンベヤ50上の領域は、図3(a)に示すように、それぞれ搬送コンベヤ50の搬送方向Xにおける特定長さで区画された領域である、領域A、領域B、領域C、領域D、領域Eの5つの特定領域に区切られている。 The specific area in which the parcel is to be picked up corresponds to a region where the worker in charge of the parcel picks up from the transport conveyor 50. In the present embodiment, as shown in FIG. 3A, the regions on the transport conveyor 50 are regions A, B, which are regions partitioned by a specific length in the transport direction X of the transport conveyor 50, respectively. It is divided into five specific areas, area C, area D, and area E.

以上のように記録された荷物特定情報および区切られた特定領域に基づいて、特定の荷物が搬送コンベヤ50上のどの特定領域で仕分けの対象となるべきか否かを判定するためには以下の手法を用いることができる。 Based on the parcel specific information recorded as described above and the partitioned specific regions, in order to determine in which specific region on the conveyor 50 the specific parcel is to be sorted, the following is performed. Techniques can be used.

第1に、特定領域毎に予め荷物特定情報を対応付けてメモリ36に記録する手法が挙げられる。例えば「○○地区行きの荷物であれば領域○で仕分けの対象になる」旨をメモリ36に記録づけることが考えられる。 Firstly, there is a method of preliminarily associating the parcel identification information with each specific region and recording it in the memory 36. For example, it is conceivable to record in the memory 36 that "if the package is bound for the XX district, it will be sorted in the area ◯."

第2に、(1)特定領域に存在する作業者を特定し、(2)作業者毎に予め荷物特定情報を対応付けて、メモリ36に記録する手法が挙げられる。作業者を特定するには各特定領域に入力装置を設けて作業者に作業者IDを登録させ(あるいは作業者の所持する無線デバイスから作業者IDを取得することで登録させ)ればよい。別の手法としては、距離画像あるいは別途取得した特定領域および作業者を含む画像から画像認識技術を用いて作業者IDを特定してもよい。また、別の手法としては、所定の時刻には特定の作業者が特定領域に存在するものとして特定をおこなってもよい。作業者毎に予め荷物特定情報を対応付けるには例えば「作業者Aは○○地区行きの荷物を仕分けする」旨をメモリ36に記録づけることが考えられる。以上の情報を用いて、データの統合を行うことで、プロセッサ34は「○○地区行きの荷物であれば領域○で仕分けの対象になる」ということを判定することができる。 Secondly, there is a method of (1) identifying a worker existing in the specific region, and (2) previously associating the luggage specifying information with each worker and recording the information in the memory 36. In order to specify the worker, an input device may be provided in each specific area so that the worker can register the worker ID (or register by acquiring the worker ID from a wireless device owned by the worker). As another method, the worker ID may be specified using an image recognition technique from a distance image or an image including a specific region and a worker acquired separately. Further, as another method, it may be specified that a specific worker exists in a specific area at a predetermined time. In order to associate the luggage specifying information with each worker in advance, it is conceivable to record in the memory 36, for example, "the worker A sorts the packages destined for the XX district". By integrating the data using the above information, the processor 34 can determine that "a package bound for the XX district is subject to sorting in the area ◯".

第3に、(1)各特定領域に近接している搬送トラックを特定し、(2)搬送トラック毎に予め荷物特定情報を対応付けて、メモリ36に記録する手法が挙げられる。各特定領域に近接している搬送トラックを特定するには、距離画像あるいは別途取得した特定領域および搬送トラックを含む画像から、画像認識技術を用いてトラックに付されたナンバープレートやマーカを特定することで特定してもよいし、所定の時刻には所定の搬送トラックが所定の特定領域に存在するものとして特定をおこなってもよい。搬送トラック毎に予め荷物特定情報を対応付けるには例えば「搬送トラックAは○○地区行きの荷物を仕分けする」旨をメモリ36に記録づけることが考えられる。以上の情報を用いて、データの統合を行うことで、プロセッサ34は「○○地区行きの荷物であれば領域○で仕分けの対象になる」ということを判定することができる。 Thirdly, there is a method of (1) identifying a transporting truck that is close to each specific area, and (2) associating the luggage identifying information with each transporting track in advance and recording it in the memory 36. In order to identify the transportation track that is close to each specific area, the license plate or the marker attached to the track is specified using the image recognition technology from the distance image or the image including the specific area and the transportation track acquired separately. It may be specified by the above, or may be specified as a predetermined transport truck existing in a predetermined specific area at a predetermined time. In order to previously associate the luggage specifying information with each transport truck, it is conceivable to record in the memory 36, for example, "transport truck A sorts luggage destined for XX district". By integrating the data using the above information, the processor 34 can determine that "a package bound for the XX district is subject to sorting in the area ◯".

以上のようにして、プロセッサ34は、荷物特定情報に基づき、特定の荷物が搬送コンベヤ50上のどの特定領域で仕分けの対象となるべきかを判定することができる。 As described above, the processor 34 can determine in which specific area on the transport conveyor 50 the specific load should be sorted based on the load specifying information.

プロセッサ34は、荷物特定情報に基づき、図4のステップS80で、特定の荷物が、その荷物が拾い上げられるべき特定領域に存在するか否かを判定する。そして、荷物が特定領域に存在する(到達した)と判定した場合(ステップS80;Yes)、プロセッサ34は、投影画像を生成し、プロジェクタ40に送信する。荷物が特定領域に存在する(到達した)と判定しない場合(ステップS80;No)、ステップS60に戻り、プロセッサ34は、荷物の追跡を続行する。 Based on the package identification information, the processor 34 determines in step S80 of FIG. 4 whether the specific package is present in the specific area where the package should be picked up. Then, when it is determined that the package exists (has arrived) in the specific area (step S80; Yes), the processor 34 generates a projection image and transmits it to the projector 40. When it is not determined that the package exists (has arrived) in the specific area (step S80; No), the process returns to step S60, and the processor 34 continues the tracking of the package.

荷物にとって仕分けの対象となる特定領域(特定区間)内を移動している場合に、当該荷物に投影画像の投影を行う場合を図3を用いて説明する。図3(a)の場面においては、搬送コンベヤ50上の5つの荷物P1〜P5が投影画像の投影対象となるが、本実施形態では、各荷物が拾い上げられるべき特定領域に到達して、初めてプロジェクタ40(撮像投影装置60)は、投影画像を荷物に投影することとなる。 A case where a projection image is projected on a parcel when the parcel is moving in a specific region (specific section) that is a sorting target will be described with reference to FIG. In the scene of FIG. 3A, the five packages P1 to P5 on the transport conveyor 50 are projection targets of the projected image, but in the present embodiment, each package reaches the specific area to be picked up for the first time. The projector 40 (imaging projection device 60) will project the projected image on the luggage.

図3(a)において、各領域の搬送コンベヤ50の脇には、荷物を拾い上げる担当の作業者が立っており、それぞれの領域に到達した荷物を、矢印A、矢印B、矢印C、矢印D、矢印Eで示すように搬送コンベヤ50から拾い上げる。図3(a)では、領域A、領域C、領域Dの担当者が搬送方向Xを基準として搬送コンベヤ50の右側に立っており、領域B、領域Eの担当者が搬送コンベヤ50の左側に立っているが、便宜上、領域Eの担当者M以外の図示は省略している。 In FIG. 3A, a worker in charge of picking up the parcels stands up beside the conveyor 50 in each region, and the parcels reaching the respective parcels are indicated by arrows A, B, C, and D. , Picked up from the conveyor 50 as indicated by arrow E. In FIG. 3A, the personnel in the areas A, C, and D are standing on the right side of the transport conveyor 50 with the transport direction X as a reference, and the personnel in the areas B and E are on the left side of the transport conveyor 50. Although standing, for convenience sake, illustrations of the area E other than the person in charge M are omitted.

例えば荷物P1はラベルに「AAA111」の荷物特定情報を持っている。上述した手法に基づき「AAA111」の荷物特定情報は領域Aで仕分けの対象になる旨が特定されているとする。そこで、プロセッサ34は、荷物P1が(特定)領域Aに到着したら、生成した投影画像をプロジェクタ40に送信する。そして、プロジェクタ40は投影画像を荷物P1に投影する。よって、領域Aの作業者は、自身が担当する特定領域に到着した自身が拾い上げるべき荷物P1に容易に着目することが可能となり、結果的に荷物の仕分けをより効率的かつ正確に行うことが可能となる。 For example, the baggage P1 has the baggage identification information "AAA111" on the label. Based on the method described above, it is assumed that the parcel identification information of “AAA111” is specified to be sorted in the area A. Therefore, when the parcel P1 arrives at the (specific) area A, the processor 34 transmits the generated projection image to the projector 40. Then, the projector 40 projects the projection image on the luggage P1. Therefore, the worker in the area A can easily pay attention to the luggage P1 that he/she should pick up when he/she arrives at the specific area in charge, and as a result, sorts the luggage more efficiently and accurately. It will be possible.

本実施形態では、図3(a)に示すように1台のプロジェクタ40に対して、複数の特定領域の投影の有無を切り替えさせてもよく、複数台のプロジェクタ40に対して、それぞれ担当の特定領域における投影の有無を切り替えさせてもよい。 In the present embodiment, as shown in FIG. 3A, the presence or absence of projection of a plurality of specific areas may be switched for one projector 40, and the plurality of projectors 40 are respectively in charge. The presence/absence of projection in the specific area may be switched.

図3を用いて説明した例によれば、荷物が仕分けの対象となる特定領域内を移動している場合にのみ投影を行うことにより、作業者が自ら拾い上げる荷物を特定することが容易になる。また、総ての荷物に対して条件に関わらず投影を行う場合、作業者が荷物の区別を容易にするため、様々なパターンの投影画像を用意することが必要となる。しかしながら、作業者や配送先の数によっては、荷物の区別をするための投影画像に高度なデザイン力が要求されることも考えられる。しかしながら、本実施形態によれば、投影対象となる荷物を限定することにより、投影画像のパターン数を最小限に抑えることが可能となる。 According to the example described with reference to FIG. 3, it becomes easy for the worker to identify the package to be picked up by performing the projection only when the package is moving within the specific area to be sorted. .. Further, in the case of performing projection for all packages regardless of conditions, it is necessary for the operator to prepare projection images of various patterns in order to make it easy for the operator to distinguish the packages. However, depending on the number of workers and delivery destinations, it is conceivable that a high degree of designing power is required for the projected image for distinguishing packages. However, according to the present embodiment, it is possible to minimize the number of patterns of the projected image by limiting the luggage to be projected.

なお、本開示の手法は、荷物が特定領域内に荷物が存在する場合のみ投影を行うことに限定されない。荷物が特定領域内外両方に存在する場合にも荷物に対して投影を行うが、特定領域内に存在する場合は、特定領域外に荷物が存在する場合と比較して投影映像を変化させるように本開示を適用してもよい。 It should be noted that the method of the present disclosure is not limited to performing projection only when the parcel exists in the specific area. Even if the luggage exists both inside and outside the specific area, the projection is performed on the luggage, but when it exists inside the specific area, the projected image is changed as compared with the case where the luggage exists outside the specific area. The present disclosure may be applied.

なお、本実施形態の様に荷物が特定領域に存在するか否を判定しなくても、プロセッサ34が稼働する限りステップS90の処理は可能である。すなわち、常に投影画像を生成して投影するようにしてもよい。よって、以降の説明でする処理は、本処理(荷物の特定領域内の存在判定)を必ずしも前提としたものではない。 Note that the process of step S90 can be performed as long as the processor 34 operates even if it is not determined whether the parcel exists in the specific area as in the present embodiment. That is, a projection image may always be generated and projected. Therefore, the processing described below is not necessarily based on this processing (determination of the presence of a package in a specific area).

[矢印を含む投影画像の生成]
プロセッサ34は、図4のステップ90における投影画像の生成に際し、当該荷物を拾い上げる作業者の作業性を考慮し、当該作業者が存在する方向、すなわち荷物を拾い上げる方向を示す画像として矢印を含む投影画像を生成することができる。
[Generation of projected image including arrow]
When generating the projection image in step 90 of FIG. 4, the processor 34 considers the workability of the worker who picks up the parcel and, in view of the direction in which the worker exists, that is, a projection including an arrow as an image indicating the direction in which the parcel is picked up. Images can be generated.

本実施の形態においては、各特定領域に対応して、各特定領域において荷物が拾い上げられる方向がメモリ32内に記録されているものとする。すなわち、領域Aであれば荷物が拾い上げられる方向は方向Xに対して右、領域Bであれば左、のように対応付けられてメモリ32内に記録されているものとする。 In the present embodiment, it is assumed that the direction in which a package is picked up in each specific area is recorded in the memory 32, corresponding to each specific area. That is, it is assumed that the direction in which the parcel is picked up in the area A is right with respect to the direction X, and the direction in the area B is left in the memory 32 in association with each other.

上述した、特定の荷物が搬送コンベヤ50上のどの特定領域で仕分けの対象となるべきか否かを判定する手法によれば、特定の荷物が特定の荷物がどの特定領域で仕分けの対象となるべきかを判定することができるので、特定の荷物が搬送コンベヤのどちらの方向に拾い上げられるかも判定することができる。つまり、プロセッサ34は、荷物特定情報から荷物が拾い上げられる方向を判定することができる。そしてプロセッサ34は、判定に基づき投影すべき矢印の画像を定義することができる。なお、本実施の形態においては拾い上げる方向を示す投影画像の一例として矢印を用いた説明を行うが、拾い上げる方向を示す画像はこれに限定されない。例えば拾い上げる方向を示す投影画像の一例として所定の方向に向かってスクロールする映像を構成する画像を用いることもできるし、所定の方向のみが他の方向に比べて異なる色で構成された画像を用いることもできる。 According to the above-described method of determining in which specific area on the transport conveyor 50 the specific cargo should be sorted, in which specific area the specific cargo is sorted. Since it can be determined whether it should be, it can also be determined in which direction of the conveyor the particular load is picked up. That is, the processor 34 can determine the direction in which the package is picked up from the package identification information. The processor 34 can then define the image of the arrow to be projected based on the determination. Note that, in the present embodiment, an arrow is used as an example of a projected image showing the picking up direction, but the image showing the picking up direction is not limited to this. For example, an image forming a video scrolling in a predetermined direction may be used as an example of a projected image showing the picking-up direction, or an image formed in a color different in only the predetermined direction compared to other directions is used. You can also

投影画像を生成する具体的手法の一例を挙げれば、例えばメモリ36に予め、二方向(搬送コンベヤの右側および左側)を向いた矢印のテンプレート画像を記録しておき、プロセッサ34が搬送方向と荷物の荷物特定情報から、何れかのテンプレート画像を選択し、矢印を含む投影画像を生成することが挙げられる。また、例えばメモリ36に予め、自由な向きに回転可能な矢印の画像を記録しておき、プロセッサ34が搬送方向と荷物の荷物特定情報から、回転可能な矢印の画像を適切な方向を向くように回転させ、矢印を含む投影画像を生成するようにしてもよい。この結果、図3(b)に示すように、荷物P1、P2の上面に、矢印A画像、矢印B画像を含む投影画像を投影することが可能となる。 To give an example of a specific method for generating a projected image, for example, a template image of an arrow pointing in two directions (right side and left side of the transport conveyor) is recorded in advance in the memory 36, and the processor 34 stores the transport direction and the load. It is possible to select one of the template images from the package specifying information of 1 to generate a projection image including an arrow. Further, for example, an image of an arrow that can be rotated freely in advance is recorded in the memory 36 in advance, and the processor 34 can turn the image of the arrow that can be rotated in an appropriate direction based on the transport direction and the package identification information of the package. Alternatively, the projection image including the arrow may be generated. As a result, as shown in FIG. 3B, it is possible to project the projection image including the arrow A image and the arrow B image on the upper surfaces of the parcels P1 and P2.

尚、プロセッサ34は、ステップS50において抽出した投影面の大きさに基づき、荷物を拾い上げる方向を示す画像の大きさまたは形状を変化させてもよい。このようにして、投影面に荷物を拾い上げる方向を示す画像の示す方向が表示されなくなることを防ぎ、または、投影面に対して矢印が必要以上に小さく投影されることを防ぐことができる。 It should be noted that the processor 34 may change the size or shape of the image indicating the pickup direction based on the size of the projection plane extracted in step S50. In this way, it is possible to prevent the direction indicated by the image indicating the pickup direction of the luggage from not being displayed on the projection surface, or to prevent the arrow from being projected smaller than necessary on the projection surface.

本実施形態によれば、作業者が、自らが拾い上げるべき荷物を識別しやすい投影画像を生成することができ、仕分け作業のミスを抑制するとともに、効率を向上させることもできる。ただし、本実施形態の様な矢印の生成も、他の実施形態の実施にあたっては必須ではなく、荷物を拾い上げる方向を示す矢印以外の他のパターンの情報を投影することも可能である。 According to the present embodiment, a worker can generate a projection image that makes it easy for the worker to identify the luggage to be picked up, and it is possible to suppress mistakes in sorting work and improve efficiency. However, the generation of the arrow as in the present embodiment is not indispensable for implementing the other embodiments, and it is also possible to project information of another pattern other than the arrow indicating the direction in which the luggage is picked up.

[詳細情報の付与]
図8は、図4のステップS70およびS100において、プロセッサ34が行う詳細な動作手順を示すフローチャートである。一般的に図3の作業者Mは拾い上げた荷物Pをトラックに積み込む際、一旦荷物を足元等、近傍の位置に並べ、配送の順序を考慮して荷物Pを積み込む。例えば作業者は、最後に配送する荷物をトラックの荷台の最も奥の位置に積み込み、最初に配送する荷物を荷台の出口付近の位置に積み込むのが一般的である。このような積み込みにはある程度の慣れや配送地域に対する情報が必要であり、担当作業者の交代などの事情に鑑みると、一定の効率性を維持するのは難しい。
[Grant detailed information]
FIG. 8 is a flowchart showing a detailed operation procedure performed by the processor 34 in steps S70 and S100 of FIG. Generally, the worker M of FIG. 3 loads the picked-up luggage P on the truck once by arranging the luggage at a nearby position such as a foot and loading the luggage P in consideration of the order of delivery. For example, it is common for an operator to load the last package to be delivered at the deepest position of the truck bed and the first package to be loaded near the exit of the truck bed. Such loading requires some degree of habituation and information about the delivery area, and it is difficult to maintain a certain level of efficiency in view of the circumstances such as the change of the worker in charge.

そこで本実施形態では、特に搬送コンベヤ50から拾い上げられた荷物については、更なる詳細情報を取得し、この詳細情報を荷物に投影する。作業者は当該詳細情報を含む投影画像を見ることで、容易にトラックに積み込むべき順序を把握することができるため、効率的に荷物Pをトラックに積み込むことができ、積み込み作業の効率を向上させることができる。 Therefore, in the present embodiment, further detailed information is acquired regarding the parcel picked up from the transport conveyor 50, and this detailed information is projected onto the parcel. By looking at the projected image including the detailed information, the worker can easily grasp the order to be loaded on the truck, so that the luggage P can be efficiently loaded on the truck, and the efficiency of the loading operation is improved. be able to.

図8におけるステップS71〜ステップS74は、図4のステップS70に相当する。プロセッサ34は、荷物を追跡中のステップS60から引き続き、荷物の上面の距離画像を取得する(ステップS71)。ここで、距離画像センサ20は、所定の時間毎に距離画像を1フレームごとに撮像しており、プロセッサ34は、1フレームごとの距離画像を受けとっており、前後するフレームでその差分を抽出している(ステップS72)。そして、本実施形態では、最新のフレームの距離画像内の荷物と、その前のフレーム内の荷物との差分を抽出しており、当該差分から荷物が等速直線運動しているか否かを判定する(ステップS73)。 Steps S71 to S74 in FIG. 8 correspond to step S70 in FIG. The processor 34 continues to acquire the distance image of the upper surface of the package from step S60 during tracking the package (step S71). Here, the distance image sensor 20 captures a distance image for each frame at a predetermined time, and the processor 34 receives the distance image for each frame, and extracts the difference between the preceding and following frames. (Step S72). Then, in the present embodiment, the difference between the load in the distance image of the latest frame and the load in the previous frame is extracted, and it is determined whether or not the load is moving in a uniform linear motion from the difference. Yes (step S73).

搬送コンベヤ50は図3の矢印X方向に動いており、荷物が搬送コンベヤ50上を搬送されている期間においては、荷物も矢印X方向に等速直線運度するはずである。すなわち、荷物は矢印X方向に等速直線運動した状態で撮像されるため、前後するフレームから荷物の等速直線運動を検出することは可能である。プロセッサ34は、差分が等速直線運動であると判定した場合(ステップS73;Yes)、投影画像の生成を行う(ステップS90)。 The transport conveyor 50 is moving in the direction of arrow X in FIG. 3, and during the period when the load is being transported on the transport conveyor 50, the load should also move at a constant linear velocity in the direction of arrow X. That is, since the luggage is imaged in the state of linear uniform motion in the arrow X direction, it is possible to detect the uniform linear motion of the luggage from the front and rear frames. When the processor 34 determines that the difference is a constant-velocity linear motion (step S73; Yes), the processor 34 generates a projection image (step S90).

一方、プロセッサ34は、差分が等速直線運動でないと判定した場合(ステップS73;No)、荷物が作業者によって搬送コンベヤ50から拾い上げられたと判定する(ステップS74)。もちろん、差分が等速直線運動でないと判定した後、荷物の距離画像を追跡し、荷物が搬送コンベヤ50から離れたことを検出して、荷物が作業者によって拾い上げられたと判定してもよい。 On the other hand, when the processor 34 determines that the difference is not the constant-velocity linear motion (step S73; No), it determines that the parcel has been picked up by the worker from the transport conveyor 50 (step S74). Of course, after it is determined that the difference is not the uniform velocity linear motion, the distance image of the package may be tracked, and it may be determined that the package has been separated from the transport conveyor 50, and it may be determined that the package has been picked up by the operator.

図8におけるステップS101およびステップS102は、図4のステップS100に相当する。荷物が拾い上げられたと判定したら(ステップS74)、プロセッサ34は、改めて荷物の上面の位置を特定する(ステップS101)。そしてプロセッサ34は、予めメモリ36に記録されている荷物に関する詳細情報を読み出す(ステップS102)。詳細情報には種々の情報が含まれるが、ここでは、作業者が荷物を積み込むにあたって有益な情報であり、例えば配送先の町名よりさらに下層の番地レベルのような配送先の詳細情報が該当する。読み出された詳細情報はステップS90において投影画像に含められるため、作業者の仕分けの利便性が向上する。すなわち詳細情報は、荷物特定情報に対応して、荷物を配置すべき位置の情報を含むものである。 Step S101 and step S102 in FIG. 8 correspond to step S100 in FIG. When it is determined that the package has been picked up (step S74), the processor 34 specifies the position of the upper surface of the package again (step S101). Then, the processor 34 reads out detailed information regarding the package, which is recorded in the memory 36 in advance (step S102). Various information is included in the detailed information, but here, it is useful information when the worker loads the package, and for example, detailed information of the delivery destination such as the street level lower than the town name of the delivery destination is applicable. .. Since the read detailed information is included in the projection image in step S90, the convenience of the operator's sorting is improved. That is, the detailed information includes information on the position where the package should be placed, corresponding to the package identification information.

特に詳細情報は、作業者が荷物をどの位置へ仮り置きすべきかを示す情報を含むものであってよい。例えば、作業者がトラックの荷台に荷物を置く前に足元に荷物を場合は、足元で荷物を置くべき場所の位置情報や、作業者がトラックの荷台に直接荷物を置く場合は、荷台の中の荷物を置くべき場所の特定位置の情報等を含ませることもできる。 In particular, the detailed information may include information indicating to which position the worker should temporarily put the luggage. For example, if the worker loads the luggage at his/her feet before placing it on the truck bed, the location information of where the luggage should be placed at the feet, or if the operator places the luggage directly on the truck bed, It is also possible to include information on a specific position of the place where the luggage of the user should be placed.

詳細情報は、ラベルリーダ10が荷物のラベルから読み込み、メモリ36が記録してもよいが、特にその取得方法は限定されず、別の記録場所からネットワークを経由して取得してもよい。 The detailed information may be read from the label of the parcel by the label reader 10 and recorded in the memory 36, but the acquisition method is not particularly limited, and may be acquired from another recording location via the network.

尚、本実施形態においては荷物の画像を追跡することにより、荷物が拾い上げられたか否かの判定を行うことにしているが、他の例としては行動分析技術を適用することも可能である。すなわち、作業者の荷物への接触や、荷物の持ち上げ、持ち去り等の行動にまつわる動作パターンを予めメモリ36等に記録しておき、プロセッサ34がそのような動作パターンと類似の作業者の動作を検出した場合荷物が拾い上げられたと判定することも可能である。また、荷物の一部が図5に示す処理対象空間Sから外に出た場合には荷物が拾い上げられたと判定することも可能である。 It should be noted that in the present embodiment, it is determined whether or not the package is picked up by tracking the image of the package, but as another example, the behavior analysis technique can be applied. That is, an operation pattern related to an action such as a worker's contact with a baggage, a lifting of a baggage, a carry-out, and the like is recorded in advance in the memory 36 or the like, and the processor 34 recognizes an operation of a worker similar to such an operation pattern. If detected, it is possible to determine that the parcel has been picked up. It is also possible to determine that the package has been picked up when a part of the package goes out of the processing target space S shown in FIG.

尚、本実施形態においては、投影指示装置30は、例えば図5に示す処理対象空間Sから外に出た荷物をも追跡して投影画像を投影する。このような態様を実施する際には、上述した通り、図5〜図7の処理、特に図6のステップS24における処理は行わず、図6の動作は実質的行われないことになり、基本的に総ての距離画像の座標点が処理対象となる。例えばプロセッサ34の処理負担を考慮して、図5〜図7の処理、特にステップS24の判定処理を行う場合、搬送コンベヤ50から拾い上げられた荷物は処理対象から基本的に外されるため、ステップS100〜S102は実施されないことになる。むろん、このような事実はステップS100〜S102の処理の思想を否定するものではなく、ステップS100〜S102の処理によって、詳細情報による積み込み作業の効率向上という、図5〜図7、ステップS24の作用効果とは独立した作用効果が得られる。逆の観点からは、ステップS100〜S102の実施形態を適用するためには、図5〜図7、ステップS24の動作はステップS20において原則的に行われないことになるが、もちろんこれによって、図5〜図7、ステップS24の思想が否定されるわけではない。 In the present embodiment, the projection instructing device 30 also projects the projected image by tracking, for example, the parcel that has gone out of the processing target space S shown in FIG. When carrying out such an aspect, as described above, the processing of FIGS. 5 to 7, particularly the processing of step S24 of FIG. 6 is not performed, and the operation of FIG. 6 is not substantially performed. Coordinate points of all distance images are targeted for processing. For example, in consideration of the processing load of the processor 34, when the processing of FIGS. 5 to 7, particularly the determination processing of step S24, is performed, the package picked up from the transport conveyor 50 is basically removed from the processing target. S100 to S102 will not be performed. Of course, such a fact does not deny the idea of the processing of steps S100 to S102, and the processing of steps S100 to S102 improves the efficiency of the loading operation based on the detailed information. An effect that is independent of the effect is obtained. From the opposite point of view, in order to apply the embodiment of steps S100 to S102, the operations of FIGS. 5 to 7 and step S24 would not be performed in principle in step S20, but of course, 5 to FIG. 7, the idea of step S24 is not denied.

本実施形態によれば、作業者は、荷物を拾い上げるべきか否かのみならず、詳細情報を参照して荷物に関してさらに詳細な属性を把握でき、荷物の仕分け、荷物の積載の効率を向上させることができる。ただし、本実施形態の様な詳細情報の付与は、他の実施形態の実施にあたっては必須ではない。 According to the present embodiment, the operator can grasp more detailed attributes of the package by referring to the detailed information as well as whether or not the package should be picked up, and improve the efficiency of sorting the package and loading the package. be able to. However, the addition of detailed information as in the present embodiment is not essential for implementing other embodiments.

尚、上述の実施形態においては、距離画像センサ20が距離画像を取得し、投影指示装置30がこの距離画像を処理して投影画像を生成している。しかしながら、取得する画像は距離画像に必ずしも限定されるわけではなく、処理の種類によっては、距離情報を含まない2次元の画像を処理対象にしてもよい。よって、距離画像センサ20が2次元の画像を取得する画像センサであってもよく、投影指示装置30は処理負担の軽い2次元の画像を処理することできる。 In the above embodiment, the distance image sensor 20 acquires the distance image, and the projection instructing device 30 processes the distance image to generate the projection image. However, the image to be acquired is not necessarily limited to the distance image, and a two-dimensional image that does not include distance information may be the processing target depending on the type of processing. Therefore, the distance image sensor 20 may be an image sensor that acquires a two-dimensional image, and the projection instructing device 30 can process a two-dimensional image with a light processing load.

[本実施形態のまとめ]
以上により、本実施形態の投影指示装置30は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置30であって、プロセッサ34と、メモリ36と、を備え、プロセッサ34は、メモリ36と協働して、画像を取得した時刻に対応する第1の時刻情報を取得し、荷物に投影する投影画像を生成し、投影画像を生成した時刻に対応する第2の時刻情報を取得し、第1の時刻情報および第2の時刻情報の差分に基づき、投影画像を投影する位置を算出する。
[Summary of this embodiment]
As described above, the projection instructing device 30 of the present embodiment is a projection instructing device 30 that generates a projection image to be projected onto the package based on the image including the package and the package identification information that identifies the package in the image. The processor 34 and the memory 36 are provided, and the processor 34 cooperates with the memory 36 to acquire the first time information corresponding to the time when the image is acquired, and to generate the projection image to be projected on the luggage. The second time information corresponding to the time when the projection image is generated is acquired, and the position at which the projection image is projected is calculated based on the difference between the first time information and the second time information.

これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を取得することができる。この結果、プロジェクタ40が、荷物の動きに沿ってより正確に投影画像を投影することが可能になり、人間の目から見ても画像の投影が滑らかに見えるようになる。 As a result, the projection instruction device 30 can acquire the projection position of the baggage on which the projection image should be originally projected. As a result, the projector 40 can more accurately project the projection image along the movement of the luggage, and the projection of the image can be seen smoothly by human eyes.

プロセッサ34は、さらに荷物の移動速度および移動方向に基づき、投影画像を投影する位置を算出してもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The processor 34 may further calculate the position at which the projection image is projected based on the moving speed and moving direction of the luggage. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

画像は、各画素が撮像位置からの距離を示す距離情報を含む距離画像であってもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The image may be a range image including distance information indicating the distance from each pixel to the image capturing position. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

本実施形態の荷物仕分けシステム100は、上述の投影指示装置30と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダ10と、画像を取得する画像センサ20と、投影画像を荷物に投影するプロジェクタ40と、を備える。これにより、荷物の動きに沿ってより正確に投影画像を投影することが可能になり、人間の目から見ても画像の投影が滑らかに見えるようになる。 The package sorting system 100 according to the present embodiment includes the projection instruction device 30 described above, a label reader 10 that reads package identification information from a label attached to a package, an image sensor 20 that acquires an image, and a projected image on a package. And a projector 40 that operates. As a result, it is possible to more accurately project the projection image along with the movement of the luggage, and the projection of the image can be seen smoothly by human eyes.

本実施形態の投影指示方法は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサ34がメモリ36と協働して、画像を取得した時刻に対応する第1の時刻情報を取得し、荷物に投影する投影画像を生成し、投影画像を生成した時刻に対応する第2の時刻情報を取得し、第1の時刻情報および第2の時刻情報の差分に基づき、投影画像を投影する位置を算出する。 The projection instructing method of the present embodiment is a projection instructing method for generating a projection image to be projected on a package based on an image including the package and package identification information for identifying the package in the image, and the processor 34 is a memory 36. In cooperation with the first time information corresponding to the time when the image is acquired, generating a projection image to be projected on the package, and acquiring second time information corresponding to the time when the projection image is generated. , The position at which the projection image is projected is calculated based on the difference between the first time information and the second time information.

これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を取得することができる。この結果、プロジェクタ40が、荷物の動きに沿ってより正確に投影画像を投影することが可能になり、人間の目から見ても画像の投影が滑らかに見えるようになる。 As a result, the projection instruction device 30 can acquire the projection position of the baggage on which the projected image should be projected. As a result, the projector 40 can more accurately project the projection image along with the movement of the luggage, and the projection of the image can be seen smoothly by human eyes.

以上により、本実施形態の投影指示装置30は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置30であって、プロセッサ34と、メモリ36と、を備え、プロセッサ34は、メモリ36と協働して、画像内の荷物の画像に基づき、荷物が拾い上げられた否かを判定し、荷物が拾い上げられたと判定した場合、荷物の詳細情報を含む投影画像を生成する。 As described above, the projection instructing device 30 of the present embodiment is a projection instructing device 30 that generates a projection image to be projected onto the package based on the image including the package and the package identification information that identifies the package in the image. The processor 34 and the memory 36 are provided, and the processor 34 cooperates with the memory 36 to determine whether the package is picked up based on the image of the package in the image, and determines that the package is picked up. In this case, a projection image including detailed information about the package is generated.

これにより、作業者は、荷物を拾い上げるべきか否かのみならず、詳細情報を参照して荷物に関してさらに詳細な属性を把握でき、荷物の仕分け、荷物の積載の効率を向上させることができる。 As a result, the worker can grasp more detailed attributes of the package by referring to the detailed information as well as whether or not the package should be picked up, and can improve the efficiency of sorting the package and loading the package.

詳細情報は、荷物特定情報に対応して、荷物を配置すべき位置の情報を含むものであってよい。これにより、作業者は、荷物を円滑に適正な位置に配置することができ、荷物の仕分け、荷物の積載の効率を向上させることができる。 The detailed information may include information on the position where the package should be placed, corresponding to the package identification information. As a result, the worker can smoothly arrange the loads at appropriate positions, and can improve the efficiency of sorting the loads and loading the loads.

詳細情報は、荷物を拾い上げる作業者の近傍で、荷物を配置すべき位置の情報を含むものであってよい。これにより、作業者は、荷物を円滑に適正な位置に配置することができ、荷物の仕分け、荷物の積載の効率を向上させることができる。 The detailed information may include information on a position where the package should be placed near the worker who picks up the package. As a result, the worker can smoothly arrange the loads at appropriate positions, and can improve the efficiency of sorting the loads and loading the loads.

配置位置は、荷物を積み込むトラックの荷台の特定位置の情報を含むものであってよい。これにより、作業者は、荷物を円滑に適正な位置に配置することができ、荷物の仕分け、荷物の積載の効率を向上させることができる。 The placement position may include information on a specific position of the bed of the truck for loading the load. As a result, the worker can smoothly arrange the loads at appropriate positions, and can improve the efficiency of sorting the loads and loading the loads.

画像は、各画素が撮像位置からの距離を示す距離情報を含む距離画像であってもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The image may be a range image including distance information indicating the distance from each pixel to the image capturing position. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

本実施形態の荷物仕分けシステム100は、上述の投影指示装置30と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダ10と、画像を取得する画像センサ20と、投影画像を荷物に投影するプロジェクタ40と、を備える。これにより、作業者は、荷物を拾い上げるべきか否かのみならず、詳細情報を参照して荷物に関してさらに詳細な属性を把握でき、荷物の仕分け、荷物の積載の効率を向上させることができる。 The package sorting system 100 according to the present embodiment includes the projection instruction device 30 described above, a label reader 10 that reads package identification information from a label attached to a package, an image sensor 20 that acquires an image, and a projected image on a package. And a projector 40 that operates. As a result, the worker can grasp more detailed attributes of the package by referring to the detailed information as well as whether or not the package should be picked up, and can improve the efficiency of sorting the package and loading the package.

本実施形態の投影指示方法は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサがメモリと協働して、画像内の荷物の画像に基づき、荷物が拾い上げられた否かを判定し、荷物が拾い上げられたと判定した場合、荷物の詳細情報を含む投影画像を生成する。 The projection instruction method according to the present embodiment is a projection instruction method for generating a projection image to be projected on a package based on an image including the package and package identification information for identifying the package in the image. When the package is picked up, it is determined whether the package is picked up based on the image of the package in the image, and when it is determined that the package is picked up, a projection image including detailed information of the package is generated.

これにより、作業者は、荷物を拾い上げるべきか否かのみならず、詳細情報を参照して荷物に関してさらに詳細な属性を把握でき、荷物の仕分け、荷物の積載の効率を向上させることができる。 As a result, the worker can grasp more detailed attributes of the package by referring to the detailed information as well as whether or not the package should be picked up, and can improve the efficiency of sorting the package and loading the package.

以上により、本実施形態の投影指示装置30は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物の位置を特定する投影指示装置30であって、プロセッサ34と、メモリ36と、を備え、プロセッサ34は、メモリ36と協働して、画像の各画素が、荷物が存在すべき処理対象空間Sに含まれる画素であるか否かを、各画素の座標に基づき判定し、処理対象空間Sに含まれる画素のみを処理すべき処理点とみなして、メモリ36に登録し、登録された処理点に基づき荷物の画像を取得し、当該荷物の位置を特定する。 As described above, the projection instruction device 30 according to the present embodiment is the projection instruction device 30 that specifies the position of the package based on the image including the package and the package identification information that identifies the package in the image. , A memory 36, and the processor 34, in cooperation with the memory 36, determines whether or not each pixel of the image is a pixel included in the processing target space S in which the package should exist, the coordinates of each pixel. Based on the above, the pixels included in the processing target space S are regarded as processing points to be processed, registered in the memory 36, the image of the package is acquired based on the registered processing points, and the position of the package is specified. To do.

これにより、プロセッサ34が処理すべき処理対象空間Sを限定し、処理対象を減らすことができ、結果的に荷物の仕分けをより効率的かつ正確に行うことが可能となる。 As a result, the processing target space S to be processed by the processor 34 can be limited, the processing target can be reduced, and as a result, the packages can be sorted more efficiently and accurately.

処理対象空間Sが、画像中における荷物を搬送する搬送コンベヤから所定の高さまでの範囲で区画された空間であってもよい。これにより、プロセッサ34が処理すべき処理対象空間Sをさらに限定し、処理対象をさらに減らすことができる。
投影指示装置。
The processing target space S may be a space that is partitioned in a range from a transport conveyor that transports parcels in the image to a predetermined height. As a result, it is possible to further limit the processing target space S to be processed by the processor 34 and further reduce the processing target.
Projection instruction device.

処理対象空間Sが、画像中における搬送コンベヤの搬送方向における所定の長さの範囲で区画された空間であってもよい。これにより、プロセッサ34が処理すべき処理対象空間Sをさらに限定し、処理対象をさらに減らすことができる。 The processing target space S may be a space partitioned into a range of a predetermined length in the transport direction of the transport conveyor in the image. As a result, it is possible to further limit the processing target space S to be processed by the processor 34 and further reduce the processing target.

処理対象空間Sが、画像中における搬送コンベヤの搬送方向における所定の幅の範囲で区画された空間であってもよい。これにより、プロセッサ34が処理すべき処理対象空間Sをさらに限定し、処理対象をさらに減らすことができる。 The processing target space S may be a space divided into a range of a predetermined width in the transport direction of the transport conveyor in the image. As a result, it is possible to further limit the processing target space S to be processed by the processor 34 and further reduce the processing target.

上述したように、処理対象空間Sは画像中における搬送コンベヤに基づいて区画された空間であることが好ましい。 As described above, the processing target space S is preferably a space partitioned based on the transport conveyor in the image.

画像は、各画素が撮像位置からの距離を示す距離情報を含む距離画像であってもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The image may be a range image including distance information indicating the distance from each pixel to the image capturing position. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

プロセッサ34は、荷物に投影する投影画像を生成する。これにより、荷物の仕分けをより効率的かつ正確に行うことが可能となる。 The processor 34 produces|generates the projection image projected on a parcel. This makes it possible to sort the packages more efficiently and accurately.

本実施形態の荷物仕分けシステム100は、上述の投影指示装置30と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダ10と、画像を取得する画像センサ20と、投影画像を荷物に投影するプロジェクタ40と、を備える。これにより、プロセッサ34が処理すべき処理対象空間を限定し、処理対象を減らすことができ、結果的に荷物の仕分けをより効率的かつ正確に行うことが可能となる。 The package sorting system 100 according to the present embodiment includes the projection instruction device 30, the label reader 10 that reads package identification information from a label attached to a package, an image sensor 20 that acquires an image, and a projected image on a package. And a projector 40 that operates. As a result, the processing target space to be processed by the processor 34 can be limited, the processing target can be reduced, and as a result, the packages can be sorted more efficiently and accurately.

本実施形態の投影指示方法は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物の位置を特定する投影指示装置であって、プロセッサ34がメモリ36と協働して、画像の各画素が、荷物が存在すべき処理対象空間に含まれる画素であるか否かを、各画素の座標に基づき判定し、処理対象空間に含まれる画素のみを処理すべき処理点とみなして、メモリ36に登録し、登録された処理点に基づき荷物の画像を取得し、当該荷物の位置を特定する。 The projection instruction method according to the present embodiment is a projection instruction device that specifies the position of a package based on an image including the package and package identification information that identifies the package in the image. The processor 34 cooperates with the memory 36. Then, it is determined whether or not each pixel of the image is a pixel included in the processing target space in which the package should be present, based on the coordinates of each pixel, and only the pixel included in the processing target space is processed. It is regarded as a point, registered in the memory 36, an image of the package is acquired based on the registered processing point, and the position of the package is specified.

これにより、プロセッサ34が処理すべき処理対象空間を限定し、処理対象を減らすことができ、結果的に荷物の仕分けをより効率的かつ正確に行うことが可能となる。 As a result, the processing target space to be processed by the processor 34 can be limited, the processing target can be reduced, and as a result, the packages can be sorted more efficiently and accurately.

以上により、本実施形態の投影指示装置30は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置30であって、プロセッサ34と、メモリ36と、を備え、プロセッサ34は、メモリ36と協働して、荷物を含む画像から当該荷物の画像を特定し、当該荷物の特定の面を抽出し、特定の面に投影する投影画像を生成する。 As described above, the projection instructing device 30 of the present embodiment is a projection instructing device 30 that generates a projection image to be projected onto the package based on the image including the package and the package identification information that identifies the package in the image. The processor 34 and the memory 36 are provided, and the processor 34 cooperates with the memory 36 to identify the image of the package from the image including the package, extract a specific surface of the package, and extract the specific surface of the package. Generate a projected image for projection.

これにより、投影画像を投影すべき投影面を抽出することになり、プロセッサ34は、荷物の全体を表示する距離画像に対する処理を行う必要がなくなり、処理負荷が軽減される。 As a result, the projection plane on which the projection image should be projected is extracted, and the processor 34 does not need to perform processing on the distance image that displays the entire package, and the processing load is reduced.

荷物が略直方体形状を有する場合、特定の面が荷物の上面であってもよい。これにより、作業者にとって投影画像が見やすくなる。 When the luggage has a substantially rectangular parallelepiped shape, the specific surface may be the top surface of the luggage. This makes it easier for the operator to see the projected image.

荷物が略直方体形状を有する場合、特定の面が荷物の一つの側面であってもよい。これにより、作業者にとって投影画像が見やすくなる。 When the luggage has a substantially rectangular parallelepiped shape, the specific surface may be one side surface of the luggage. This makes it easier for the operator to see the projected image.

画像は、各画素が撮像位置からの距離を示す距離情報を含む距離画像であってもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The image may be a range image including distance information indicating the distance from each pixel to the image capturing position. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

本実施形態の荷物仕分けシステム100は、上述の投影指示装置30と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダ10と、画像を取得する画像センサ20と、投影画像を荷物に投影するプロジェクタ40と、を備える。これにより、投影画像を投影すべき投影面を抽出することになり、プロセッサ34は、荷物の全体を表示する距離画像に対する処理を行う必要がなくなり、処理負荷が軽減される。 The package sorting system 100 according to the present embodiment includes the projection instruction device 30 described above, a label reader 10 that reads package identification information from a label attached to a package, an image sensor 20 that acquires an image, and a projected image on a package. And a projector 40 that operates. As a result, the projection plane on which the projection image should be projected is extracted, and the processor 34 does not need to perform processing on the distance image that displays the entire package, and the processing load is reduced.

本実施形態の投影指示方法は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサ34がメモリ36と協働して、荷物を含む画像から、当該荷物の画像を抽出し、当該荷物の特定の面を特定し、特定の面のみに基づき、特定の面に投影する投影画像を生成する。 The projection instructing method of the present embodiment is a projection instructing method for generating a projection image to be projected on a package based on an image including the package and package identification information for identifying the package in the image, and the processor 34 is a memory 36. In cooperation with, the image of the parcel is extracted from the image including the parcel, a specific surface of the parcel is specified, and a projection image that is projected on the specific surface is generated based on only the specific surface.

これにより、投影画像を投影すべき投影面を抽出することになり、プロセッサ34は、荷物の全体を表示する距離画像に対する処理を行う必要がなくなり、処理負荷が軽減される。 As a result, the projection plane on which the projection image should be projected is extracted, and the processor 34 does not need to perform processing on the distance image that displays the entire package, and the processing load is reduced.

以上により、本実施形態の投影指示装置30は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置30であって、プロセッサ34と、メモリ36と、を備え、プロセッサ34は、メモリ36と協働して、荷物特定情報に基づき、荷物を拾い上げる方向を判定し、拾い上げる方向に対応した矢印を含む投影画像を生成する。 As described above, the projection instructing device 30 of the present embodiment is a projection instructing device 30 that generates a projection image to be projected onto the package based on the image including the package and the package identification information that identifies the package in the image. A processor 34 and a memory 36 are provided, and the processor 34 cooperates with the memory 36 to determine a pickup direction of the package based on the package identification information, and generates a projection image including an arrow corresponding to the pickup direction. ..

これにより、作業者が、自らが拾い上げるべき荷物を識別しやすい投影画像を生成することができ、仕分け作業のミスを抑制するとともに、効率を向上させることもできる。 This makes it possible for the worker to generate a projection image that makes it easy for the operator to identify the luggage to be picked up, and it is possible to suppress errors in sorting work and improve efficiency.

プロセッサ34は、拾い上げる方向に対応して、予め用意された矢印のテンプレート画像を選択し、矢印を含む投影画像を生成してもよい。これにより、矢印を容易に生成することができる。 The processor 34 may select a template image of an arrow prepared in advance corresponding to the picking-up direction and generate a projection image including the arrow. Thereby, the arrow can be easily generated.

プロセッサ34は、拾い上げる方向に対応して、予め用意された回転可能な矢印の画像を回転させ、矢印を含む投影画像を生成してもよい。これにより、矢印を容易に生成することができる。 The processor 34 may rotate the image of the rotatable arrow prepared in advance in accordance with the picking-up direction to generate a projection image including the arrow. Thereby, the arrow can be easily generated.

プロセッサ34は、投影画像を投影する面の大きさに応じて、矢印の大きさを変化させる。これにより、適切な大きさの矢印を生成することができる。 The processor 34 changes the size of the arrow according to the size of the surface on which the projection image is projected. This makes it possible to generate an arrow having an appropriate size.

画像は、各画素が撮像位置からの距離を示す距離情報であってもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The image may be distance information indicating the distance of each pixel from the imaging position. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

本実施形態の荷物仕分けシステム100は、上述の投影指示装置30と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダ10と、画像を取得する画像センサ20と、投影画像を荷物に投影するプロジェクタ40と、を備える。これにより、作業者が、自らが拾い上げるべき荷物を識別しやすい投影画像を生成することができ、仕分け作業のミスを抑制するとともに、効率を向上させることもできる。 The package sorting system 100 according to the present embodiment includes the projection instruction device 30 described above, a label reader 10 that reads package identification information from a label attached to a package, an image sensor 20 that acquires an image, and a projected image on a package. And a projector 40 that operates. This makes it possible for the worker to generate a projection image that makes it easy for the worker to identify the luggage to be picked up, and it is possible to suppress errors in sorting work and improve efficiency.

本実施形態の投影指示方法は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、プロセッサ34がメモリ36と協働して、荷物特定情報に基づき、荷物を拾い上げる方向を判定し、拾い上げる方向に対応した矢印を含む投影画像を生成する。 The projection instructing method of the present embodiment is a projection instructing method for generating a projection image to be projected on a package based on an image including the package and package identification information for identifying the package in the image. In cooperation with the above, the pickup direction is determined based on the luggage identification information, and a projection image including an arrow corresponding to the pickup direction is generated.

これにより、投影画像を投影すべき投影面を抽出することになり、プロセッサ34は、荷物の全体を表示する距離画像に対する処理を行う必要がなくなり、処理負荷が軽減される。 As a result, the projection plane on which the projection image should be projected is extracted, and the processor 34 does not need to perform processing on the distance image that displays the entire package, and the processing load is reduced.

以上により、本実施形態の投影指示装置30は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示装置30であって、プロセッサ34と、メモリ36と、を備え、プロセッサ34は、メモリ35と協働して、荷物特定情報に基づき、特定の方向に荷物を拾い上げるべき特定領域を判定し、荷物が特定領域に存在する場合にのみ、投影画像を投影すべき投影条件情報を生成する。 As described above, the projection instructing device 30 of the present embodiment is a projection instructing device 30 that generates a projection image to be projected onto the package based on the image including the package and the package identification information that identifies the package in the image. The processor 34 and the memory 36 are provided, and the processor 34 cooperates with the memory 35 to determine a specific area in which the package should be picked up in a specific direction based on the package identification information, and the package exists in the specific area. Only in this case, the projection condition information for projecting the projection image is generated.

これにより、個々の作業者が拾い上げなくてはならない荷物に対してのみ投影を行うことにより、作業者が自ら拾い上げる荷物を特定することが容易になる。また、投影画像のパターン数を最小限に抑えることが可能となる。 This makes it easy for the worker to specify the load to be picked up by projecting only to the load that the individual worker must pick up. In addition, it is possible to minimize the number of patterns of the projected image.

特定領域が、搬送コンベヤの搬送方向における特定長さで区画された領域であってもよい。これにより、個々の作業者が拾い上げなくてはならない荷物に対してのみ投影を行うことにより、作業者が自ら拾い上げる荷物を特定することが容易になる。 The specific region may be a region partitioned by a specific length in the transport direction of the transport conveyor. This makes it easy for the worker to specify the load to be picked up by projecting only to the load that the individual worker must pick up.

画像は、各画素が撮像位置からの距離を示す距離情報を含む距離画像であってもよい。これにより、投影指示装置30は、本来投影画像を投影すべき荷物の投影位置を正確に取得することができる。 The image may be a range image including distance information indicating the distance from each pixel to the image capturing position. As a result, the projection instruction device 30 can accurately acquire the projection position of the baggage on which the projection image should be originally projected.

本実施形態の荷物仕分けシステム100は、上述の投影指示装置30と、荷物に貼付されたラベルから荷物特定情報を読み取るラベルリーダ10と、画像を取得する画像センサ20と、投影画像を荷物に投影するプロジェクタ40と、を備える。これにより、個々の作業者が拾い上げなくてはならない荷物に対してのみ投影を行うことにより、作業者が自ら拾い上げる荷物を特定することが容易になる。 The package sorting system 100 according to the present embodiment includes the projection instruction device 30 described above, a label reader 10 that reads package identification information from a label attached to a package, an image sensor 20 that acquires an image, and a projected image on a package. And a projector 40 that operates. This makes it easy for the worker to specify the load to be picked up by projecting only to the load that the individual worker must pick up.

本実施形態の投影指示方法は、荷物を含む画像および当該画像内の荷物を特定する荷物特定情報に基づき、当該荷物に投影する投影画像を生成する投影指示方法であって、
プロセッサ34がメモリ36と協働して、荷物特定情報に基づき、特定の方向に荷物を拾い上げるべき特定領域を判定し、荷物が特定領域に存在する場合にのみ、投影画像を投影すべき投影条件情報を生成する。
The projection instruction method according to the present embodiment is a projection instruction method for generating a projection image to be projected on a package based on an image including the package and package identification information for identifying the package in the image,
The processor 34 cooperates with the memory 36 to determine a specific region in which the package should be picked up in a specific direction based on the package identification information, and the projection condition for projecting the projection image only when the package is in the specific region Generate information.

これにより、個々の作業者が拾い上げなくてはならない荷物に対してのみ投影を行うことにより、作業者が自ら拾い上げる荷物を特定することが容易になる。また、投影画像のパターン数を最小限に抑えることが可能となる。 This makes it easy for the worker to specify the load to be picked up by projecting only to the load that the individual worker must pick up. In addition, it is possible to minimize the number of patterns of the projected image.

以上、図面を参照して本開示に係る取引処理システムの実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although the embodiment of the transaction processing system according to the present disclosure has been described above with reference to the drawings, the present disclosure is not limited to such an example. It is obvious to those skilled in the art that various modification examples, modification examples, substitution examples, addition examples, deletion examples, and equivalent examples can be conceived within the scope of the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

本開示は、貨物または荷台付きの貨物の寸法を適切に測定し得る寸法測定装置および寸法測定方法として有用である。 The present disclosure is useful as a size measuring device and a size measuring method capable of appropriately measuring the size of a cargo or a cargo with a cargo bed.

10 ラベルリーダ
20 距離画像センサ(画像センサ)
30 投影指示装置
32 入力部
34 プロセッサ
36 メモリ
38 出力部
40 プロジェクタ
50 搬送コンベヤ
60 撮像投影装置
100 荷物仕分けシステム
P 荷物
10 Label Reader 20 Distance Image Sensor (Image Sensor)
30 Projection Instructing Device 32 Input Unit 34 Processor 36 Memory 38 Output Unit 40 Projector 50 Conveyor Conveyor 60 Imaging Projection Device 100 Package Sorting System P Package

Claims (4)

プロセッサと、
メモリと、を備え、
前記プロセッサは、前記メモリと協働して、
荷物のラベルに基づいて、前記荷物の荷物特定情報を特定し、
前記荷物のセンシング情報と前記荷物特定情報に基づいて投影画像を生成し、
前記荷物のセンシング情報から得られる3次元座標に基づいて前記荷物の形状を特定し、
前記荷物の形状に基づいて当該荷物の特定の面を抽出し、
前記特定の面に前記投影画像を投影させる、投影指示装置。
A processor,
With memory,
The processor, in cooperation with the memory,
Based on the label of the package, identify the package identification information of the package,
Generate a projection image based on the luggage sensing information and the luggage identification information,
The shape of the package is specified based on the three-dimensional coordinates obtained from the sensing information of the package,
Extracting a specific surface of the package based on the shape of the package,
A projection instructing device for projecting the projection image on the specific surface.
請求項1に記載の投影指示装置であって、
前記プロセッサは、前記特定の面に基づいて前記投影画像の大きさを調整する、投影指示装置。
The projection instruction apparatus according to claim 1, wherein
The projection instruction apparatus, wherein the processor adjusts the size of the projection image based on the specific surface.
請求項1に記載の投影指示装置であって、
前記荷物は搬送されてくる荷物である、投影指示装置。
The projection instruction apparatus according to claim 1, wherein
A projection instructing device, wherein the package is a package to be transported.
プロセッサがメモリと協働して、
荷物のラベルに基づいて、前記荷物の荷物特定情報を特定し、
前記荷物のセンシング情報と前記荷物特定情報に基づいて投影画像を生成し、
前記荷物のセンシング情報から得られる3次元座標に基づいて前記荷物の形状を特定し、
前記荷物の形状に基づいて当該荷物の特定の面を抽出し、
前記特定の面に前記投影画像を投影させる、投影指示方法。
The processor cooperates with the memory,
Based on the label of the package, identify the package identification information of the package,
Generate a projection image based on the luggage sensing information and the luggage identification information,
The shape of the package is specified based on the three-dimensional coordinates obtained from the sensing information of the package,
Extracting a specific surface of the package based on the shape of the package,
A projection instruction method for projecting the projection image on the specific surface.
JP2020029628A 2020-02-25 2020-02-25 Projection instruction device, goods assort system and projection instruction method Pending JP2020114778A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020029628A JP2020114778A (en) 2020-02-25 2020-02-25 Projection instruction device, goods assort system and projection instruction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020029628A JP2020114778A (en) 2020-02-25 2020-02-25 Projection instruction device, goods assort system and projection instruction method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016059267A Division JP2017171444A (en) 2016-03-23 2016-03-23 Projection instruction apparatus, package sorting system, and projection instruction method

Publications (1)

Publication Number Publication Date
JP2020114778A true JP2020114778A (en) 2020-07-30

Family

ID=71778351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020029628A Pending JP2020114778A (en) 2020-02-25 2020-02-25 Projection instruction device, goods assort system and projection instruction method

Country Status (1)

Country Link
JP (1) JP2020114778A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019300A (en) * 2022-08-09 2022-09-06 成都运荔枝科技有限公司 Method for automated warehouse cargo identification
KR102822833B1 (en) * 2024-10-02 2025-06-25 주식회사 브릴스 A system for conveying and automatically palletizing goods

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080598A (en) * 2002-08-21 2004-03-11 Canon Inc Image projection apparatus and method, and image projection system
US7090134B2 (en) * 2003-03-04 2006-08-15 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
JP2008048377A (en) * 2006-07-18 2008-02-28 Fuji Xerox Co Ltd Remote instruction system and program for remote instruction system
WO2015145982A1 (en) * 2014-03-28 2015-10-01 日本電気株式会社 Information processing device, information processing system, distribution system, information processing method, and program storage medium
WO2015145599A1 (en) * 2014-03-26 2015-10-01 日立マクセル株式会社 Video projection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080598A (en) * 2002-08-21 2004-03-11 Canon Inc Image projection apparatus and method, and image projection system
US7090134B2 (en) * 2003-03-04 2006-08-15 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
JP2008048377A (en) * 2006-07-18 2008-02-28 Fuji Xerox Co Ltd Remote instruction system and program for remote instruction system
WO2015145599A1 (en) * 2014-03-26 2015-10-01 日立マクセル株式会社 Video projection device
WO2015145982A1 (en) * 2014-03-28 2015-10-01 日本電気株式会社 Information processing device, information processing system, distribution system, information processing method, and program storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019300A (en) * 2022-08-09 2022-09-06 成都运荔枝科技有限公司 Method for automated warehouse cargo identification
KR102822833B1 (en) * 2024-10-02 2025-06-25 주식회사 브릴스 A system for conveying and automatically palletizing goods

Similar Documents

Publication Publication Date Title
JP6646854B2 (en) Projection instruction device, luggage sorting system and projection instruction method
JP6590153B2 (en) Projection instruction apparatus, package sorting system, and projection instruction method
JP6646853B2 (en) Projection instruction device, luggage sorting system and projection instruction method
WO2017163710A1 (en) Instruction projecting device, package sorting system and instruction projecting method
US20200282429A1 (en) Package sorting system, projected instruction device, and package sorting method
JP2020114778A (en) Projection instruction device, goods assort system and projection instruction method
JP6628039B2 (en) Projection instruction device, luggage sorting system and projection instruction method
JPWO2019003687A1 (en) Projection instructing device, luggage sorting system, and projection instructing method
JP7129614B2 (en) Package Recognition Device, Package Sorting System, and Package Recognition Method
JP6628038B2 (en) Projection instruction device, luggage sorting system and projection instruction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419