[go: up one dir, main page]

JP2024546819A - Electronic device value assessment method and device and deep learning model training method - Google Patents

Electronic device value assessment method and device and deep learning model training method Download PDF

Info

Publication number
JP2024546819A
JP2024546819A JP2024535214A JP2024535214A JP2024546819A JP 2024546819 A JP2024546819 A JP 2024546819A JP 2024535214 A JP2024535214 A JP 2024535214A JP 2024535214 A JP2024535214 A JP 2024535214A JP 2024546819 A JP2024546819 A JP 2024546819A
Authority
JP
Japan
Prior art keywords
electronic device
evaluation
deep learning
image
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024535214A
Other languages
Japanese (ja)
Inventor
ヨ,ドヒョン
パク,スンホ
ド,スンジン
チ,チャンファン
Original Assignee
ミンティット カンパニー,リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220083791A external-priority patent/KR20230127121A/en
Application filed by ミンティット カンパニー,リミテッド filed Critical ミンティット カンパニー,リミテッド
Publication of JP2024546819A publication Critical patent/JP2024546819A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Finance (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Medical Informatics (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Game Theory and Decision Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Figure 2024546819000001

電子機器価値評価方法が開示される。一実施形態は、電子機器を撮影して取得された複数のイメージ及び複数のディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行い、前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定する。
【選択図】図7

Figure 2024546819000001

An electronic device value assessment method is disclosed, in which an appearance condition assessment is performed on an electronic device based on a plurality of images acquired by photographing the electronic device and a plurality of deep learning assessment models, and a value of the electronic device is determined based on a result of the appearance condition assessment and a result of an internal condition assessment of the electronic device.
[Selected figure] Figure 7

Description

下記の実施形態は、電子機器価値評価方法及び装置とディープラーニングモデルトレーニング方法に関する。 The following embodiments relate to an electronic device value assessment method and device and a deep learning model training method.

現在の中古携帯電話の買取価格を算定する方法には、運営者がクライアントの中古携帯電話を直接操作したり肉眼で確認し、運営者の判断基準に応じて中古携帯電話の価格を決定する方法と自動化評価により中古携帯電話の価格を算定する方法がある。 Current methods for calculating the purchase price of used mobile phones include one where the operator directly operates the client's used mobile phone or checks it with the naked eye and determines the price of the used mobile phone based on the operator's own criteria, and another where the price of the used mobile phone is calculated through automated evaluation.

前述した背景技術は、発明者が本明細書の開示内容を導き出す過程で保持したり習得したものであり、必ず本出願前に一般公衆に公開された公知技術とは言えない。 The above-mentioned background art was held or acquired by the inventors in the process of deriving the contents of this specification, and cannot necessarily be considered publicly known art that was disclosed to the general public prior to the filing of this application.

現在に使用されている自動化評価は、有線又は無線を介して中古携帯電話に連動アプリをインストールし、中古携帯電話の情報取得及び内部機能を自動で検査し、中古携帯電話の外観写真を評価センターに伝達し、中古携帯電話に対する評価を行うことができる。中古携帯電話の外観評価に多くの資源及び時間が費やされる。中古携帯電話の外観を迅速で正確に評価し、最適な買取相場を予測できる人工知能(artificial intelligence)価値評価システム及び方法が必要である。 Currently used automated appraisals involve installing a linked app on a used mobile phone via wired or wireless connection, automatically acquiring information about the used mobile phone and inspecting its internal functions, and sending photos of the used mobile phone's appearance to an appraisal center, which then appraises the used mobile phone. A lot of resources and time are spent on appraising the appearance of used mobile phones. There is a need for an artificial intelligence value appraisal system and method that can quickly and accurately evaluate the appearance of used mobile phones and predict the optimal purchase price.

一実施形態に係る電子機器価値評価方法は、電子機器を撮影して取得された複数のイメージ及び複数のディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行うステップと、前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定するステップとを含む。 An electronic device value evaluation method according to one embodiment includes a step of evaluating the appearance condition of the electronic device based on a plurality of images acquired by photographing the electronic device and a plurality of deep learning evaluation models, and a step of determining the value of the electronic device based on the results of the appearance condition evaluation and the results of the internal condition evaluation of the electronic device.

前記外観状態評価を行うステップは、前記ディープラーニング評価モデルを介して前記イメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定するステップと、前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定するステップとを含む。 The step of evaluating the appearance condition includes a step of generating a mask that predicts the defect state of each evaluation area of the electronic device from the image through the deep learning evaluation model, determining a grade for the defect of each evaluation area based on each of the generated masks, and determining a final grade for the appearance condition of the electronic device based on each of the determined grades.

前記評価領域それぞれの欠陥に対する等級を決定するステップは、前記ディープラーニング評価モデルのうち、第1ディープラーニング評価モデルが前記電子機器の前面が撮影されて取得された前面イメージの入力を受けた場合、前記前面イメージを介して前記前面の欠陥状態を予測した第1マスクを生成し、前記生成された第1マスクに基づいて前記前面の欠陥に対する等級を決定するステップと、前記ディープラーニング評価モデルのうち、第2ディープラーニング評価モデルが前記電子機器の後面が撮影されて取得された後面イメージの入力を受けた場合、前記後面イメージを介して前記後面の欠陥状態を予測した第2マスクを生成し、前記生成された第2マスクに基づいて前記後面の欠陥に対する等級を決定するステップと、前記ディープラーニング評価モデルのうち、第3ディープラーニング評価モデルが前記電子機器の側面が撮影されて取得された側面イメージの入力を受けた場合、前記の側面イメージを介して前記の側面のうち少なくとも1つの欠陥状態を予測した第3マスクを生成し、前記生成された第3マスクに基づいて前記の側面の欠陥に対する等級を決定するステップと、前記ディープラーニング評価モデルのうち、第4ディープラーニング評価モデルが前記電子機器の画面が撮影されて取得された画面イメージの入力を受けた場合、前記画面イメージを介して前記電子機器の画面の欠陥状態を予測した第4マスクを生成し、前記生成された第4マスクに基づいて前記電子機器の画面の欠陥に対する等級を決定するステップとを含むことができる。 The step of determining a grade for defects in each of the evaluation areas includes a step of, when a first deep learning evaluation model receives an input of a front image obtained by photographing the front of the electronic device, generating a first mask that predicts the defect state of the front through the front image, and determining a grade for the defect of the front based on the generated first mask; and, when a second deep learning evaluation model receives an input of a rear image obtained by photographing the rear of the electronic device, generating a second mask that predicts the defect state of the rear through the rear image, and determining a grade for the defect of the rear based on the generated second mask; Among the deep learning evaluation models, when a third deep learning evaluation model receives an input of a side image obtained by photographing the side of the electronic device, a step of generating a third mask that predicts a defect state of at least one of the sides through the side image, and determining a grade for the defect of the side based on the generated third mask; and among the deep learning evaluation models, when a fourth deep learning evaluation model receives an input of a screen image obtained by photographing the screen of the electronic device, a step of generating a fourth mask that predicts a defect state of the screen of the electronic device through the screen image, and determining a grade for the defect of the screen of the electronic device based on the generated fourth mask.

前記外観状態評価を行うステップは、前記電子機器の形態が変更された場合、前記ディープラーニング評価モデル以外の追加ディープラーニング評価モデルを介して前記変更された形態が撮影されて取得されたイメージから前記変更された形態の評価領域の欠陥状態を予測したマスクを生成し、前記変更された形態の評価領域の欠陥状態を予測したマスクに基づいて前記変更された形態の評価領域の欠陥に対する等級を決定するステップをさらに含むことができる。 The step of evaluating the appearance condition may further include, when the shape of the electronic device is changed, generating a mask that predicts the defect state of the evaluation area of the changed shape from an image acquired by photographing the changed shape through an additional deep learning evaluation model other than the deep learning evaluation model, and determining a grade for the defect of the evaluation area of the changed shape based on the mask that predicts the defect state of the evaluation area of the changed shape.

前記最終等級を決定するステップは、前記決定された各等級のうち最小等級を前記最終等級として決定するステップを含むことができる。 The step of determining the final grade may include a step of determining the minimum grade among the determined grades as the final grade.

前記最終等級を決定するステップは、前記決定された各等級それぞれに加重値を適用するステップと、前記角加重値が適用された等級を用いて前記最終等級を決定するステップとを含むことができる。 The step of determining the final grade may include the steps of applying a weighting value to each of the determined grades, and determining the final grade using the grade to which the angular weighting value has been applied.

前記価値を決定するステップは、前記外観状態評価の結果に基づいて第1金額を決定し、前記内部状態評価の結果に基づいて第2金額を決定するステップと、前記電子機器の基準価格から前記決定された第1金額と前記決定された第2金額を差し引いて前記電子機器の価格を算出するステップとを含むことができる。 The step of determining the value may include a step of determining a first amount based on the results of the appearance condition evaluation, a step of determining a second amount based on the results of the interior condition evaluation, and a step of calculating a price of the electronic device by subtracting the determined first amount and the determined second amount from a base price of the electronic device.

前記欠陥状態は、前記評価領域それぞれの欠陥位置、前記欠陥種類、及び前記欠陥程度のうち少なくとも1つを含むことができる。 The defect state may include at least one of the defect position, the defect type, and the defect severity of each of the evaluation areas.

電子機器価値評価方法は、前記イメージそれぞれに欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断するステップと、前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行うステップとをさらに含むことができる。 The electronic device value assessment method may further include a step of determining whether each of the images contains one or more objects that are erroneously recognized as defects, and, if any of the images contains the objects, a step of performing processing on the objects.

前記オブジェクトは、前記電子機器の画面上のフローティングアイコンに対応するオブジェクト、前記電子機器に付着したステッカーに対応するオブジェクト、及び前記電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含むことができる。 The object may include at least one of an object corresponding to a floating icon on the screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device.

一実施形態に係る電子機器価値評価方法は、電子機器を撮影して取得された複数のイメージそれぞれに、前記電子機器の欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断するステップと、前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行うステップと、前記オブジェクトが処理されたイメージ、前記オブジェクトがない残りのイメージ、及びディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行うステップと、前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定するステップとを含む。 An electronic device value evaluation method according to one embodiment includes the steps of: determining whether or not each of a plurality of images obtained by photographing an electronic device contains one or more objects that are erroneously recognized as defects in the electronic device; if any of the images contains the objects, processing the objects; evaluating the appearance condition of the electronic device based on the images in which the objects have been processed, the remaining images without the objects, and a deep learning evaluation model; and determining the value of the electronic device based on the results of the appearance condition evaluation and the results of the internal condition evaluation of the electronic device.

前記外観状態評価を行うステップは、前記ディープラーニング評価モデルを介して前記オブジェクトが処理されたイメージ及び前記残りのイメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定するステップと、前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定するステップとを含むことができる。 The step of evaluating the appearance condition may include a step of generating a mask predicting the defect condition of each evaluation area of the electronic device from the image in which the object is processed through the deep learning evaluation model and the remaining image, determining a grade for the defect of each evaluation area based on each of the generated masks, and determining a final grade for the appearance condition of the electronic device based on each of the determined grades.

前記処理を行うステップは、前記オブジェクトにマスキング処理を行うステップを含むことができる。 The processing step may include performing a masking process on the object.

前記オブジェクトは、前記電子機器の画面上のフローティングアイコンに対応するオブジェクト、前記電子機器に付着したステッカーに対応するオブジェクト、及び前記電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含むことができる。 The object may include at least one of an object corresponding to a floating icon on the screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device.

一実施形態に係る電子機器価値評価装置は、複数のディープラーニング評価モデルを格納するメモリと、電子機器を撮影して取得された複数のイメージ及び前記ディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行う外観状態評価モジュールと、前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定する価値決定モジュールとを含む。 An electronic device value evaluation device according to one embodiment includes a memory that stores multiple deep learning evaluation models, an appearance condition evaluation module that performs an appearance condition evaluation of the electronic device based on multiple images acquired by photographing the electronic device and the deep learning evaluation model, and a value determination module that determines the value of the electronic device based on the results of the appearance condition evaluation and the results of the internal condition evaluation of the electronic device.

前記外観状態評価モジュールは、前記ディープラーニング評価モデルを介して前記イメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定し、前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定する。 The appearance condition evaluation module generates a mask that predicts the defect condition of each evaluation area of the electronic device from the image through the deep learning evaluation model, determines a grade for the defect of each evaluation area based on each generated mask, and determines a final grade for the appearance condition of the electronic device based on each determined grade.

前記ディープラーニング評価モデルのうち、第1ディープラーニング評価モデルは、前記電子機器の前面が撮影されて取得された前面イメージの入力を受けた場合、前記前面イメージを介して前記前面の欠陥状態を予測した第1マスクを生成し、前記生成された第1マスクに基づいて前記前面の欠陥に対する等級を決定することができる。 Among the deep learning evaluation models, the first deep learning evaluation model, when receiving an input of a front image acquired by photographing the front of the electronic device, generates a first mask that predicts the defect state of the front through the front image, and can determine a grade for the defect of the front based on the generated first mask.

前記ディープラーニング評価モデルのうち、第2ディープラーニング評価モデルは、前記電子機器の後面が撮影されて取得された後面イメージの入力を受けた場合、前記後面イメージを介して前記後面の欠陥状態を予測した第2マスクを生成し、前記生成された第2マスクに基づいて前記後面の欠陥に対する等級を決定することができる。 When the second deep learning evaluation model of the deep learning evaluation models receives an input of a rear image acquired by photographing the rear of the electronic device, the second deep learning evaluation model generates a second mask that predicts the defect state of the rear through the rear image, and determines a grade for the defect of the rear based on the generated second mask.

前記ディープラーニング評価モデルのうち、第3ディープラーニング評価モデルは、前記電子機器の側面が撮影されて取得された側面イメージの入力を受けた場合、前記の側面イメージを介して前記の側面のうち少なくとも1つの欠陥状態を予測した第3マスクを生成し、前記生成された第3マスクに基づいて前記の側面の欠陥に対する等級を決定することができる。 Among the deep learning evaluation models, the third deep learning evaluation model, when receiving an input of a side image obtained by photographing the side of the electronic device, generates a third mask that predicts a defect state of at least one of the sides through the side image, and can determine a grade for the defect of the side based on the generated third mask.

前記ディープラーニング評価モデルのうち、第4ディープラーニング評価モデルは、前記電子機器の画面が撮影されて取得された画面イメージの入力を受けた場合、前記画面イメージを介して前記電子機器の画面の欠陥状態を予測した第4マスクを生成し、前記生成された第4マスクに基づいて前記電子機器の画面の欠陥に対する等級を決定することができる。 Among the deep learning evaluation models, the fourth deep learning evaluation model, when receiving an input of a screen image obtained by photographing the screen of the electronic device, generates a fourth mask that predicts the defect state of the screen of the electronic device through the screen image, and can determine a grade for the defect of the screen of the electronic device based on the generated fourth mask.

前記外観状態評価モジュールは、前記電子機器の形態が変更された場合、前記ディープラーニング評価モデル以外の追加ディープラーニング評価モデルを介して前記変更された形態が撮影されて取得されたイメージから前記変更された形態の評価領域の欠陥状態を予測したマスクを生成し、前記変更された形態の評価領域の欠陥状態を予測したマスクに基づいて前記変更された形態の評価領域の欠陥に対する等級を決定することができる。 When the shape of the electronic device is changed, the appearance condition evaluation module generates a mask that predicts the defect state of the evaluation area of the changed shape from an image acquired by photographing the changed shape through an additional deep learning evaluation model other than the deep learning evaluation model, and can determine a grade for the defect of the evaluation area of the changed shape based on the mask that predicts the defect state of the evaluation area of the changed shape.

前記外観状態評価モジュールは、前記決定された各等級のうち最小等級を前記最終等級として決定することができる。 The appearance condition evaluation module can determine the minimum grade among the determined grades as the final grade.

前記外観状態評価モジュールは、前記決定された各等級それぞれに加重値を適用し、前記角加重値が適用された等級を用いて前記最終等級を決定することができる。 The appearance condition evaluation module can apply a weighting value to each of the determined grades and determine the final grade using the grade to which the angle weighting value has been applied.

前記価値決定モジュールは、前記外観状態評価の結果に基づいて第1金額を決定し、前記内部状態評価の結果に基づいて第2金額を決定し、前記電子機器の基準価格から前記決定された第1金額と前記決定された第2金額を差し引いて前記電子機器の価格を算出することができる。 The value determination module can determine a first amount based on the results of the appearance condition evaluation, determine a second amount based on the results of the internal condition evaluation, and calculate the price of the electronic device by subtracting the determined first amount and the determined second amount from the base price of the electronic device.

前記欠陥状態は、前記評価領域それぞれの欠陥位置、前記欠陥種類、及び前記欠陥程度のうち少なくとも1つを含むことができる。 The defect state may include at least one of the defect position, the defect type, and the defect severity of each of the evaluation areas.

電子機器価値評価装置は、前記イメージそれぞれに欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断し、前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行う前処理モジュールをさらに含むことができる。 The electronic device value assessment device may further include a pre-processing module that determines whether each of the images contains one or more objects that may be mistaken for defects, and performs processing on the objects if any of the images contain the objects.

前記オブジェクトは、前記電子機器の画面上のフローティングアイコンに対応するオブジェクト、前記電子機器に付着したステッカーに対応するオブジェクト、及び前記電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含むことができる。 The object may include at least one of an object corresponding to a floating icon on the screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device.

一実施形態に係る電子機器価値評価装置は、電子機器を撮影して取得された複数のイメージそれぞれに、前記電子機器の欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断する前処理モジュールと、前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行うステップと、前記オブジェクトが処理されたイメージ、前記オブジェクトがない残りのイメージ、及びディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行う外観状態評価モジュールと、前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定する価値決定モジュールとを含む。 An electronic device value evaluation device according to one embodiment includes a pre-processing module that determines whether each of a plurality of images obtained by photographing an electronic device contains one or more objects that may be mistaken for defects in the electronic device; a step of processing the object if an image containing the object is found; an appearance condition evaluation module that performs an appearance condition evaluation of the electronic device based on the image in which the object has been processed, the remaining image without the object, and a deep learning evaluation model; and a value determination module that determines the value of the electronic device based on the results of the appearance condition evaluation and the results of the internal condition evaluation of the electronic device.

前記外観状態評価モジュールは、前記ディープラーニング評価モデルを介して前記オブジェクトが処理されたイメージ及び前記残りのイメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定し、前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定することができる。 The appearance condition evaluation module generates masks predicting the defect condition of each evaluation area of the electronic device from the image in which the object is processed through the deep learning evaluation model and the remaining image, determines a grade for the defect of each evaluation area based on each of the generated masks, and determines a final grade for the appearance condition of the electronic device based on each of the determined grades.

一実施形態に係るコンピューティング装置によって実行されるトレーニング方法は、欠陥に対する学習イメージをディープラーニングモデルに入力するステップと、前記ディープラーニングモデルを介して前記学習イメージから前記欠陥の状態を予測したマスクを生成するステップと、前記生成されたマスクと前記欠陥に対するレーベルマスク(labeled mask)との間の類似度を演算するステップと、前記演算された類似度が閾値未満である場合、前記ディープラーニングモデル内の少なくとも1つのパラメータをアップデートするステップと、前記演算された類似度が前記閾値以上である場合、前記ディープラーニングモデルに対するトレーニングを終了するステップとを含む。 A training method performed by a computing device according to one embodiment includes inputting a learning image of a defect into a deep learning model, generating a mask that predicts the state of the defect from the learning image through the deep learning model, calculating a similarity between the generated mask and a labeled mask for the defect, updating at least one parameter in the deep learning model if the calculated similarity is less than a threshold, and terminating training of the deep learning model if the calculated similarity is equal to or greater than the threshold.

前記マスクを生成するステップは、第1ディープラーニングモデルに第1学習イメージを入力した場合、前記第1ディープラーニングモデルを用いて前記第1学習イメージから電子機器の前面の欠陥状態を予測した第1マスクを生成するステップと、第2ディープラーニングモデルに第2学習イメージを入力した場合、前記第2ディープラーニングモデルを用いて前記第2学習イメージから前記電子機器の後面の欠陥状態を予測した第2マスクを生成するステップと、第3ディープラーニングモデルに第3学習イメージを入力した場合、前記第3ディープラーニングモデルを用いて前記第3学習イメージから前記電子機器の側面の欠陥状態を予測した第3マスクを生成するステップと、第4ディープラーニングモデルに第4学習イメージを入力した場合、前記第4ディープラーニングモデルを用いて前記第4学習イメージから前記電子機器の画面の欠陥状態を予測した第4マスクを生成するステップとを含む。 The step of generating the mask includes, when a first learning image is input to a first deep learning model, a step of generating a first mask that predicts a defect state of the front side of the electronic device from the first learning image using the first deep learning model; when a second learning image is input to a second deep learning model, a step of generating a second mask that predicts a defect state of the rear side of the electronic device from the second learning image using the second deep learning model; when a third learning image is input to a third deep learning model, a step of generating a third mask that predicts a defect state of the side of the electronic device from the third learning image using the third deep learning model; and when a fourth learning image is input to a fourth deep learning model, a step of generating a fourth mask that predicts a defect state of the screen of the electronic device from the fourth learning image using the fourth deep learning model.

一実施形態に係る中古携帯電話の外観を撮影したイメージをはやい速度で分析できるため、中古携帯電話の外観を迅速かつ正確に評価することができる。 In one embodiment, images of the exterior of a used mobile phone can be analyzed quickly, allowing the exterior of the used mobile phone to be evaluated quickly and accurately.

図1~図2は、一実施形態に係る無人買取装置とサーバを説明する図である。1 and 2 are diagrams illustrating an unmanned purchase device and a server according to an embodiment. 図1~図2は、一実施形態に係る無人買取装置とサーバを説明する図である。1 and 2 are diagrams illustrating an unmanned purchase device and a server according to an embodiment. 図3~図6は、一実施形態に係る電子機器価値評価装置の動作を説明する図である。3 to 6 are diagrams for explaining the operation of the electronic device value assessment device according to an embodiment. 図3~図6は、一実施形態に係る電子機器価値評価装置の動作を説明する図である。3 to 6 are diagrams for explaining the operation of the electronic device value assessment device according to an embodiment. 図3~図6は、一実施形態に係る電子機器価値評価装置の動作を説明する図である。3 to 6 are diagrams for explaining the operation of the electronic device value assessment device according to an embodiment. 図3~図6は、一実施形態に係る電子機器価値評価装置の動作を説明する図である。3 to 6 are diagrams for explaining the operation of the electronic device value assessment device according to an embodiment. 図7は、一実施形態に係る電子機器価値評価方法を説明するフローチャートである。FIG. 7 is a flowchart illustrating an electronic device value assessment method according to an embodiment. 図8は、一実施形態に係るディープラーニングモデルをトレーニングするコンピューティング装置の構成を説明するブロック図である。FIG. 8 is a block diagram illustrating the configuration of a computing device for training a deep learning model according to one embodiment. 図9A~図9Cは、一実施形態に係るターゲットマスクと予測マスクを説明する図である。9A to 9C are diagrams illustrating a target mask and a predicted mask according to one embodiment. 図9A~図9Cは、一実施形態に係るターゲットマスクと予測マスクを説明する図である。9A to 9C are diagrams illustrating a target mask and a predicted mask according to one embodiment. 図9A~図9Cは、一実施形態に係るターゲットマスクと予測マスクを説明する図である。9A to 9C are diagrams illustrating a target mask and a predicted mask according to one embodiment. 図10は、一実施形態に係るコンピューティング装置のディープラーニングモデルトレーニング方法を説明するフローチャートである。FIG. 10 is a flowchart illustrating a method for training a deep learning model in a computing device according to one embodiment.

実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものであって、様々な形態に変更されることができる。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。 Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified in various forms. Therefore, the embodiments are not limited to the specific disclosed forms, and the scope of this specification includes modifications, equivalents, or alternatives within the technical concept.

第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に、第2構成要素は第1構成要素にも命名することができる。 Although terms such as first or second may be used to describe multiple components, such terms should be construed as being only for the purpose of distinguishing one component from the other components. For example, a first component may be named a second component, and similarly, a second component may be named a first component.

いずれかの構成要素が他の構成要素に「連結」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。 When a component is referred to as being "connected" to another component, it is understood that it is directly connected or connected to the other component, but that there may be other components in between.

単数の表現は、文脈上、明白に異なる意味を有しない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。 Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "include" or "have" indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, and should be understood as not precluding the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

異なるように定義さがれない限り技術的又は科学的な用語を含み、ここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈されなければならず、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。 All terms used herein, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention pertains. Terms commonly used and predefined should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and should not be interpreted as having an ideal or overly formal meaning unless expressly defined in this specification.

以下、添付する図面を参照しながら実施形態を詳細に説明する。図面を参照して説明する際に、図面符号に拘わらず同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。 Hereinafter, the embodiments will be described in detail with reference to the accompanying drawings. When describing the embodiments with reference to the drawings, the same components are given the same reference numerals regardless of the drawing numerals, and duplicate descriptions thereof will be omitted.

図1~図2は、一実施形態に係る無人買取装置とサーバを説明する図である。 Figures 1 and 2 are diagrams illustrating an unmanned purchase device and a server according to one embodiment.

図1及び図2を参照すると、無人買取装置110とサーバ120が示されている。 Referring to Figures 1 and 2, an unmanned purchase device 110 and a server 120 are shown.

無人買取装置110は、電子機器(又は、中古電子機器)(例えば、スマートフォン、タブレットPC、ウェアラブル機器など)をユーザから買取及び/又はユーザに電子機器(又は、中古電子機器)を販売することができる。電子機器のタイプは、例えば、形態によりバータイプ、ローラブル(rollable)タイプ、又は、フォルダブル(foldable)タイプなどに区分される。 The unmanned purchase device 110 can purchase electronic devices (or used electronic devices) (e.g., smartphones, tablet PCs, wearable devices, etc.) from users and/or sell electronic devices (or used electronic devices) to users. The types of electronic devices are classified into, for example, bar type, rollable type, foldable type, etc., depending on the shape.

無人買取装置110は、例えば、キオスク形態であってもよいが、これに制限されることはない。 The unmanned purchase device 110 may be, for example, in the form of a kiosk, but is not limited to this.

無人買取装置110は、撮影ボックス及び制御部(controller)を含む。 The unmanned purchasing device 110 includes a photography box and a control unit.

無人買取装置110の撮影ボックスのドア(door)がオープンされれば、ユーザは、無人買取装置110のケーブル(例えば、USBタイプCケーブル、ライトニングケーブルなど)と電子機器を接続させ、電子機器を撮影ボックス内に安置させることができる。電子機器は、ケーブルを介して無人買取装置110の制御部に接続される。実施形態により、電子機器は、無線(例えば、ブルートゥース(登録商標)、BLE(Bluetooth Low Energy)など)で無人買取装置110の制御部と接続されている。 When the door of the photography box of the unmanned purchase device 110 is opened, the user can connect the electronic device to the cable of the unmanned purchase device 110 (e.g., USB Type-C cable, Lightning cable, etc.) and place the electronic device in the photography box. The electronic device is connected to the control unit of the unmanned purchase device 110 via the cable. According to an embodiment, the electronic device is connected to the control unit of the unmanned purchase device 110 wirelessly (e.g., Bluetooth (registered trademark), BLE (Bluetooth Low Energy), etc.).

無人買取装置110の制御部は、電子機器の内部状態検収及び電子機器の情報(例えば、モデル名、シリアルナンバー、オペレーティングシステムバージョンなど)を収集するための第1アプリケーションを電子機器にインストールしてもよい。これに制限されることなく、ユーザは、電子機器を無人買取装置110に投入する前に第1アプリケーションを電子機器に予めインストールすることができる。 The control unit of the unmanned purchase device 110 may install a first application on the electronic device to inspect the internal state of the electronic device and collect information about the electronic device (e.g., model name, serial number, operating system version, etc.). Without being limited thereto, the user may pre-install the first application on the electronic device before inserting the electronic device into the unmanned purchase device 110.

第1アプリケーションは、電子機器で実行されることによって電子機器の情報を収集し、電子機器の内部状態(例えば、ハードウェア動作状態など)評価(又は、分析)を行う。ハードウェア動作状態は、例えば、電子機器のハードウェア(例えば、センサ、カメラなど)が正常に動作するかに対する状態を示す。第1アプリケーションは、電子機器のハードウェアが正常に動作するか否かを評価(又は、判断)できる。 The first application is executed on the electronic device to collect information about the electronic device and evaluate (or analyze) the internal state of the electronic device (e.g., hardware operating state, etc.). The hardware operating state indicates, for example, the state of whether the hardware of the electronic device (e.g., a sensor, a camera, etc.) is operating normally. The first application can evaluate (or determine) whether the hardware of the electronic device is operating normally.

撮影ボックスには複数のカメラと複数の照明が配置されてもよい。撮影ボックス内の第1カメラは、電子機器の前面を撮影して電子機器の1つ以上の前面イメージを取得することができる。撮影ボックス内の第2カメラは、電子機器の後面を撮影して電子機器の1つ以上の後面イメージを取得することができる。撮影ボックス内の複数の第3カメラそれぞれは、電子機器の側面(又は、コーナー)それぞれを撮影して1つ以上の側面イメージ(又は、コーナーイメージ)を取得することができる。 The shooting box may be provided with multiple cameras and multiple lights. A first camera in the shooting box may capture the front of the electronic device to obtain one or more front images of the electronic device. A second camera in the shooting box may capture the rear of the electronic device to obtain one or more rear images of the electronic device. Each of the multiple third cameras in the shooting box may capture a side (or corner) of the electronic device to obtain one or more side images (or corner images).

第1カメラは、電子機器の画面を撮影して1つ以上のイメージ(以下、「画面イメージ」に称する)を取得する。実施形態により、第1アプリケーションは、電子機器に単色(例えば、白色、黒い色、赤い色、青色、緑色など)の画面が表示されるようにしてもよい。電子機器に単色画面が表示された状態で、第1カメラは、電子機器の単色画面を撮影してイメージ(以下、「単色の画面イメージ」に称する)を取得する。例えば、電子機器に白色画面が表示された状態で、第1カメラは、電子機器の白色画面を撮影し第1単色の画面イメージを取得する。電子機器に黒い色画面が表示された状態で、第1カメラは、電子機器の黒い色画面を撮影し第2単色の画面イメージを取得する。電子機器に白色及び黒い色以外の他の単色(例えば、赤い色、青色、緑色など)の画面が表示された状態で、第1カメラは、電子機器の他の単色画面を撮影して第3単色の画面イメージを取得することができる。 The first camera photographs the screen of the electronic device to obtain one or more images (hereinafter referred to as "screen images"). According to an embodiment, the first application may cause the electronic device to display a monochromatic (e.g., white, black, red, blue, green, etc.) screen. When the monochromatic screen is displayed on the electronic device, the first camera photographs the monochromatic screen of the electronic device to obtain an image (hereinafter referred to as "monochromatic screen image"). For example, when a white screen is displayed on the electronic device, the first camera photographs the white screen of the electronic device to obtain a first monochromatic screen image. When a black screen is displayed on the electronic device, the first camera photographs the black screen of the electronic device to obtain a second monochromatic screen image. When a monochromatic screen other than white and black (e.g., red, blue, green, etc.) is displayed on the electronic device, the first camera may photograph the other monochromatic screen of the electronic device to obtain a third monochromatic screen image.

電子機器価値評価装置130は、電子機器を撮影して取得したイメージ(例えば、1つ以上の前面イメージ、1つ以上の後面イメージ、1つ以上の側面イメージ、1つ以上の単色の画面イメージ)とディープラーニング評価モデルに基づいて、電子機器に対する外観状態評価を行うことができる。 The electronic device value assessment device 130 can perform an appearance condition assessment of an electronic device based on images acquired by photographing the electronic device (e.g., one or more front images, one or more rear images, one or more side images, one or more monochrome screen images) and a deep learning assessment model.

図1に示す例で、電子機器価値評価装置130はサーバ120に含まれている。図1に示す例で、サーバ120は、無人買取装置110から電子機器を撮影して取得したイメージを受信し、受信されたイメージを電子機器価値評価装置130に伝達する。前述したように、電子機器内の第1アプリケーションは電子機器の内部状態評価を実行し、無人買取装置110を介してサーバ120に電子機器の内部状態評価の結果を送信することができる。異なる例として、第1アプリケーションは、電子機器がサーバ120に接続されるようにし、電子機器を介してサーバ120に電子機器の内部状態評価の結果を送信してもよい。電子機器価値評価装置130は、電子機器の外観状態評価の結果と電子機器の内部状態評価の結果(例えば、第1アプリケーションが電子機器の内部状態評価を行った結果)に基づいて、電子機器の価値(例えば、価格)を決定することができる。電子機器価値評価装置130は、無人買取装置110に電子機器の価値を送信し、無人買取装置110は、ユーザに電子機器の価値を伝達する。ユーザは、電子機器の価値(例えば、価格)を受け入れて電子機器を販売することを無人買取装置110に伝達し、無人買取装置110はユーザの電子機器の販売決定があれば、撮影ボックス内に安置されている電子機器を回収ボックス(又は、保管ボックス)に移動させることができる。実施形態により、回収ボックスは、無人買取装置110の内部又は外部に配置されてもよい。 In the example shown in FIG. 1, the electronic device value evaluation device 130 is included in the server 120. In the example shown in FIG. 1, the server 120 receives an image obtained by photographing an electronic device from the unmanned buy-back device 110 and transmits the received image to the electronic device value evaluation device 130. As described above, the first application in the electronic device can perform an internal state evaluation of the electronic device and transmit the result of the internal state evaluation of the electronic device to the server 120 via the unmanned buy-back device 110. In another example, the first application may cause the electronic device to be connected to the server 120 and transmit the result of the internal state evaluation of the electronic device to the server 120 via the electronic device. The electronic device value evaluation device 130 can determine the value (e.g., price) of the electronic device based on the result of the appearance state evaluation of the electronic device and the result of the internal state evaluation of the electronic device (e.g., the result of the first application performing the internal state evaluation of the electronic device). The electronic device value evaluation device 130 transmits the value of the electronic device to the unmanned buy-back device 110, and the unmanned buy-back device 110 transmits the value of the electronic device to the user. The user communicates to the unmanned purchasing device 110 that they will accept the value (e.g., price) of the electronic device and sell the electronic device, and if the user decides to sell the electronic device, the unmanned purchasing device 110 can move the electronic device placed in the photography box to a collection box (or a storage box). Depending on the embodiment, the collection box may be located inside or outside the unmanned purchasing device 110.

図2に示す例で、電子機器価値評価装置130は、無人買取装置110に含まれてもよい。図2に示す例で、電子機器価値評価装置130は、撮影ボックス内のカメラから電子機器を撮影して取得されたイメージを受信してもよい。電子機器価値評価装置130は、第1アプリケーションから電子機器の内部状態評価の結果を受信する。電子機器価値評価装置130は、電子機器の外観状態評価の結果と電子機器の内部状態評価の結果に基づいて電子機器の価値(例えば、価格)を決定することができる。電子機器価値評価装置130は、ユーザに電子機器の価値を伝達する。ユーザは、電子機器の価値(例えば、価格)を受け入れて電子機器を販売することを無人買取装置110に伝達し、無人買取装置110は、ユーザの電子機器販売決定があれば、撮影ボックス内に安置された電子機器を回収ボックス(又は、保管ボックス)に移動させることができる。 In the example shown in FIG. 2, the electronic device value evaluation device 130 may be included in the unmanned purchase device 110. In the example shown in FIG. 2, the electronic device value evaluation device 130 may receive an image obtained by photographing an electronic device with a camera in a photography box. The electronic device value evaluation device 130 receives the result of the internal state evaluation of the electronic device from the first application. The electronic device value evaluation device 130 can determine the value (e.g., price) of the electronic device based on the result of the appearance state evaluation of the electronic device and the result of the internal state evaluation of the electronic device. The electronic device value evaluation device 130 communicates the value of the electronic device to the user. The user communicates to the unmanned purchase device 110 that they will accept the value (e.g., price) of the electronic device and sell the electronic device, and the unmanned purchase device 110 can move the electronic device placed in the photography box to a collection box (or a storage box) if the user decides to sell the electronic device.

図3~図6は、一実施形態に係る電子機器価値評価装置の動作を説明する図である。 Figures 3 to 6 are diagrams explaining the operation of an electronic device value assessment device according to one embodiment.

図3を参照すると、電子機器装置評価装置130は、メモリ310、外観状態評価モジュール320、及び価値決定モジュール330を含む。 Referring to FIG. 3, the electronic device evaluation device 130 includes a memory 310, an appearance condition evaluation module 320, and a value determination module 330.

一実施形態において、外観状態評価モジュール320及び価値決定モジュール330は1つのプロセッサで実現されてもよい。 In one embodiment, the appearance condition assessment module 320 and the value determination module 330 may be implemented in a single processor.

一実施形態において、外観状態評価モジュール320及び価値決定モジュール340のそれぞれは別個のプロセッサで実現されてもよい。例えば、第1プロセッサが外観状態評価モジュール320を実現してもよく、第2プロセッサが価値決定モジュール340を実現してもよい。 In one embodiment, each of the appearance condition assessment module 320 and the value determination module 340 may be implemented in a separate processor. For example, a first processor may implement the appearance condition assessment module 320 and a second processor may implement the value determination module 340.

メモリ310は、複数のディープラーニング評価モデルを格納する。例えば、メモリ310は、電子機器の第1評価領域(例えば、前面)の欠陥を検出し、検出された欠陥(又は、第1評価領域)の等級を決定する第1ディープラーニング評価モデル、電子機器の第2評価領域(例えば、後面)の欠陥を検出し、検出された欠陥(又は、第2評価領域)の等級を決定する第2ディープラーニング評価モデル、電子機器の第3評価領域(例えば、側面(又は、コーナー))の欠陥を検出し、検出された欠陥(又は、第3評価領域)の等級を決定する第3ディープラーニング評価モデル、及び電子機器の第4評価領域(例えば、画面)の欠陥を検出し、検出された欠陥(又は、第4評価領域)の等級を決定する第4ディープラーニング評価モデルを含む。以下の表1は、評価領域(例えば、画面、前面、側面(又は、コーナー)、後面)それぞれの欠陥種類及び等級の例示を示す。 The memory 310 stores a plurality of deep learning evaluation models. For example, the memory 310 includes a first deep learning evaluation model that detects defects in a first evaluation area (e.g., front surface) of the electronic device and determines a grade of the detected defect (or the first evaluation area), a second deep learning evaluation model that detects defects in a second evaluation area (e.g., rear surface) of the electronic device and determines a grade of the detected defect (or the second evaluation area), a third deep learning evaluation model that detects defects in a third evaluation area (e.g., side (or corner)) of the electronic device and determines a grade of the detected defect (or the third evaluation area), and a fourth deep learning evaluation model that detects defects in a fourth evaluation area (e.g., screen) of the electronic device and determines a grade of the detected defect (or the fourth evaluation area). Table 1 below shows examples of defect types and grades for each evaluation area (e.g., screen, front surface, side (or corner), rear surface).

Figure 2024546819000002
Figure 2024546819000002

上記の表1において、中間残像は、例えば、電子機器が白色画面を表示しているものの、ユーザに画面の特定領域(例えば、画面上段の状態表示領域)が白色でない色に見られ、特定領域にアイコンが見られる現像を示す。強い残像は、例えば、電子機器が白色画面を表示しているものの、ユーザに画面全体的に白色でない他の色に見られる現像を示す。LCD級の残像は、強い残像よりも残像の程度が激しい状態であって、例えば、電子機器が白色画面を表示しているものの、ユーザに画面の全体的に白色でない他の色が見られて画面にアイコンが見られる現像を示す。 In Table 1 above, intermediate image retention refers to, for example, a phenomenon in which, although the electronic device is displaying a white screen, the user sees a specific area of the screen (for example, the status display area at the top of the screen) as a color other than white, and an icon is seen in the specific area. Strong image retention refers to, for example, a phenomenon in which, although the electronic device is displaying a white screen, the user sees the entire screen as a color other than white. LCD-class image retention is a state in which the degree of image retention is more severe than strong image retention, and refers to, for example, a phenomenon in which, although the electronic device is displaying a white screen, the user sees the entire screen as a color other than white, and an icon is seen on the screen.

第1~第4ディープラーニング評価モデルそれぞれは、与えられた入力イメージにイメージセグメンテーション(image segmentation)を行うことができる。 Each of the first to fourth deep learning evaluation models can perform image segmentation on a given input image.

図4に、ディープラーニング評価モデルそれぞれの基盤となるディープニューラルネットワーク(Neural Network)の概略的な構造が示されている。以下、説明の便宜のために、ディープニューラルネットワークの構造を例に挙げて説明するが、必ずこれに限定されるものではなく、様々な構造のニューラルネットワークがディープラーニング評価モデルに使用されてもよい。 Figure 4 shows the schematic structure of the deep neural network that is the basis of each deep learning evaluation model. For ease of explanation, the following will use the structure of a deep neural network as an example, but this is not necessarily limited to this, and neural networks of various structures may be used in the deep learning evaluation model.

ディープニューラルネットワークは、ニューラルネットワークを実現する1つの方式として、複数のレイヤ(layers)を含む。ディープニューラルネットワークは、例えば、入力データが印加される入力レイヤ(Input Layer)410、トレーニングに基づいて入力データに基づいた予測を介して導き出された結果値を出力する出力レイヤ(Output Layer)440、及び入力レイヤと出力レイヤとの間の多重の隠匿レイヤ(Hidden Layer)420,430を含む。 A deep neural network includes multiple layers as a method for realizing a neural network. A deep neural network includes, for example, an input layer 410 to which input data is applied, an output layer 440 that outputs a result value derived through prediction based on the input data based on training, and multiple hidden layers 420 and 430 between the input layer and the output layer.

ディープニューラルネットワークは、情報を処理するために使用されるアルゴリズムに応じて畳み込み神経網(Convolutional Neural Network)、及びリカレント神経網(Recurrent Neural Network)などに分類される。以下、ニューラルネットワーク分野の一般的な慣行により、入力レイヤを最下位レイヤ、出力レイヤを最上位レイヤと呼び、最上位レイヤである出力レイヤから最下位レイヤである入力レイヤまで順次レイヤの順位を指定して命名する。図4において、隠匿レイヤ2は、隠匿レイヤ1及び入力レイヤよりも上位レイヤであり、出力レイヤよりも下位レイヤに該当する。 Deep neural networks are classified into convolutional neural networks and recurrent neural networks depending on the algorithm used to process information. In the following, in accordance with common practice in the field of neural networks, the input layer is called the lowest layer and the output layer is called the highest layer, and the layers are named in order from the highest layer, the output layer, to the lowest layer, the input layer. In FIG. 4, hidden layer 2 is a layer higher than hidden layer 1 and the input layer, and a layer lower than the output layer.

ディープニューラルネットワークで隣接しているレイヤの間では相対的に上位であるレイヤが、相対的に下位であるレイヤの出力値に加重値を乗算し、バイアスを適用した値が印加されて所定の演算結果を出力することができる。ここで、出力される演算結果は、該当レイヤに隣接している上位レイヤに類似な方式で印加されてもよい。 A relatively higher layer among adjacent layers in a deep neural network can multiply the output value of a relatively lower layer by a weighted value, apply a biased value, and output a predetermined calculation result. Here, the output calculation result may be applied to a higher layer adjacent to the corresponding layer in a similar manner.

ニューラルネットワークをトレーニングする方式を、例えば、ディープラーニング(Deep Learning)といい、上述したように、ディープラーニングには、畳み込みニューラルネットワーク、リカレントニューラルネットワークのように様々なアルゴリズムが用いられる。 The method of training a neural network is called, for example, deep learning, and as mentioned above, deep learning uses various algorithms such as convolutional neural networks and recurrent neural networks.

「ニューラルネットワークをトレーニングする」とは、レイヤ間の加重値及びバイアスを決定して更新すること、及び/又は、隣接しているレイヤのうち互いに異なるレイヤに属する複数のニューロン間の加重値及びバイアスを決定して更新することを全て包括する意味として理解されることができる。 "Training a neural network" can be understood to encompass all of the following: determining and updating weights and biases between layers, and/or determining and updating weights and biases between multiple neurons that belong to different layers among adjacent layers.

複数のレイヤ、複数のレイヤ間の階層的構造、ニューロン間の加重値、及びバイアスの全てを総称してニューラルネットワークの「連結性(connectivity)」に表現してもよい。そのため、「ニューラルネットワークをトレーニングする」ことは、連結性を構築してトレーニングするものとして理解されてもよい。 The multiple layers, the hierarchical structure between the multiple layers, the weights between neurons, and the biases may all be collectively referred to as the "connectivity" of the neural network. Therefore, "training a neural network" may be understood as building and training the connectivity.

ニューラルネットワークで複数のレイヤのそれぞれは複数のノード(nodes)を含む。ノードは、ニューラルネットワークのニューロン(neuron)に該当する。用語「ニューロン」は、「ノード」という用語と同じ意味として使用される。 In a neural network, each of the layers contains multiple nodes. A node corresponds to a neuron in the neural network. The term "neuron" is used synonymously with the term "node."

図4に示すディープニューラルネットワークでいずれか1つのレイヤに含まれている複数のノードに隣接するレイヤに含まれた複数のノードの組み合せの間に全て連結関係が形成されていることが見られる。このようにニューラルネットワークの隣接するレイヤに含まれている全てのノードの組み合わせがすべて互いに連結されていることを「完全連結(fully-connected)」と呼ぶこ。図4に示された隠匿レイヤ(2)430のノード3-1は、隠匿レイヤ(1)420の全てのノード、即ち、ノード2-1~ノード2-4のすべてに連結され、それぞれのノードの出力値に対して所定の加重値を乗算した値が入力され得る。 In the deep neural network shown in FIG. 4, it can be seen that connections are formed between all combinations of nodes included in layers adjacent to a plurality of nodes included in one layer. When all combinations of nodes included in adjacent layers of a neural network are connected to each other in this way, it is called "fully-connected." Node 3-1 of hidden layer (2) 430 shown in FIG. 4 is connected to all nodes in hidden layer (1) 420, i.e., nodes 2-1 to 2-4, and a value obtained by multiplying the output value of each node by a predetermined weighting value can be input.

入力レイヤ410に入力されたデータが複数の隠匿レイヤ420,430を経て処理されることで、出力レイヤ440を介して出力値が出力される。ここで、各ノードの出力値に対して乗算される加重値が大きいほど、対応する2つのノード間の連結性が強化されることを意味し、加重値が小さいほど、2つのノード間の連結性が弱いことを意味する。加重値が0である場合、2つのノード間の連結性がないことを意味する。 Data input to the input layer 410 is processed through multiple hidden layers 420, 430, and an output value is output through the output layer 440. Here, the larger the weight value multiplied to the output value of each node, the stronger the connectivity between the corresponding two nodes, and the smaller the weight value, the weaker the connectivity between the two nodes. A weight value of 0 means that there is no connectivity between the two nodes.

図3に戻り、外観状態評価モジュール320は、電子機器を撮影して取得された複数のイメージ及びディープラーニング評価モデルに基づいて電子機器に対する外観状態評価を行うことができる。例えば、外観状態評価モジュール320は、ディープラーニング評価モデルを介してイメージから電子機器の第1~第4評価領域それぞれの欠陥状態を予測したマスクを生成することができる。外観状態評価モジュール320は、生成された各マスクに基づいて、第1~第4評価領域それぞれの欠陥の等級を決定することができる。外観状態評価モジュール320は、決定された各等級を介して電子機器の外観状態に対する最終等級を決定することができる。 Returning to FIG. 3, the appearance condition evaluation module 320 may perform an appearance condition evaluation for the electronic device based on a plurality of images acquired by photographing the electronic device and a deep learning evaluation model. For example, the appearance condition evaluation module 320 may generate a mask that predicts the defect state of each of the first to fourth evaluation areas of the electronic device from the image through the deep learning evaluation model. The appearance condition evaluation module 320 may determine a defect grade for each of the first to fourth evaluation areas based on each of the generated masks. The appearance condition evaluation module 320 may determine a final grade for the appearance condition of the electronic device based on each of the determined grades.

図5に示す例で、第1ディープラーニング評価モデル510は、前面イメージが入力されることができる。第1ディープラーニング評価モデル510は、前面イメージを介して電子機器の前面の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第1マスクを生成する。ここで、欠陥程度は欠陥の類型に関連している。例えば、第1ディープラーニング評価モデル510は、前面イメージにイメージセグメンテーションを行って前面イメージのピクセルそれぞれを第1クラスのいずれかに分類し、このような分類に応じて第1マスクを生成することができる。以下の表2は、第1クラスの例を示している。 In the example shown in FIG. 5, the first deep learning evaluation model 510 may receive a front image. The first deep learning evaluation model 510 generates a first mask that predicts a defect state (e.g., at least one of a defect position, a defect type, and a defect degree) of the front of the electronic device through the front image. Here, the defect degree is related to the type of defect. For example, the first deep learning evaluation model 510 may perform image segmentation on the front image to classify each pixel of the front image into one of the first classes, and generate a first mask according to such classification. Table 2 below shows examples of the first classes.

Figure 2024546819000003
Figure 2024546819000003

前述の撮影ボックス内の第1カメラは、電子機器の前面だけでなく前面の周辺を撮影することができるため、前面イメージには電子機器ではない部分を含むことができる。 The first camera in the aforementioned shooting box can capture not only the front of the electronic device but also the area around the front, so that the front image can include parts that are not the electronic device.

第1ディープラーニング評価モデル510は、前面イメージの一部ピクセルを第1-1クラスに分類し、残りのピクセルそれぞれを第1-2クラス、第1-3クラス、又は、第1-4クラスに分類する。このような分類を通じて、第1ディープラーニング評価モデル510は第1マスクを生成することができる。 The first deep learning evaluation model 510 classifies some pixels of the front image into a 1-1 class and classifies the remaining pixels into a 1-2 class, a 1-3 class, or a 1-4 class. Through such classification, the first deep learning evaluation model 510 can generate a first mask.

第1マスクを視覚的に表現したイメージの例示が図6に示されている。 An example of a visual representation of the first mask is shown in Figure 6.

図6に示す例で、黒い色領域610-1、610-2、610-3、610-4は、第1ディープラーニング評価モデル510が前面イメージの一部ピクセルを第1-3クラスに分類した結果(又は、第1ディープラーニング評価モデル510が前面イメージの一部ピクセルが電子機器に該当しないものと予測した結果)を示す。領域620は、第1ディープラーニング評価モデル510が前面イメージの一部ピクセルを第1-2クラスに分類した結果(又は、第1ディープラーニング評価モデル510が前面イメージから電子機器の前面に破損があるものと予測した結果)を示す。領域630は、第1ディープラーニング評価モデル510が前面イメージの一部ピクセルを第1-1クラスに分類した結果(又は、第1ディープラーニング評価モデル510が前面イメージから電子機器の前面にキズがあるものと予測した結果)を示す。領域640は、第1ディープラーニング評価モデル510が前面イメージの一部ピクセルを第1-4クラスに分類した結果(又は、第1ディープラーニング評価モデル510が前面イメージで電子機器の前面を予測した結果)を示す。 In the example shown in FIG. 6, black color areas 610-1, 610-2, 610-3, and 610-4 indicate the result of the first deep learning evaluation model 510 classifying some pixels of the front image into class 1-3 (or the result of the first deep learning evaluation model 510 predicting that some pixels of the front image do not correspond to an electronic device). Area 620 indicates the result of the first deep learning evaluation model 510 classifying some pixels of the front image into class 1-2 (or the result of the first deep learning evaluation model 510 predicting that there is damage on the front of the electronic device from the front image). Area 630 indicates the result of the first deep learning evaluation model 510 classifying some pixels of the front image into class 1-1 (or the result of the first deep learning evaluation model 510 predicting that there is a scratch on the front of the electronic device from the front image). Area 640 shows the result of the first deep learning evaluation model 510 classifying some pixels of the front image into classes 1-4 (or the result of the first deep learning evaluation model 510 predicting the front of the electronic device from the front image).

第1ディープラーニング評価モデル510は、第1マスクに基づいて前面の欠陥に対する等級を決定することができる。例えば、第1ディープラーニング評価モデル510は、前面イメージを介して電子機器の前面に破損と液晶の浮きのうち少なくとも1つがあるものと予測した場合、電子機器の前面の欠陥の等級をC等級(例えば、上記の表1のC等級)として決定してもよい。第1ディープラーニング評価モデル510は、C等級に対応するスコア5を出力する。第1ディープラーニング評価モデル510は、前面イメージを介して電子機器の前面に破損とキズがあるものと予測した場合、電子機器の前面の欠陥の等級をC等級(例えば、上記の表1のC等級)として決定してもよい。第1ディープラーニング評価モデル510は、C等級に対応するスコア5を出力する。第1ディープラーニング評価モデル510は、前面イメージを介して電子機器の前面にキズ及び前面破損級のキズのうち少なくとも1つがあるものと予測した場合、電子機器の前面の欠陥の等級をB等級(例えば、上記の表1のB等級)として決定してもよい。第1ディープラーニング評価モデル510は、B等級に対応するスコア3を出力する。第1ディープラーニング評価モデル510は、前面イメージを介して電子機器の前面がきれいなもの(又は、前面に欠陥がないもの)として予測した場合、電子機器の前面の欠陥の等級をA等級(例えば、上記の表1のA等級)として決定してもよい。第1ディープラーニング評価モデル510は、A等級に対応するスコア1を出力する。 The first deep learning evaluation model 510 may determine a grade for the defect on the front surface based on the first mask. For example, if the first deep learning evaluation model 510 predicts that the front surface of the electronic device has at least one of damage and floating liquid crystal through the front image, the first deep learning evaluation model 510 may determine the grade of the defect on the front surface of the electronic device as a C grade (e.g., the C grade in Table 1 above). The first deep learning evaluation model 510 outputs a score 5 corresponding to the C grade. If the first deep learning evaluation model 510 predicts that the front surface of the electronic device has damage and scratches through the front image, the first deep learning evaluation model 510 may determine the grade of the defect on the front surface of the electronic device as a C grade (e.g., the C grade in Table 1 above). The first deep learning evaluation model 510 outputs a score 5 corresponding to the C grade. When the first deep learning evaluation model 510 predicts that the front of the electronic device has at least one of scratches and scratches of a front damage level through the front image, the first deep learning evaluation model 510 may determine the grade of defects on the front of the electronic device as grade B (e.g., grade B in Table 1 above). The first deep learning evaluation model 510 outputs a score 3 corresponding to grade B. When the first deep learning evaluation model 510 predicts that the front of the electronic device is clean (or has no defects on the front) through the front image, the first deep learning evaluation model 510 may determine the grade of defects on the front of the electronic device as grade A (e.g., grade A in Table 1 above). The first deep learning evaluation model 510 outputs a score 1 corresponding to grade A.

第2ディープラーニング評価モデル520は、後面イメージが入力されてもよい。第2ディープラーニング評価モデル520は、後面イメージを介して電子機器の後面の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第2マスクを生成することができる。例えば、第2ディープラーニング評価モデル520は、後面イメージにイメージセグメンテーションを実行し、後面イメージのピクセルそれぞれを第2クラスのいずれか1つに分類し、このような分類を通じて第2マスクを生成することができる。下記の表3は、第2クラスの例示を示す。 The second deep learning evaluation model 520 may receive a rear image. The second deep learning evaluation model 520 may generate a second mask that predicts a defect state (e.g., at least one of a defect position, a defect type, and a defect degree) of the rear of the electronic device through the rear image. For example, the second deep learning evaluation model 520 may perform image segmentation on the rear image to classify each pixel of the rear image into one of the second classes, and generate the second mask through such classification. Table 3 below shows examples of the second classes.

Figure 2024546819000004
Figure 2024546819000004

第2ディープラーニング評価モデル520は、第2マスクに基づいて後面の欠陥に対する等級を決定することができる。例えば、第2ディープラーニング評価モデル520は、後面イメージを介して電子機器の後面に破損、後面の浮き、及びカメラレンズ破損のうち少なくとも1つがあるものと予測した場合、電子機器の後面の欠陥の等級をC等級(例えば、上記の表1のC等級)として決定してもよい。第2ディープラーニング評価モデル520は、C等級に対応するスコア5を出力する。第2ディープラーニング評価モデル520は、後面イメージを介して電子機器の後面がきれいなものと予測した場合、電子機器の後面の欠陥の等級をA等級(例えば、上記の表1のA等級)として決定してもよい。第2ディープラーニング評価モデル520は、A等級に対応するスコア1を出力する。 The second deep learning evaluation model 520 may determine a grade for the defect on the rear surface based on the second mask. For example, if the second deep learning evaluation model 520 predicts that the rear surface of the electronic device has at least one of damage, rear surface lift, and camera lens damage through the rear surface image, the second deep learning evaluation model 520 may determine the grade of the defect on the rear surface of the electronic device as grade C (e.g., grade C in Table 1 above). The second deep learning evaluation model 520 outputs a score 5 corresponding to grade C. If the second deep learning evaluation model 520 predicts that the rear surface of the electronic device is clean through the rear surface image, the second deep learning evaluation model 520 may determine the grade of the defect on the rear surface of the electronic device as grade A (e.g., grade A in Table 1 above). The second deep learning evaluation model 520 outputs a score 1 corresponding to grade A.

第3ディープラーニング評価モデル530は、側面イメージ(又は、コーナーイメージ)が入力されてもよい。第3ディープラーニング評価モデル530は、側面イメージ(又は、コーナーイメージ)を介して電子機器の側面(又は、コーナー)の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第3マスクを生成することができる。例えば、第3ディープラーニング評価モデル530は、側面イメージ(又は、コーナーイメージ)にイメージセグメンテーションを実行し、各側面イメージのピクセルそれぞれを第3クラスのいずれか1つに分類し、このような分類を通じて第3マスクを生成することができる。以下の表4は、第3クラスの例示を示す。 The third deep learning evaluation model 530 may receive a side image (or a corner image). The third deep learning evaluation model 530 may generate a third mask that predicts a defect state (e.g., at least one of a defect position, a defect type, and a defect degree) of the side (or corner) of the electronic device through the side image (or the corner image). For example, the third deep learning evaluation model 530 may perform image segmentation on the side image (or the corner image) to classify each pixel of each side image into one of the third classes, and generate a third mask through such classification. Table 4 below shows examples of the third classes.

Figure 2024546819000005
Figure 2024546819000005

第3ディープラーニング評価モデル530は、第3マスクに基づいて側面(又は、コーナー)の欠陥の等級を決定することができる。例えば、第3ディープラーニング評価モデル530は、側面イメージ(又は、コーナーイメージ)を介して電子機器の第1の側面(又は、第1コーナー)にキズがあるものと予測した場合、電子機器の側面(又は、コーナー)の欠陥に対する等級をB+等級(例えば、上記の表1のB+等級)として決定してもよい。第3ディープラーニング評価モデル530は、B+等級に対応するスコア2を出力する。第3ディープラーニング評価モデル530は、側面イメージ(又は、コーナーイメージ)を介して電子機器の側面(又は、コーナー)がきれいなものと予測した場合、電子機器の側面(又は、コーナー)の欠陥に対する等級をA等級(例えば、上記の表1のA等級)として決定してもよい。第3ディープラーニング評価モデル530は、A等級に対応するスコア1を出力する。 The third deep learning evaluation model 530 may determine a grade of the defect of the side (or corner) based on the third mask. For example, if the third deep learning evaluation model 530 predicts that the first side (or first corner) of the electronic device is scratched through the side image (or corner image), the third deep learning evaluation model 530 may determine the grade of the defect of the side (or corner) of the electronic device as a B+ grade (e.g., the B+ grade in Table 1 above). The third deep learning evaluation model 530 outputs a score 2 corresponding to the B+ grade. If the third deep learning evaluation model 530 predicts that the side (or corner) of the electronic device is clean through the side image (or corner image), the third deep learning evaluation model 530 may determine the grade of the defect of the side (or corner) of the electronic device as an A grade (e.g., the A grade in Table 1 above). The third deep learning evaluation model 530 outputs a score 1 corresponding to the A grade.

第4ディープラーニング評価モデル540は、電子機器に画面イメージ(例えば、単色の画面イメージ)が入力される。第4ディープラーニング評価モデル540は、画面イメージを介して電子機器の画面の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第4マスクを生成することができる。例えば、第4ディープラーニング評価モデル540は、画面イメージにイメージセグメンテーションを実行し、画面イメージのピクセルそれぞれを第4クラスのいずれか1つに分類し、このような分類を通じて第4マスクを生成することができる。以下の表5は、第4クラスの例示を示す。 The fourth deep learning evaluation model 540 receives a screen image (e.g., a monochrome screen image) input to the electronic device. The fourth deep learning evaluation model 540 may generate a fourth mask that predicts a defect state (e.g., at least one of a defect position, a defect type, and a defect degree) of the screen of the electronic device through the screen image. For example, the fourth deep learning evaluation model 540 may perform image segmentation on the screen image to classify each pixel of the screen image into one of the fourth classes, and generate a fourth mask through such classification. Table 5 below shows examples of the fourth classes.

Figure 2024546819000006
Figure 2024546819000006

第4ディープラーニング評価モデル540は、第4マスクに基づいて電子機器の画面の欠陥に対する等級を決定することができる。例えば、第4ディープラーニング評価モデル540は、画面イメージを介して電子機器の画面に白化3つ以上、画面の線、黒点、銃弾破損のうち少なくとも1つがあるものと予測した場合、電子機器の画面の欠陥の等級をD等級(例えば、上記の表1のD等級)として決定してもよい。第4ディープラーニング評価モデル540は、D等級に対応するスコア7を出力する。第4ディープラーニング評価モデル540は、画面イメージを介して電子機器の画面にLCD級の残像及びLCD級の白化のうち少なくとも1つがあるものと予測した場合、電子機器の画面の欠陥の等級をDL等級(例えば、上記の表1のDL等級)として決定してもよい。第4ディープラーニング評価モデル540は、DL等級に対応するスコア6を出力する。第4ディープラーニング評価モデル540は、画面イメージを介して電子機器の画面に強い残像及び白化2つ以下のうち少なくとも1つがあるものと予測した場合、電子機器の画面の欠陥に対する等級をCL等級(例えば、上記の表1のCL等級)として決定してもよい。第4ディープラーニング評価モデル540は、CL等級に対応するスコア4を出力する。第4ディープラーニング評価モデル540は、画面イメージを介して電子機器の画面に中間残像があるものと予測した場合、電子機器の画面の欠陥の等級をB等級(例えば、上記の表1のB等級)として決定してもよい。第4ディープラーニング評価モデル540は、B等級に対応するスコア3を出力する。第4ディープラーニング評価モデル540は、画面イメージを介して電子機器の画面がきれいなものと予測した場合、電子機器の画面の欠陥の等級をA等級(例えば、上記の表1のA等級)として決定してもよい。第4ディープラーニング評価モデル540は、A等級に対応するスコア1を出力する。 The fourth deep learning evaluation model 540 may determine a grade for the defect of the screen of the electronic device based on the fourth mask. For example, if the fourth deep learning evaluation model 540 predicts that the screen of the electronic device has at least one of three or more white spots, screen lines, black spots, and bullet damage through the screen image, the grade of the defect of the screen of the electronic device may be determined as a D grade (e.g., the D grade in Table 1 above). The fourth deep learning evaluation model 540 outputs a score 7 corresponding to the D grade. If the fourth deep learning evaluation model 540 predicts that the screen of the electronic device has at least one of LCD-grade image retention and LCD-grade white spots through the screen image, the grade of the defect of the screen of the electronic device may be determined as a DL grade (e.g., the DL grade in Table 1 above). The fourth deep learning evaluation model 540 outputs a score 6 corresponding to the DL grade. The fourth deep learning evaluation model 540 may determine a grade for the defect of the screen of the electronic device as a CL grade (e.g., CL grade in Table 1 above) when predicting that at least one of two or less of strong afterimage and whitening is present on the screen of the electronic device through the screen image. The fourth deep learning evaluation model 540 outputs a score 4 corresponding to the CL grade. When the fourth deep learning evaluation model 540 predicts that there is an intermediate afterimage on the screen of the electronic device through the screen image, it may determine a grade for the defect of the screen of the electronic device as a B grade (e.g., B grade in Table 1 above). The fourth deep learning evaluation model 540 outputs a score 3 corresponding to the B grade. When the fourth deep learning evaluation model 540 predicts that the screen of the electronic device is clean through the screen image, it may determine a grade for the defect of the screen of the electronic device as an A grade (e.g., A grade in Table 1 above). The fourth deep learning evaluation model 540 outputs a score 1 corresponding to the A grade.

図3に戻り、価値決定モジュール330は、電子機器の外観状態評価の結果及び/又は電子機器の内部状態評価の結果に基づいて電子機器の価値を決定することができる。 Returning to FIG. 3, the value determination module 330 can determine the value of the electronic device based on the results of the external condition assessment of the electronic device and/or the results of the internal condition assessment of the electronic device.

一実施形態において、価値決定モジュール330は、第1~第4ディープラーニング評価モデル510~540それぞれによって決定された等級のうち、最小等級を電子機器の外観状態に対する最終等級として決定することができる。等級Aが最も高くて等級B+は等級Aよりも低く、等級Bよりも高い。等級CLは、等級Bより低く等級Cよりも高い。等級Dが最も低い。一例として、第1ディープラーニング評価モデル510により決定された等級がC等級であり、第2ディープラーニング評価モデル520によって決定された等級がB+等級であり、第3ディープラーニング評価モデル530によって決定された等級がC等級であり、第4ディープラーニング評価モデル540によって決定された等級がCL等級である。第1~第4ディープラーニング評価モデル510~540それぞれによって決定された等級のうち、第1ディープラーニング評価モデル510によって決定されたC等級が最小等級であり、価値決定モジュール330は、電子機器の外観状態に対する最終等級をC等級として決定してもよい。実施形態により、等級が低いほど、第1~第4ディープラーニング評価モデル510~540それぞれによって出力されるスコアは高い。価値決定モジュール330は、第1~第4ディープラーニング評価モデル510~540それぞれによって出力されたスコアのうち、最大スコアを電子機器の外観評価に対する最終スコアとして決定してもよい。 In one embodiment, the value determination module 330 may determine the minimum grade among the grades determined by each of the first to fourth deep learning evaluation models 510 to 540 as the final grade for the appearance condition of the electronic device. Grade A is the highest, and grade B+ is lower than grade A and higher than grade B. Grade CL is lower than grade B and higher than grade C. Grade D is the lowest. As an example, the grade determined by the first deep learning evaluation model 510 is grade C, the grade determined by the second deep learning evaluation model 520 is grade B+, the grade determined by the third deep learning evaluation model 530 is grade C, and the grade determined by the fourth deep learning evaluation model 540 is grade CL. Among the grades determined by each of the first to fourth deep learning evaluation models 510 to 540, the grade C determined by the first deep learning evaluation model 510 is the minimum grade, and the value determination module 330 may determine the final grade for the appearance condition of the electronic device as the grade C. According to an embodiment, the lower the grade, the higher the score output by each of the first to fourth deep learning evaluation models 510 to 540. The value determination module 330 may determine the maximum score among the scores output by each of the first to fourth deep learning evaluation models 510 to 540 as the final score for the appearance evaluation of the electronic device.

一実施形態において、価値決定モジュール330は、第1~第4ディープラーニング評価モデル510~540それぞれによって決定された等級(又は、スコア)に加重値を適用し、各加重値が適用された等級(又は、スコア)を用いて電子機器の外観状態に対する最終等級(又は、最終スコア)を決定することができる。一例として、価値決定モジュール330は、第1ディープラーニング評価モデル510によって決定された等級(又は、スコア)に第1加重値を適用し、第2ディープラーニング評価モデル520によって決定された等級(又は、スコア)に第2加重値を適用し、第3ディープラーニング評価モデル530によって決定された等級(又は、スコア)に第3加重値を適用し、第4ディープラーニング評価モデル540によって決定された等級に第4加重値を適用してもよい。ここで、第1加重値~第4加重値それぞれは、0よりも大きくて1よりも小さい。価値決定モジュール330は、第1~第4加重値それぞれが適用された等級(又は、スコア)を合算して、電子機器の外観状態に対する最終等級(又は、最終スコア)を決定することができる。 In one embodiment, the value determination module 330 may apply weights to the grades (or scores) determined by each of the first to fourth deep learning evaluation models 510 to 540, and determine a final grade (or final score) for the appearance condition of the electronic device using the grades (or scores) to which each weight is applied. As an example, the value determination module 330 may apply a first weight to the grade (or score) determined by the first deep learning evaluation model 510, apply a second weight to the grade (or score) determined by the second deep learning evaluation model 520, apply a third weight to the grade (or score) determined by the third deep learning evaluation model 530, and apply a fourth weight to the grade determined by the fourth deep learning evaluation model 540. Here, each of the first to fourth weights is greater than 0 and less than 1. The value determination module 330 can sum the grades (or scores) to which the first to fourth weighting values are applied to determine a final grade (or final score) for the appearance condition of the electronic device.

価値決定モジュール330は、電子機器の外観状態評価の結果(例えば、電子機器の外観状態に対する最終等級(又は、最終スコア))に基づいて第1金額を決定し、電子機器の内部状態評価の結果に基づいて第2金額を決定する。価値決定モジュール330は、電子機器の基準価格(例えば、電子機器と同じ種類の電子機器の最も高い中古価格)から第1金額と第2金額を差し引いて電子機器の価格を算出することができる、一例として、価値決定モジュール330は、中古相場のデータベースに連動して電子機器の基準価格を取得してもよい。価値決定モジュール330は、外観状態の等級と金額が互いにマッピングされた第1テーブルから、電子機器の外観状態に対する最終等級とマッピングされた第1金額を取得できる。価値決定モジュール330は、内部状態の等級と金額が互いにマッピングされた第2テーブルから、電子機器の内部状態評価の結果とマッピングされた第2金額を取得できる。価値決定モジュール330は、基準金額から第1金額及び第2金額を差し引いて電子機器の価格を算出することができる。 The value determination module 330 determines a first amount based on the result of the appearance condition evaluation of the electronic device (e.g., the final grade (or final score) for the appearance condition of the electronic device) and determines a second amount based on the result of the internal condition evaluation of the electronic device. The value determination module 330 can calculate the price of the electronic device by subtracting the first amount and the second amount from the reference price of the electronic device (e.g., the highest used price of an electronic device of the same type as the electronic device). As an example, the value determination module 330 may obtain the reference price of the electronic device in conjunction with a database of used market prices. The value determination module 330 can obtain a first amount mapped to the final grade for the appearance condition of the electronic device from a first table in which the grade of the appearance condition and the amount are mapped to each other. The value determination module 330 can obtain a second amount mapped to the result of the internal condition evaluation of the electronic device from a second table in which the grade of the internal condition and the amount are mapped to each other. The value determination module 330 can calculate the price of the electronic device by subtracting the first amount and the second amount from the reference amount.

価値決定モジュール330は、図1に示された例の場合、無人買取装置110に電子機器の価値(例えば、価格)を送信することができる。無人買取装置110は、ディスプレイを介して電子機器の価値(例えば、価格)をユーザに見せることができる。 In the example shown in FIG. 1, the value determination module 330 can transmit the value (e.g., price) of the electronic device to the unmanned purchase device 110. The unmanned purchase device 110 can display the value (e.g., price) of the electronic device to the user via a display.

価値決定モジュール330は、図2に示された例の場合、無人買取装置110のディスプレイに電子機器の価値(例えば、価格)を表示することができる。 In the example shown in FIG. 2, the value determination module 330 can display the value (e.g., price) of the electronic device on the display of the unmanned purchase device 110.

一実施形態において、電子機器価値評価装置130は、前処理モジュールを含む。前処理モジュールは、イメージ(例えば、前面イメージ、後面イメージ、側面イメージ、画面イメージ)それぞれに欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断する。ここで、オブジェクトは、電子機器の画面上のフローティングアイコンに対応するオブジェクト、電子機器に付着したステッカーに対応するオブジェクト、及び電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含んでもよい。フローティングアイコンに対応するオブジェクトは、電子機器の画面上のフローティングアイコンが撮影されることによってイメージに含まれているオブジェクトを示す。電子機器に付着したステッカーに対応するオブジェクトは、電子機器に付着したステッカーが撮影されることによりイメージに含まれているオブジェクトを示す。電子機器についている異物に対応するオブジェクトは、電子機器についている異物が撮影されることによりイメージに含まれたオブジェクトを示す。フローティングアイコンは、例えば、補助タッチ(assistive touch)のフローティングアイコン、特定のタスクをトリガーするためのフローティングアイコンなどを含むが、これに制限されることはない。 In one embodiment, the electronic device value assessment device 130 includes a pre-processing module. The pre-processing module determines whether each of the images (e.g., a front image, a rear image, a side image, and a screen image) includes one or more objects that are erroneously recognized as defects. Here, the objects may include at least one of an object corresponding to a floating icon on the screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device. The object corresponding to the floating icon indicates an object included in the image by photographing the floating icon on the screen of the electronic device. The object corresponding to the sticker attached to the electronic device indicates an object included in the image by photographing the sticker attached to the electronic device. The object corresponding to the foreign object attached to the electronic device indicates an object included in the image by photographing the foreign object attached to the electronic device. The floating icon includes, for example, a floating icon for assistive touch, a floating icon for triggering a specific task, and the like, but is not limited thereto.

前処理モジュールは、欠陥として誤認されるオブジェクトが含まれているイメージがある場合、オブジェクトに対する処理を行うことができる。一例として、前処理モジュールは、オブジェクトにマスキング(masking)処理を行ってもよいが、これに制限されることはない。外観状態評価モジュール320は、オブジェクトが処理されたイメージ、オブジェクトが含まれていない残りのイメージ、及びディープラーニング評価モデル510~540に基づいて外観状態評価を行ってもよい。外観状態評価モジュール320は、ディープラーニング評価モデル510~540を介してオブジェクトが処理されたイメージ及びオブジェクトが含まれていない残りのイメージから電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、生成された各マスクに基づいて評価領域それぞれの欠陥に対する等級を決定し、決定された各等級を介して電子機器の外観状態に対する最終等級を決定することができる。 If an image includes an object that is erroneously recognized as a defect, the pre-processing module may process the object. As an example, the pre-processing module may perform a masking process on the object, but is not limited thereto. The appearance condition evaluation module 320 may perform an appearance condition evaluation based on the image in which the object has been processed, the remaining image in which the object is not included, and the deep learning evaluation models 510 to 540. The appearance condition evaluation module 320 may generate masks that predict the defect state of each evaluation area of the electronic device from the image in which the object has been processed and the remaining image in which the object is not included through the deep learning evaluation models 510 to 540, determine a grade for the defect of each evaluation area based on each generated mask, and determine a final grade for the appearance condition of the electronic device based on each determined grade.

前処理モジュールは、電子機器を撮影して取得されたイメージのうち上述したオブジェクトが含まれているイメージがないものと判断することができる。この場合、上述したように、外観状態評価モジュール320は、イメージとディープラーニング評価モデル510~540に基づいて外観状態評価を行うことができる。 The pre-processing module may determine that none of the images captured by photographing the electronic device contain the above-mentioned objects. In this case, as described above, the appearance condition evaluation module 320 may perform an appearance condition evaluation based on the images and the deep learning evaluation models 510 to 540.

前処理モジュールは、電子機器を撮影して取得されたイメージのうち、ディープラーニング評価モデルのうちの1つ以上が分析できないほどのイメージ(以下、「モデル分析不可イメージ」に示す)があるか否かを判断する。一例として、前処理モジュールは、電子機器を撮影して取得されたイメージのうち、光の反射が一定のレベル以上に存在するイメージ、カメラの焦点が合わないイメージなどをモデル分析不可イメージとして決定してもよい。前処理モジュールは、モデル分析不可イメージがある場合、運営者に電子機器の外観状態評価を要求することができる。 The pre-processing module determines whether any of the images obtained by photographing the electronic device are images that cannot be analyzed by one or more of the deep learning evaluation models (hereinafter referred to as "images that cannot be analyzed by model"). As an example, the pre-processing module may determine that any of the images obtained by photographing the electronic device are images that have a certain level of light reflection or an image where the camera is not in focus, as images that cannot be analyzed by model. If any of the images cannot be analyzed by model, the pre-processing module may request the operator to evaluate the appearance condition of the electronic device.

一実施形態において、電子機器価値評価装置130は、バー(bar)タイプの電子機器の価値を評価することができる。この場合、前述したように、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、バータイプの電子機器を撮影して取得された複数のイメージ及び第1~第4ディープラーニング評価モデル510~540に基づいて、バータイプの電子機器に対する外観状態評価を行うことができる。 In one embodiment, the electronic device value assessment device 130 may assess the value of a bar-type electronic device. In this case, as described above, the electronic device value assessment device 130 (or the appearance condition assessment module 320) may perform an appearance condition assessment of the bar-type electronic device based on a plurality of images acquired by photographing the bar-type electronic device and the first to fourth deep learning assessment models 510 to 540.

電子機器価値評価装置130は、形態が変更可能な電子機器(例えば、フォルダブル、ローラブル等)の価値を評価することができる。形態が変更可能な電子機器は、第1形態(例えば、アンフォールド(unfolded)形態、又は、縮小(contraction)形態を有してもよく、操作によって第2形態(例えば、折り畳み(folded)形態又は拡張(expansion)形態)に変更してもよい。一例として、、フォルダブル電子機器は、アンフォールド形態であってもよく、操作に応じて、形態が折り畳まれた形態に変更されてもよい。ローラーブル電子機器は縮小形態であってもよく、操作に応じて、形態が拡張形態に変更されてもよい。縮小形態は、ローラブルディスプレイが機器内にロールイン(roll in)される状態を示し、拡張形態は、ローラブルディスプレイが機器からロールアウト(roll out)される状態を示す。 The electronic device value evaluation device 130 can evaluate the value of an electronic device whose shape can be changed (e.g., foldable, rollable, etc.). The electronic device whose shape can be changed may have a first shape (e.g., an unfolded shape or a contraction shape) and may be changed to a second shape (e.g., a folded shape or an expansion shape) by an operation. As an example, a foldable electronic device may be in an unfolded shape and may be changed to a folded shape in response to an operation. A rollable electronic device may be in a contracted shape and may be changed to an expanded shape in response to an operation. The contracted shape indicates a state in which the rollable display is rolled in to the device, and the expanded shape indicates a state in which the rollable display is rolled out from the device.

例えば、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、アンフォールド形態にあるフォルダブル電子機器を撮影して取得した複数のイメージ、及び第1~第4ディープラーニング評価モデル510~540に基づいてアンフォールド形態にあるフォルダブル電子機器の各評価領域の欠陥の等級を決定してもよい。 For example, the electronic device value assessment device 130 (or the appearance condition assessment module 320) may determine a defect grade for each assessment area of the foldable electronic device in the unfolded state based on multiple images acquired by photographing the foldable electronic device in the unfolded state and the first to fourth deep learning assessment models 510 to 540.

無人買取装置110は、撮影ボックス内にあるフォルダブル電子機器をアンフォールド形態から折り畳まれた形態に変更することができる。又は、無人買取装置110は、ユーザにフォルダブル電子機器をアンフォールド形態から折り畳まれた形態に変更した後、折り畳まれた形態にある電子機器を無人買取装置110に再投入することを要求してもよい。フォルダブル電子機器がアンフォールド形態から折り畳まれた形態に変更されれば、折り畳まれた部分が側面を形成し、フォルダブル電子機器のサブ画面が活性化される。無人買取装置110は、撮影ボックス内の複数の第3カメラのうちの1つ以上を介して、フォルダブル電子機器の折り畳まれた部分に該当する側面を撮影することで、イメージ(以下、折り畳まれた側面のイメージ)を取得できる。無人買取装置110は、撮影ボックス内の第1カメラを介してフォルダブル電子機器のサブ画面を撮影することによってイメージ(以下、サブ画面イメージ)を取得できる。 The unmanned purchase device 110 may change the foldable electronic device in the photography box from an unfolded form to a folded form. Alternatively, the unmanned purchase device 110 may request the user to change the foldable electronic device from an unfolded form to a folded form and then re-insert the folded electronic device into the unmanned purchase device 110. When the foldable electronic device is changed from an unfolded form to a folded form, the folded part forms a side and the sub-screen of the foldable electronic device is activated. The unmanned purchase device 110 may obtain an image (hereinafter, an image of the folded side) by photographing the side corresponding to the folded part of the foldable electronic device through one or more of the multiple third cameras in the photography box. The unmanned purchase device 110 may obtain an image (hereinafter, a sub-screen image) by photographing the sub-screen of the foldable electronic device through the first camera in the photography box.

電子機器価値評価装置130(又は、外観状態評価モジュール320)は、折り畳まれた側面のイメージと第5ディープラーニング評価モデルに基づいて、フォルダブル電子機器の第5評価領域(例えば、折り畳まれた部分に該当する側面)を評価することができる。ここで、第5ディープラーニング評価モデルは、フォルダブル電子機器の第5評価領域の欠陥を検出し、検出された欠陥(又は、第5評価領域)の等級を決定するディープラーニング評価モデルであってもよい。一例として、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、折り畳まれた側面のイメージを第5ディープラーニング評価モデルに入力してもよい。第5ディープラーニング評価モデルは、折り畳まれた側面のイメージを介してフォルダブル電子機器の第5評価領域の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第5マスクを生成する。第5ディープラーニング評価モデルは、第5マスクに基づいてフォルダブル電子機器の第5評価領域の欠陥に対する等級を決定することができる。 The electronic device value assessment device 130 (or the appearance state assessment module 320) may assess the fifth assessment area (e.g., the side corresponding to the folded portion) of the foldable electronic device based on the image of the folded side and the fifth deep learning assessment model. Here, the fifth deep learning assessment model may be a deep learning assessment model that detects defects in the fifth assessment area of the foldable electronic device and determines a grade of the detected defects (or the fifth assessment area). As an example, the electronic device value assessment device 130 (or the appearance state assessment module 320) may input the image of the folded side to the fifth deep learning assessment model. The fifth deep learning assessment model generates a fifth mask that predicts the defect state (e.g., at least one of the defect position, defect type, and defect degree) of the fifth assessment area of the foldable electronic device through the image of the folded side. The fifth deep learning assessment model may determine a grade for the defect in the fifth assessment area of the foldable electronic device based on the fifth mask.

電子機器価値評価装置130(又は、外観状態評価モジュール320)は、サブ画面イメージと第6ディープラーニング評価モデルに基づいて、フォルダブル電子機器の第6評価領域(例えば、サブ画面)を評価することができる。ここで、第6ディープラーニング評価モデルは、フォルダブル電子機器の第6評価領域の欠陥を検出し、検出された欠陥(又は、第6評価領域)の等級を決定するディープラーニング評価モデルであってもよい。一例として、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、サブ画面イメージを第6ディープラーニング評価モデルに入力してもよい。第6ディープラーニング評価モデルは、サブ画面イメージを介してフォルダブル電子機器の第6評価領域の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第6マスクを生成する。第6ディープラーニング評価モデルは、第6マスクに基づいてフォルダブル電子機器の第6評価領域の欠陥に対する等級を決定してもよい。実施形態により、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、サブ画面イメージと上記で説明した第4ディープラーニング評価モデル540に基づいて、電子機器の第6評価領域(例えば、サブ画面)の欠陥の等級を決定することができる。 The electronic device value assessment device 130 (or the appearance state assessment module 320) may assess the sixth assessment area (e.g., the sub-screen) of the foldable electronic device based on the sub-screen image and the sixth deep learning assessment model. Here, the sixth deep learning assessment model may be a deep learning assessment model that detects defects in the sixth assessment area of the foldable electronic device and determines a grade of the detected defects (or the sixth assessment area). As an example, the electronic device value assessment device 130 (or the appearance state assessment module 320) may input the sub-screen image to the sixth deep learning assessment model. The sixth deep learning assessment model generates a sixth mask that predicts the defect state (e.g., at least one of the defect position, defect type, and defect degree) of the sixth assessment area of the foldable electronic device via the sub-screen image. The sixth deep learning assessment model may determine a grade for the defect in the sixth assessment area of the foldable electronic device based on the sixth mask. According to an embodiment, the electronic device value assessment device 130 (or the appearance condition assessment module 320) can determine a defect grade for the sixth assessment area (e.g., the sub-screen) of the electronic device based on the sub-screen image and the fourth deep learning assessment model 540 described above.

電子機器価値評価装置130(又は、価値決定モジュール330)は、フォルダブル電子機器の外観状態評価の結果(例えば、第1~第6ディープラーニング評価モデルそれぞれによって決定された等級)及び/又はフォルダブル電子機器の内部状態評価の結果に基づいて、フォルダブル電子機器の価値を決定することができる。 The electronic device value assessment device 130 (or the value determination module 330) can determine the value of the foldable electronic device based on the results of the appearance condition assessment of the foldable electronic device (e.g., the grades determined by each of the first to sixth deep learning assessment models) and/or the results of the internal condition assessment of the foldable electronic device.

異なる例として、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、縮小形態のローラブル電子機器を撮影して取得した複数のイメージ及び第1~第4ディープラーニング評価モデル510~540に基づいて、縮小形態のローラブル電子機器の各評価領域の欠陥の等級を決定してもよい。 As another example, the electronic device value assessment device 130 (or the appearance condition assessment module 320) may determine a defect grade for each assessment area of the reduced-size rollable electronic device based on multiple images acquired by photographing the reduced-size rollable electronic device and the first to fourth deep learning assessment models 510 to 540.

無人買取装置110は、撮影ボックス内にあるローラブル電子機器を縮小形態から拡張形態に変更してもよい。又は、無人買取装置110は、ユーザにローラブル電子機器を縮小形態から拡張形態に変更した後、拡張形態にある電子機器を無人買取装置110に再投入することを要求してもよい。ローラブル電子機器が縮小形態から拡張形態に変更されれば、画面と側面が拡張され得る。無人買取装置110は、撮影ボックス内の複数の第3カメラのうちの1つ以上を介して拡張された側面を撮影することで、イメージ(以下、拡張された側面のイメージ)を取得することができる。無人買取装置110は、撮影ボックス内の第1カメラを介して電子機器の拡張された画面を撮影することで、イメージ(以下、拡張された画面のイメージ)を取得することができる。 The unmanned purchase device 110 may change the rollable electronic device in the photography box from a reduced form to an expanded form. Alternatively, the unmanned purchase device 110 may request the user to change the rollable electronic device from the reduced form to the expanded form and then re-insert the electronic device in the expanded form into the unmanned purchase device 110. When the rollable electronic device is changed from the reduced form to the expanded form, the screen and sides may be expanded. The unmanned purchase device 110 may obtain an image (hereinafter, an image of the expanded side) by photographing the expanded side through one or more of the multiple third cameras in the photography box. The unmanned purchase device 110 may obtain an image (hereinafter, an image of the expanded screen) by photographing the expanded screen of the electronic device through the first camera in the photography box.

電子機器価値評価装置130(又は、外観状態評価モジュール320)は、拡張された側面のイメージと第7ディープラーニング評価モデルに基づいてローラブル電子機器の第7評価領域(例えば、拡張された側面)を評価することができる。ここで、第7ディープラーニング評価モデルは、ローラブル電子機器の第7評価領域の欠陥を検出し、検出された欠陥(又は、第7評価領域)の等級を決定するディープラーニング評価モデルであってもよい。一例として、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、拡張された側面のイメージを第7ディープラーニング評価モデルに入力してもよい。第7ディープラーニング評価モデルは、拡張された側面のイメージを介してローラブル電子機器の第7評価領域の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第7マスクを生成する。第7ディープラーニング評価モデルは、第7マスクに基づいてローラブル電子機器の第7評価領域の欠陥に対する等級を決定してもよい。実施形態により、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、拡張された側面のイメージと第3ディープラーニング評価モデル530に基づいて、ローラブル電子機器の第7評価領域(例えば、拡張された側面)を評価することができる。 The electronic device value assessment device 130 (or the appearance condition assessment module 320) may assess the seventh assessment region (e.g., the extended side) of the rollable electronic device based on the extended side image and the seventh deep learning assessment model. Here, the seventh deep learning assessment model may be a deep learning assessment model that detects defects in the seventh assessment region of the rollable electronic device and determines a grade of the detected defects (or the seventh assessment region). As an example, the electronic device value assessment device 130 (or the appearance condition assessment module 320) may input the extended side image to the seventh deep learning assessment model. The seventh deep learning assessment model generates a seventh mask that predicts the defect state (e.g., at least one of the defect position, defect type, and defect degree) of the seventh assessment region of the rollable electronic device through the extended side image. The seventh deep learning assessment model may determine a grade for the defect in the seventh assessment region of the rollable electronic device based on the seventh mask. According to an embodiment, the electronic device value assessment device 130 (or the appearance condition assessment module 320) can assess a seventh assessment area (e.g., the extended side) of the rollable electronic device based on the image of the extended side and the third deep learning assessment model 530.

電子機器価値評価装置130(又は、外観状態評価モジュール320)は、拡張された画面のイメージと第4ディープラーニング評価モデル540に基づいて、ローラブル電子機器の第8評価領域(例えば、拡張された画面)を評価することができる。一例として、電子機器価値評価装置130(又は、外観状態評価モジュール320)は、拡張された画面のイメージを第4ディープラーニング評価モデル540に入力してもよい。上述したように、第4ディープラーニング評価モデル540は、与えられた画面イメージで画面の欠陥状態を予測したマスクを生成し、生成されたマスクに基づいて画面の欠陥の等級を決定するディープラーニング評価モデルであってもよい。第4ディープラーニング評価モデル540は、拡張された画面のイメージを介してローラブル電子機器の第8評価領域の欠陥状態(例えば、欠陥位置、欠陥種類、及び欠陥程度のうち少なくとも1つ)を予測した第8マスクを生成する。第4ディープラーニング評価モデル540は、第8マスクに基づいて、ローラブル電子機器の第8評価領域の欠陥に対する等級を決定することができる。 The electronic device value assessment device 130 (or the appearance state assessment module 320) may assess the eighth assessment region (e.g., the extended screen) of the rollable electronic device based on the image of the extended screen and the fourth deep learning assessment model 540. As an example, the electronic device value assessment device 130 (or the appearance state assessment module 320) may input the image of the extended screen to the fourth deep learning assessment model 540. As described above, the fourth deep learning assessment model 540 may be a deep learning assessment model that generates a mask predicting a defect state of the screen in a given screen image and determines a grade of the defect of the screen based on the generated mask. The fourth deep learning assessment model 540 generates an eighth mask predicting a defect state (e.g., at least one of a defect position, a defect type, and a defect degree) of the eighth assessment region of the rollable electronic device through the image of the extended screen. The fourth deep learning assessment model 540 may determine a grade for the defect of the eighth assessment region of the rollable electronic device based on the eighth mask.

電子機器価値評価装置130(又は、価値決定モジュール330)は、ローラブル電子機器の外観状態評価の結果(例えば、第1~第4ディープラーニング評価モデル及び第7ディープラーニング評価モデルそれぞれによって決定された等級)及び/又はローラブル電子機器の内部状態評価の結果に基づいて、ローラブル電子機器の価値を決定することができる。 The electronic device value evaluation device 130 (or the value determination module 330) can determine the value of the rollable electronic device based on the results of the appearance condition evaluation of the rollable electronic device (e.g., the grades determined by each of the first to fourth deep learning evaluation models and the seventh deep learning evaluation model) and/or the results of the internal condition evaluation of the rollable electronic device.

一実施形態において、無人買取装置110は、ユーザからウェアラブル機器(例えば、スマートウォッチ)が投入されることができる。電子機器価値評価装置130は、ウェアラブル機器の外観(例えば、前面、後面、側面、画面)を評価できるディープラーニング評価モデルを格納する。電子機器価値評価装置130は、ウェアラブル機器を撮影して取得したイメージ及びディープラーニング評価モデルに基づいて、ウェアラブル機器に対する外観状態評価を行うことができる。電子機器価値評価装置130は、ウェアラブル機器の外観状態評価の結果及びウェアラブル機器の内部状態評価の結果に基づいてウェアラブル機器の価値を決定することができる。 In one embodiment, a user can insert a wearable device (e.g., a smart watch) into the unmanned buy-back device 110. The electronic device value assessment device 130 stores a deep learning assessment model that can assess the appearance (e.g., front, back, side, screen) of the wearable device. The electronic device value assessment device 130 can evaluate the appearance state of the wearable device based on an image acquired by photographing the wearable device and the deep learning assessment model. The electronic device value assessment device 130 can determine the value of the wearable device based on the results of the appearance state assessment of the wearable device and the results of the internal state assessment of the wearable device.

図7は、一実施形態に係る電子機器価値評価方法を説明するフローチャートである。 Figure 7 is a flowchart illustrating an electronic device value evaluation method according to one embodiment.

図7を参照すると、ステップ710において、電子機器価値評価装置130は、電子機器を撮影して取得された複数のイメージ及び複数のディープラーニング評価モデルに基づいて、電子機器に対する外観状態評価を行う。電子機器価値評価装置130は、ディープラーニング評価モデル510~540を介してイメージから電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、生成された各マスクに基づいて電子機器の評価領域それぞれの欠陥に対する等級を決定することができる。電子機器価値評価装置130は、決定された各等級を介して電子機器の外観状態に対する最終等級を決定できる。 Referring to FIG. 7, in step 710, the electronic device value assessment device 130 performs an appearance condition assessment for the electronic device based on a plurality of images acquired by photographing the electronic device and a plurality of deep learning assessment models. The electronic device value assessment device 130 can generate masks predicting the defect state of each evaluation area of the electronic device from the image via the deep learning assessment models 510 to 540, and determine a grade for the defect of each evaluation area of the electronic device based on each generated mask. The electronic device value assessment device 130 can determine a final grade for the appearance condition of the electronic device based on each determined grade.

一実施形態において、電子機器の形態が変更されることができる。上述したように、電子機器価値評価装置130は、電子機器を第1形態(例えば、アンフォールド形態又は縮小形態)から第2形態(例えば、折り畳まれた形態又は拡張形態)に変更されてもよい。又は、電子機器価値評価装置130は、ユーザに電子機器を第1形態から第2形態に変更した後、第2形態の電子機器を無人買取装置110に再投入することを要求してもよい。電子機器価値評価装置130は、電子機器の形態が変更された場合、ディープラーニング評価モデル510~540以外の追加ディープラーニング評価モデル(例えば、上記で説明した第5ディープラーニング評価モデル、第6ディープラーニング評価モデル、及び第7ディープラーニング評価モデルのうち少なくとも1つ)を介して、電子機器の変更された形態が撮影されて取得されたイメージから電子機器の変更された形態の評価領域の欠陥状態を予測したマスク(例えば、上記で説明した第5マスク、第6マスク、及び第7マスクのうち少なくとも1つ)を生成してもよい。電子機器価値評価装置130は、変更された形態の評価領域の欠陥状態を予測したマスクに基づいて、電子機器の変更された形態の評価領域の欠陥に対する等級を決定することができる。 In one embodiment, the shape of the electronic device may be changed. As described above, the electronic device value assessment device 130 may change the electronic device from a first form (e.g., an unfolded form or a contracted form) to a second form (e.g., a folded form or an extended form). Alternatively, the electronic device value assessment device 130 may request the user to change the electronic device from the first form to the second form and then re-input the electronic device in the second form into the unmanned buy-back device 110. When the shape of the electronic device is changed, the electronic device value assessment device 130 may generate a mask (e.g., at least one of the fifth mask, the sixth mask, and the seventh mask described above) that predicts a defect state of the evaluation area of the changed shape of the electronic device from an image obtained by photographing the changed shape of the electronic device through an additional deep learning evaluation model other than the deep learning evaluation models 510 to 540 (e.g., at least one of the fifth deep learning evaluation model, the sixth deep learning evaluation model, and the seventh deep learning evaluation model described above). The electronic device value assessment device 130 can determine a grade for defects in the evaluation area of the modified form of the electronic device based on the mask that predicts the defect state of the evaluation area of the modified form.

上述した第5~第7ディープラーニング評価モデルそれぞれは、与えられた入力イメージにイメージセグメンテーションを行うことができる。 Each of the fifth to seventh deep learning evaluation models described above can perform image segmentation on a given input image.

ステップ720において、電子機器価値評価装置130は、電子機器の外観状態評価の結果及び電子機器の内部状態評価の結果に基づいて、電子機器の価値を決定する。 In step 720, the electronic device value assessment device 130 determines the value of the electronic device based on the results of the external appearance assessment and the results of the internal condition assessment of the electronic device.

図1~図6を参照して説明した事項は、図7に示す電子機器価値評価方法に適用されてもよい。 The matters described with reference to Figures 1 to 6 may be applied to the electronic device value evaluation method shown in Figure 7.

図8は、一実施形態に係るディープラーニングモデルをトレーニングするコンピューティング装置の構成を説明するブロック図である。 Figure 8 is a block diagram illustrating the configuration of a computing device for training a deep learning model according to one embodiment.

図8を参照すると、ディープラーニングモデルをトレーニングするコンピューティング装置800は、メモリ810及びプロセッサ820を含む。 Referring to FIG. 8, a computing device 800 for training a deep learning model includes a memory 810 and a processor 820.

メモリ810は、1つ以上のディープラーニングモデルを格納する。ディープラーニングモデルは、図4を参照して説明したディープニューラルネットワークに基盤する。ディープラーニングモデルは、与えられた入力イメージにイメージセグメンテーションを行うことができる。 The memory 810 stores one or more deep learning models. The deep learning models are based on the deep neural networks described with reference to FIG. 4. The deep learning models can perform image segmentation on a given input image.

プロセッサ820は、ディープラーニングモデルをトレーニングする。 The processor 820 trains the deep learning model.

プロセッサ820は、欠陥に対する学習イメージをディープラーニングモデルに入力し、ディープラーニングモデルを介して学習イメージから欠陥の状態を予測したマスクを生成することができる。 The processor 820 can input a learning image of the defect into a deep learning model and generate a mask that predicts the state of the defect from the learning image via the deep learning model.

プロセッサ820は、生成されたマスクと欠陥に対するレーベルマスク(labeled mask)の間の類似度を演算する。 The processor 820 calculates the similarity between the generated mask and a labeled mask for the defect.

図9A~図9Cに生成されたマスクとレーベルマスクそれぞれの一例が示されている。図9Aにおいて、ターゲットマスクはレーベルマスクを示し、予測マスクはディープラーニングモデルによって生成されたマスクを示す。 Figures 9A to 9C show examples of a generated mask and a Label mask, respectively. In Figure 9A, the target mask shows the Label mask, and the predicted mask shows the mask generated by the deep learning model.

プロセッサ820は、演算された類似度が閾値未満である場合、ディープラーニングモデル内の少なくとも1つのパラメータをアップデートすることができる。プロセッサ820は、演算された類似度が閾値以上である場合、ディープラーニングモデルに対するトレーニングを終了する。 The processor 820 may update at least one parameter in the deep learning model if the calculated similarity is less than the threshold. The processor 820 may terminate training for the deep learning model if the calculated similarity is greater than or equal to the threshold.

実施形態により、プロセッサ820は、第1学習イメージ(例えば、第1欠陥のある前面が撮影された前面イメージ)を第1ディープラーニングモデルに入力した場合、第1ディープラーニングモデルを用いて第1学習イメージから電子機器の前面の欠陥状態を予測した第1マスクを生成することができる。第1ディープラーニングモデルは、第1学習イメージにイメージセグメンテーションを行って第1学習イメージから電子機器の前面の欠陥状態を予測した第1マスクを生成する。プロセッサ820は、第1マスクと第1欠陥に対するレーベルマスクとの間の第1類似度を演算する。プロセッサ820は、演算された第1類似度が閾値未満である場合、第1ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第1類似度が閾値以上である場合、第1ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第1ディープラーニングモデルは、第1ディープラーニング評価モデル510として電子機器価値評価装置130に搭載され得る。 According to an embodiment, when the processor 820 inputs a first learning image (e.g., a front image in which a front surface having a first defect is captured) into the first deep learning model, the processor 820 can generate a first mask that predicts a defect state of the front surface of the electronic device from the first learning image using the first deep learning model. The first deep learning model performs image segmentation on the first learning image to generate a first mask that predicts a defect state of the front surface of the electronic device from the first learning image. The processor 820 calculates a first similarity between the first mask and a label mask for the first defect. If the calculated first similarity is less than a threshold, the processor 820 updates at least one parameter in the first deep learning model. If the calculated first similarity is equal to or greater than the threshold, the processor 820 terminates training for the first deep learning model. The first deep learning model for which training has been completed can be loaded into the electronic device value assessment device 130 as the first deep learning assessment model 510.

プロセッサ820は、第2学習イメージ(例えば、第2欠陥のある後面を撮影した後面イメージ)を第2ディープラーニングモデルに入力した場合、第2ディープラーニングモデルを用いて第2学習イメージから電子機器の後面の欠陥状態を予測した第2マスクを生成することができる。第2ディープラーニングモデルは、第2学習イメージにイメージセグメンテーションを行って第2学習イメージから電子機器の後面の欠陥状態を予測した第2マスクを生成する。プロセッサ820は、第2マスクと第2欠陥に対するレーベルマスクとの間の第2類似度を演算する。プロセッサ820は、演算された第2類似度が閾値未満である場合、第2ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第2類似度が閾値以上である場合、第2ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第2ディープラーニングモデルは、第2ディープラーニング評価モデル520として電子機器価値評価装置130に搭載され得る。 When the processor 820 inputs a second learning image (e.g., a rear image of a rear surface having a second defect) into the second deep learning model, the processor 820 can generate a second mask that predicts the defect state of the rear surface of the electronic device from the second learning image using the second deep learning model. The second deep learning model performs image segmentation on the second learning image to generate a second mask that predicts the defect state of the rear surface of the electronic device from the second learning image. The processor 820 calculates a second similarity between the second mask and a label mask for the second defect. If the calculated second similarity is less than a threshold, the processor 820 updates at least one parameter in the second deep learning model. If the calculated second similarity is equal to or greater than the threshold, the processor 820 terminates training for the second deep learning model. The second deep learning model for which training has been completed can be installed in the electronic device value assessment device 130 as the second deep learning assessment model 520.

プロセッサ820は、第3学習イメージ(例えば、第3欠陥のある側面(又は、コーナー)が撮影された側面(又は、コーナー)イメージ)を第3ディープラーニングモデルに入力した場合、第3ディープラーニングモデルを用いて第3学習イメージから電子機器の側面(又は、コーナー)の欠陥状態を予測した第3マスクを生成することができる。第3ディープラーニングモデルは、第3学習イメージにイメージセグメンテーションを行って第3学習イメージから電子機器の側面(又は、コーナー)の欠陥状態を予測した第3マスクを生成する。プロセッサ820は、第3マスクと第3欠陥に対するレーベルマスクとの間の第3類似度を演算する。プロセッサ820は、演算された第3類似度が閾値未満である場合、第3ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第3類似度が閾値以上である場合、第3ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第3ディープラーニングモデルは、第3ディープラーニング評価モデル530として電子機器価値評価装置130に搭載され得る。 When the processor 820 inputs a third learning image (e.g., a side (or corner) image in which a side (or corner) having a third defect is photographed) into the third deep learning model, the processor 820 can generate a third mask that predicts the defect state of the side (or corner) of the electronic device from the third learning image using the third deep learning model. The third deep learning model performs image segmentation on the third learning image to generate a third mask that predicts the defect state of the side (or corner) of the electronic device from the third learning image. The processor 820 calculates a third similarity between the third mask and a label mask for the third defect. If the calculated third similarity is less than a threshold, the processor 820 updates at least one parameter in the third deep learning model. If the calculated third similarity is equal to or greater than the threshold, the processor 820 terminates training for the third deep learning model. The third deep learning model for which training has been completed can be mounted in the electronic device value assessment device 130 as the third deep learning assessment model 530.

プロセッサ820は、第4学習イメージ(例えば、第4欠陥のある画面が撮影された画面イメージ)を第4ディープラーニングモデルに入力した場合、第4ディープラーニングモデルを用いて第4学習イメージから電子機器の画面の欠陥状態を予測した第4マスクを生成することができる。第4ディープラーニングモデルは、第4学習イメージにイメージセグメンテーションを行って第4学習イメージから電子機器の画面の欠陥状態を予測した第4マスクを生成する。プロセッサ820は、第4マスクと第4欠陥に対するレーベルマスクとの間の第4類似度を演算する。プロセッサ820は、演算された第4類似度が閾値未満である場合、第4ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第4類似度が閾値以上である場合、第4ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第4ディープラーニングモデルは、第4ディープラーニング評価モデル540として電子機器価値評価装置130に搭載され得る。 When the processor 820 inputs a fourth learning image (e.g., a screen image of a screen having a fourth defect) into the fourth deep learning model, the processor 820 can generate a fourth mask that predicts the defect state of the screen of the electronic device from the fourth learning image using the fourth deep learning model. The fourth deep learning model performs image segmentation on the fourth learning image to generate a fourth mask that predicts the defect state of the screen of the electronic device from the fourth learning image. The processor 820 calculates a fourth similarity between the fourth mask and a label mask for the fourth defect. If the calculated fourth similarity is less than a threshold, the processor 820 updates at least one parameter in the fourth deep learning model. If the calculated fourth similarity is equal to or greater than the threshold, the processor 820 terminates training for the fourth deep learning model. The fourth deep learning model that has completed training can be installed in the electronic device value evaluation device 130 as the fourth deep learning evaluation model 540.

一実施形態において、プロセッサ820は、第5学習イメージ(例えば、第5欠陥のある折り畳まれた側面が撮影されたイメージ)を第5ディープラーニングモデルに入力した場合、第5ディープラーニングモデルを用いて第5学習イメージからフォルダブル電子機器の折り畳まれた部分に該当する側面の欠陥状態を予測した第5マスクを生成することができる。プロセッサ820は、第5マスクと第5欠陥に対するレーベルマスクとの間の第5類似度を演算する。プロセッサ820は、演算された第5類似度が閾値未満である場合、第5ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第5類似度が閾値以上である場合、第5ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第5ディープラーニングモデルは、第5ディープラーニング評価モデルとして電子機器価値評価装置130に搭載され得る。 In one embodiment, when the processor 820 inputs a fifth learning image (e.g., an image of a folded side having a fifth defect) into the fifth deep learning model, the processor 820 can generate a fifth mask that predicts the defect state of the side corresponding to the folded portion of the foldable electronic device from the fifth learning image using the fifth deep learning model. The processor 820 calculates a fifth similarity between the fifth mask and a label mask for the fifth defect. If the calculated fifth similarity is less than a threshold, the processor 820 updates at least one parameter in the fifth deep learning model. If the calculated fifth similarity is equal to or greater than the threshold, the processor 820 terminates training for the fifth deep learning model. The fifth deep learning model that has completed training can be loaded into the electronic device value assessment device 130 as a fifth deep learning assessment model.

一実施形態において、プロセッサ820は、第6学習イメージ(例えば、第6欠陥のあるサブ画面が撮影されたイメージ)を第6ディープラーニングモデルに入力した場合、第6ディープラーニングモデルを用いて第6学習イメージからフォルダブル電子機器のサブ画面の欠陥状態を予測した第6マスクを生成することができる。プロセッサ820は、第6マスクと第6欠陥に対するレーベルマスクとの間の第6類似度を演算する。プロセッサ820は、演算された第6類似度が閾値未満である場合、第6ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第6類似度が閾値以上である場合、第6ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第6ディープラーニングモデルは、第6ディープラーニング評価モデルとして電子機器価値評価装置130に搭載され得る。 In one embodiment, when the processor 820 inputs a sixth learning image (e.g., an image of a sub-screen having a sixth defect) into the sixth deep learning model, the processor 820 can generate a sixth mask that predicts the defect state of the sub-screen of the foldable electronic device from the sixth learning image using the sixth deep learning model. The processor 820 calculates a sixth similarity between the sixth mask and a label mask for the sixth defect. If the calculated sixth similarity is less than a threshold, the processor 820 updates at least one parameter in the sixth deep learning model. If the calculated sixth similarity is equal to or greater than the threshold, the processor 820 terminates training for the sixth deep learning model. The sixth deep learning model that has completed training can be loaded into the electronic device value assessment device 130 as a sixth deep learning assessment model.

一実施形態において、プロセッサ820は、第7学習イメージ(例えば、第7欠陥のある拡張された側面が撮影されたイメージ)を第7ディープラーニングモデルに入力した場合、第7ディープラーニングモデルを用いて第7学習イメージからローラブル電子機器の拡張された側面の欠陥状態を予測した第7マスクを生成することができる。プロセッサ820は、第7マスクと第7欠陥に対するレーベルマスクとの間の第7類似度を演算する。プロセッサ820は、演算された第7類似度が閾値未満である場合、第7ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。プロセッサ820は、演算された第7類似度が閾値以上である場合、第7ディープラーニングモデルに対するトレーニングを終了する。トレーニングが完了した第7ディープラーニングモデルは、第7ディープラーニング評価モデルとして電子機器価値評価装置130に搭載され得る。実現により、プロセッサ820は、第7学習イメージを介して上記の第3ディープラーニングモデルをトレーニングして第3ディープラーニングモデルが第7マスクを生成するようにする。 In one embodiment, when the processor 820 inputs a seventh learning image (e.g., an image of an extended side having a seventh defect) into the seventh deep learning model, the seventh mask can be generated using the seventh deep learning model to predict the defect state of the extended side of the rollable electronic device from the seventh learning image. The processor 820 calculates a seventh similarity between the seventh mask and a label mask for the seventh defect. If the calculated seventh similarity is less than a threshold, the processor 820 updates at least one parameter in the seventh deep learning model. If the calculated seventh similarity is equal to or greater than a threshold, the processor 820 terminates training for the seventh deep learning model. The seventh deep learning model that has completed training can be loaded into the electronic device value assessment device 130 as a seventh deep learning assessment model. In one embodiment, the processor 820 trains the third deep learning model through the seventh learning image so that the third deep learning model generates the seventh mask.

一実施形態において、プロセッサ820は、前述したトレーニング方式と同様に、外観に欠陥のあるウェアラブル機器を撮影した学習イメージに基づいてディープラーニングモデルそれぞれをトレーニングし、ウェアラブル機器の外観(例えば、前面、後面、側面、画面)を評価するディープラーニング評価モデルを生成することができる。 In one embodiment, the processor 820 can train each deep learning model based on learning images of a wearable device with visual defects, similar to the training method described above, and generate a deep learning evaluation model that evaluates the appearance (e.g., front, back, sides, screen) of the wearable device.

図10は、一実施形態に係るコンピューティング装置のディープラーニングモデルトレーニング方法を説明するフローチャートである。 Figure 10 is a flowchart illustrating a method for training a deep learning model on a computing device according to one embodiment.

図10を参照すると、ステップ1010において、コンピューティング装置800は、欠陥に対する学習イメージをディープラーニングモデルに入力する。 Referring to FIG. 10, in step 1010, the computing device 800 inputs training images for defects into a deep learning model.

ステップ1020において、コンピューティング装置800は、ディープラーニングモデルを介して学習イメージから欠陥の状態を予測したマスクを生成する。 In step 1020, the computing device 800 generates a mask that predicts the defect state from the training image via the deep learning model.

ステップ1030において、コンピューティング装置800は、生成されたマスクと欠陥に対するレーベルマスクとの間の類似度を演算する。 In step 1030, the computing device 800 calculates the similarity between the generated mask and the label mask for the defect.

ステップ1040において、コンピューティング装置800は、演算された類似度が閾値よりも小さいか否かを判断する。 In step 1040, the computing device 800 determines whether the calculated similarity is less than a threshold value.

コンピューティング装置800は、演算された類似度が閾値未満である場合、ステップ1050において、ディープラーニングモデル内の少なくとも1つのパラメータをアップデートする。コンピューティング装置800は、ステップ1010~ステップ1040を繰り返し行う。 If the calculated similarity is less than the threshold, the computing device 800 updates at least one parameter in the deep learning model in step 1050. The computing device 800 repeats steps 1010 to 1040.

コンピューティング装置800は、演算された類似度が閾値以上である場合、ステップ1060において、ディープラーニングモデルに対するトレーニングを終了する。 If the calculated similarity is greater than or equal to the threshold, the computing device 800 terminates training of the deep learning model in step 1060.

図1~図9に基づいて記述された内容は、図10に示すディープラーニングモデルトレーニング方法に適用され得る。 The contents described based on Figures 1 to 9 can be applied to the deep learning model training method shown in Figure 10.

以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。 The embodiments described above may be implemented with hardware components, software components, or a combination of hardware and software components. For example, the devices and components described in the present embodiments may be implemented using one or more general-purpose or special-purpose computers, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a programmable logic unit (PLU), a microprocessor, or a different device that executes and responds to instructions. The processing device executes an operating system (OS) and one or more software applications that run on the operating system. The processing device also accesses, stores, manipulates, processes, and generates data in response to the execution of the software. For ease of understanding, the description may assume that a single processing device is used, but one skilled in the art will appreciate that a processing device may include multiple processing elements and/or multiple types of processing elements. For example, a processing device may include multiple processors or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.

ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。 Software may include computer programs, codes, instructions, or any combination of one or more thereof, to configure or instruct a processing device to operate as desired, either independently or in combination. The software and/or data may be embodied permanently or temporarily in any type of machine, component, physical device, virtual device, computer storage medium or device, or transmitted signal wave, to be interpreted by or provide instructions or data to a processing device. The software may be distributed across computer systems coupled to a network, and may be stored and executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。 The method according to the present invention is embodied in the form of program instructions to be executed by various computer means and recorded on a computer-readable recording medium. The recording medium includes program instructions, data files, data structures, and the like, either alone or in combination. The recording medium and program instructions may be specially designed and constructed for the purposes of the present invention, or may be known and available to those skilled in the art of computer software technology. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program instructions, such as ROMs, RAMs, flash memories, and the like. Examples of program instructions include not only machine language code, such as that generated by a compiler, but also high-level language code executed by a computer using an interpreter, etc.

上記で説明したハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。 The hardware devices described above may be configured to operate as one or more software modules to perform the operations described in the present invention, and vice versa.

上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順に実行され、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法とは異なる形態に結合又は組み合わせられてもよく、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。 Although the embodiments have been described above with reference to limited drawings, a person having ordinary skill in the art may apply various technical modifications and variations based on the above description. For example, the described techniques may be performed in a different order than described, and/or the components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than described, and may be replaced or substituted with other components or equivalents to achieve suitable results.

したがって、他の具現、他の実施形態及び特許請求の範囲と均等なものも後述する特許請求範囲の範囲に属する。 Therefore, other realizations, other embodiments, and equivalents to the claims are also within the scope of the claims described below.

Claims (26)

電子機器価値評価方法であって、
電子機器を撮影して取得された複数のイメージ及び複数のディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行うステップと、
前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定するステップと、
を含み、
前記外観状態評価を行うステップは、
前記ディープラーニング評価モデルを介して前記イメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定するステップと、
前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定するステップと、
を含む、電子機器価値評価方法。
A method for evaluating the value of an electronic device, comprising:
Evaluating an appearance state of the electronic device based on a plurality of images acquired by photographing the electronic device and a plurality of deep learning evaluation models;
determining a value of the electronic device based on a result of the appearance condition evaluation and a result of the internal condition evaluation of the electronic device;
Including,
The step of evaluating the appearance state includes:
generating a mask predicting a defect state of each evaluation area of the electronic device from the image through the deep learning evaluation model, and determining a grade for the defect of each evaluation area based on the generated mask;
determining a final grade for the appearance condition of the electronic device through each of the determined grades;
The electronic device value evaluation method includes:
前記評価領域それぞれの欠陥に対する等級を決定するステップは、
前記ディープラーニング評価モデルのうち、第1ディープラーニング評価モデルが前記電子機器の前面が撮影されて取得された前面イメージの入力を受けた場合、前記前面イメージを介して前記前面の欠陥状態を予測した第1マスクを生成し、前記生成された第1マスクに基づいて前記前面の欠陥に対する等級を決定するステップと、
前記ディープラーニング評価モデルのうち、第2ディープラーニング評価モデルが前記電子機器の後面が撮影されて取得された後面イメージの入力を受けた場合、前記後面イメージを介して前記後面の欠陥状態を予測した第2マスクを生成し、前記生成された第2マスクに基づいて前記後面の欠陥に対する等級を決定するステップと、
前記ディープラーニング評価モデルのうち、第3ディープラーニング評価モデルが前記電子機器の側面が撮影されて取得された側面イメージの入力を受けた場合、前記の側面イメージを介して前記の側面のうち少なくとも1つの欠陥状態を予測した第3マスクを生成し、前記生成された第3マスクに基づいて前記の側面の欠陥に対する等級を決定するステップと、
前記ディープラーニング評価モデルのうち、第4ディープラーニング評価モデルが前記電子機器の画面が撮影されて取得された画面イメージの入力を受けた場合、前記画面イメージを介して前記電子機器の画面の欠陥状態を予測した第4マスクを生成し、前記生成された第4マスクに基づいて前記電子機器の画面の欠陥に対する等級を決定するステップと、
を含む、請求項1に記載の電子機器価値評価方法。
The step of determining a grade for each defect in each of the evaluation areas includes:
When a first deep learning evaluation model of the deep learning evaluation models receives an input of a front image acquired by photographing a front surface of the electronic device, a first mask is generated by predicting a defect state of the front surface through the front image, and a grade for the defect of the front surface is determined based on the generated first mask;
When a second deep learning evaluation model of the deep learning evaluation models receives an input of a rear image acquired by photographing a rear of the electronic device, a second mask is generated by predicting a defect state of the rear through the rear image, and a grade for the defect of the rear is determined based on the generated second mask;
When a third deep learning evaluation model of the deep learning evaluation models receives an input of a side image obtained by photographing a side of the electronic device, a third mask is generated that predicts a defect state of at least one of the sides through the side image, and a grade for the defect of the side is determined based on the generated third mask;
When a fourth deep learning evaluation model of the deep learning evaluation models receives an input of a screen image acquired by photographing the screen of the electronic device, a fourth mask is generated by predicting a defect state of the screen of the electronic device through the screen image, and a grade of the defect of the screen of the electronic device is determined based on the generated fourth mask;
The electronic device value evaluation method according to claim 1 ,
前記外観状態評価を行うステップは、前記電子機器の形態が変更された場合、前記ディープラーニング評価モデル以外の追加ディープラーニング評価モデルを介して前記変更された形態が撮影されて取得されたイメージから前記変更された形態の評価領域の欠陥状態を予測したマスクを生成し、前記変更された形態の評価領域の欠陥状態を予測したマスクに基づいて前記変更された形態の評価領域の欠陥に対する等級を決定するステップをさらに含む、請求項1に記載の電子機器価値評価方法。 The electronic device value evaluation method according to claim 1, wherein the step of evaluating the appearance condition further includes a step of generating a mask that predicts the defect state of the evaluation area of the changed form from an image obtained by photographing the changed form through an additional deep learning evaluation model other than the deep learning evaluation model when the form of the electronic device is changed, and determining a grade for the defect of the evaluation area of the changed form based on the mask that predicts the defect state of the evaluation area of the changed form. 前記最終等級を決定するステップは、前記決定された各等級のうち最小等級を前記最終等級として決定するステップを含む、請求項1に記載の電子機器価値評価方法。 The electronic device value evaluation method according to claim 1, wherein the step of determining the final grade includes a step of determining the minimum grade among the determined grades as the final grade. 前記最終等級を決定するステップは、
前記決定された各等級それぞれに加重値を適用するステップと、
前記角加重値が適用された等級を用いて前記最終等級を決定するステップと、
を含む、請求項1に記載の電子機器価値評価方法。
The step of determining the final grade comprises:
applying a weighting to each of the determined classes;
determining the final grade using the angular weighted grade;
The electronic device value evaluation method according to claim 1 ,
前記価値を決定するステップは、
前記外観状態評価の結果に基づいて第1金額を決定し、前記内部状態評価の結果に基づいて第2金額を決定するステップと、
前記電子機器の基準価格から前記決定された第1金額と前記決定された第2金額を差し引いて前記電子機器の価格を算出するステップと、
を含む、請求項1に記載の電子機器価値評価方法。
The step of determining the value comprises:
determining a first monetary amount based on the results of the exterior condition evaluation and determining a second monetary amount based on the results of the interior condition evaluation;
calculating a price of the electronic device by subtracting the determined first amount and the determined second amount from a base price of the electronic device;
The electronic device value evaluation method according to claim 1 ,
前記欠陥状態は、前記評価領域それぞれの欠陥位置、前記欠陥種類、及び前記欠陥程度のうち少なくとも1つを含む、請求項1に記載の電子機器価値評価方法。 The electronic device value evaluation method according to claim 1, wherein the defect state includes at least one of the defect position, the defect type, and the defect degree of each of the evaluation areas. 前記イメージそれぞれに欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断するステップと、
前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行うステップと、
をさらに含む、請求項1に記載の電子機器価値評価方法。
determining whether each of the images contains one or more objects that are misidentified as defects;
performing processing on the object if there is an image including the object;
The electronic device value assessment method according to claim 1 , further comprising:
前記オブジェクトは、前記電子機器の画面上のフローティングアイコンに対応するオブジェクト、前記電子機器に付着したステッカーに対応するオブジェクト、及び前記電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含む、請求項8に記載の電子機器価値評価方法。 The electronic device value evaluation method according to claim 8, wherein the object includes at least one of an object corresponding to a floating icon on the screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device. 電子機器価値評価方法であって、
電子機器を撮影して取得された複数のイメージそれぞれに、前記電子機器の欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断するステップと、
前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行うステップと、
前記オブジェクトが処理されたイメージ、前記オブジェクトがない残りのイメージ、及びディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行うステップと、
前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定するステップと、
を含む、電子機器価値評価方法。
A method for evaluating the value of an electronic device, comprising:
determining whether each of a plurality of images acquired by photographing an electronic device includes one or more objects that are misidentified as defects in the electronic device;
performing processing on the object if there is an image including the object;
performing an appearance condition assessment on the electronic device based on the processed image of the object, the remaining image without the object, and a deep learning assessment model;
determining a value of the electronic device based on a result of the appearance condition evaluation and a result of the internal condition evaluation of the electronic device;
The electronic device value evaluation method includes:
前記外観状態評価を行うステップは、
前記ディープラーニング評価モデルを介して前記オブジェクトが処理されたイメージ及び前記残りのイメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定するステップと、
前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定するステップと、
を含む、請求項10に記載の電子機器価値評価方法。
The step of evaluating the appearance state includes:
generating a mask predicting a defect state of each evaluation area of the electronic device from the image in which the object is processed through the deep learning evaluation model and the remaining image, and determining a grade for the defect of each evaluation area based on each of the generated masks;
determining a final grade for the appearance condition of the electronic device through each of the determined grades;
The electronic device value assessment method according to claim 10, comprising:
前記処理を行うステップは、前記オブジェクトにマスキング処理を行うステップを含む、請求項10に記載の電子機器価値評価方法。 The electronic device value evaluation method according to claim 10, wherein the processing step includes a step of performing a masking process on the object. 前記オブジェクトは、前記電子機器の画面上のフローティングアイコンに対応するオブジェクト、前記電子機器に付着したステッカーに対応するオブジェクト、及び前記電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含む、請求項10に記載の電子機器価値評価方法。 The electronic device value evaluation method according to claim 10, wherein the object includes at least one of an object corresponding to a floating icon on a screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device. 電子機器価値評価装置であって、
複数のディープラーニング評価モデルを格納するメモリと、
電子機器を撮影して取得された複数のイメージ及び前記ディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行う外観状態評価モジュールと、
前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定する価値決定モジュールと、
を含み、
前記外観状態評価モジュールは、前記ディープラーニング評価モデルを介して前記イメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定し、前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定する、電子機器価値評価装置。
An electronic device value assessment device,
A memory for storing a plurality of deep learning evaluation models;
An appearance state evaluation module that performs an appearance state evaluation for the electronic device based on a plurality of images acquired by photographing the electronic device and the deep learning evaluation model;
a value determination module for determining a value of the electronic device based on a result of the appearance condition evaluation and a result of the internal condition evaluation of the electronic device;
Including,
The appearance condition evaluation module generates a mask that predicts a defect state of each evaluation area of the electronic device from the image via the deep learning evaluation model, determines a grade for the defect of each evaluation area based on each generated mask, and determines a final grade for the appearance condition of the electronic device based on each determined grade.
前記ディープラーニング評価モデルのうち、第1ディープラーニング評価モデルは、前記電子機器の前面が撮影されて取得された前面イメージの入力を受けた場合、前記前面イメージを介して前記前面の欠陥状態を予測した第1マスクを生成し、前記生成された第1マスクに基づいて前記前面の欠陥に対する等級を決定し、
前記ディープラーニング評価モデルのうち、第2ディープラーニング評価モデルは、前記電子機器の後面が撮影されて取得された後面イメージの入力を受けた場合、前記後面イメージを介して前記後面の欠陥状態を予測した第2マスクを生成し、前記生成された第2マスクに基づいて前記後面の欠陥に対する等級を決定し、
前記ディープラーニング評価モデルのうち、第3ディープラーニング評価モデルは、前記電子機器の側面が撮影されて取得された側面イメージの入力を受けた場合、前記の側面イメージを介して前記の側面のうち少なくとも1つの欠陥状態を予測した第3マスクを生成し、前記生成された第3マスクに基づいて前記の側面の欠陥に対する等級を決定し、
前記ディープラーニング評価モデルのうち、第4ディープラーニング評価モデルは、前記電子機器の画面が撮影されて取得された画面イメージの入力を受けた場合、前記画面イメージを介して前記電子機器の画面の欠陥状態を予測した第4マスクを生成し、前記生成された第4マスクに基づいて前記電子機器の画面の欠陥に対する等級を決定する、請求項14に記載の電子機器価値評価装置。
Among the deep learning evaluation models, a first deep learning evaluation model generates a first mask predicting a defect state of the front surface through the front image when a front image obtained by photographing the front surface of the electronic device is input, and determines a grade for the defect of the front surface based on the generated first mask;
Among the deep learning evaluation models, a second deep learning evaluation model generates a second mask predicting a defect state of the rear surface through the rear surface image when a rear surface image obtained by photographing a rear surface of the electronic device is input, and determines a grade for the defect of the rear surface based on the generated second mask;
A third deep learning evaluation model among the deep learning evaluation models generates a third mask predicting a defect state of at least one of the sides through the side image when a side image obtained by photographing a side of the electronic device is input, and determines a grade for the defect of the side based on the generated third mask;
The electronic device value evaluation device of claim 14, wherein a fourth deep learning evaluation model among the deep learning evaluation models, when receiving an input of a screen image obtained by photographing the screen of the electronic device, generates a fourth mask that predicts a defect state of the screen of the electronic device through the screen image, and determines a grade for the defect of the screen of the electronic device based on the generated fourth mask.
前記外観状態評価モジュールは、前記電子機器の形態が変更された場合、前記ディープラーニング評価モデル以外の追加ディープラーニング評価モデルを介して前記変更された形態が撮影されて取得されたイメージから前記変更された形態の評価領域の欠陥状態を予測したマスクを生成し、前記変更された形態の評価領域の欠陥状態を予測したマスクに基づいて前記変更された形態の評価領域の欠陥に対する等級を決定する、請求項14に記載の電子機器価値評価装置。 The electronic device value evaluation device according to claim 14, wherein the appearance condition evaluation module, when the shape of the electronic device is changed, generates a mask predicting a defect state of the evaluation area of the changed shape from an image acquired by photographing the changed shape through an additional deep learning evaluation model other than the deep learning evaluation model, and determines a grade for defects in the evaluation area of the changed shape based on the mask predicting the defect state of the evaluation area of the changed shape. 前記外観状態評価モジュールは、前記決定された各等級のうち最小等級を前記最終等級として決定する、請求項14に記載の電子機器価値評価装置。 The electronic device value assessment device according to claim 14, wherein the appearance condition assessment module determines the minimum grade among the determined grades as the final grade. 前記外観状態評価モジュールは、前記決定された各等級それぞれに加重値を適用し、前記角加重値が適用された等級を用いて前記最終等級を決定する、請求項14に記載の電子機器価値評価装置。 The electronic device value assessment device according to claim 14, wherein the appearance condition assessment module applies a weighting value to each of the determined grades, and determines the final grade using the grade to which the angular weighting value has been applied. 前記価値決定モジュールは、前記外観状態評価の結果に基づいて第1金額を決定し、前記内部状態評価の結果に基づいて第2金額を決定し、前記電子機器の基準価格から前記決定された第1金額と前記決定された第2金額を差し引いて前記電子機器の価格を算出する、請求項14に記載の電子機器価値評価装置。 The electronic device value evaluation device according to claim 14, wherein the value determination module determines a first amount based on the result of the appearance condition evaluation, determines a second amount based on the result of the internal condition evaluation, and calculates the price of the electronic device by subtracting the determined first amount and the determined second amount from the base price of the electronic device. 前記欠陥状態は、前記評価領域それぞれの欠陥位置、前記欠陥種類、及び前記欠陥程度のうち少なくとも1つを含む、請求項14に記載の電子機器価値評価装置。 The electronic device value evaluation device according to claim 14, wherein the defect state includes at least one of the defect position of each of the evaluation areas, the defect type, and the defect degree. 前記イメージそれぞれに欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断し、前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行う前処理モジュールをさらに含む、請求項14に記載の電子機器価値評価装置。 The electronic device value assessment device according to claim 14, further comprising a pre-processing module that determines whether each of the images contains one or more objects that are erroneously recognized as defects, and performs processing on the objects if any of the images contains the objects. 前記オブジェクトは、前記電子機器の画面上のフローティングアイコンに対応するオブジェクト、前記電子機器に付着したステッカーに対応するオブジェクト、及び前記電子機器についている異物に対応するオブジェクトのうち少なくとも1つを含む、請求項21に記載の電子機器価値評価装置。 The electronic device value evaluation device according to claim 21, wherein the object includes at least one of an object corresponding to a floating icon on a screen of the electronic device, an object corresponding to a sticker attached to the electronic device, and an object corresponding to a foreign object attached to the electronic device. 電子機器価値評価装置であって、
電子機器を撮影して取得された複数のイメージそれぞれに、前記電子機器の欠陥として誤認される1つ以上のオブジェクトが含まれているか否かを判断する前処理モジュールと、
前記オブジェクトが含まれたイメージがある場合、前記オブジェクトに対する処理を行うステップと、前記オブジェクトが処理されたイメージ、前記オブジェクトがない残りのイメージ、及びディープラーニング評価モデルに基づいて前記電子機器に対する外観状態評価を行う外観状態評価モジュールと、
前記外観状態評価の結果及び前記電子機器の内部状態評価の結果に基づいて前記電子機器の価値を決定する価値決定モジュールと、
を含む、電子機器価値評価装置。
An electronic device value assessment device,
a pre-processing module for determining whether each of a plurality of images acquired by photographing an electronic device includes one or more objects that are likely to be mistaken for defects in the electronic device;
If there is an image including the object, a step of processing the object; and an appearance state evaluation module that performs an appearance state evaluation for the electronic device based on the image in which the object has been processed, the remaining image without the object, and a deep learning evaluation model.
a value determination module for determining a value of the electronic device based on a result of the appearance condition evaluation and a result of the internal condition evaluation of the electronic device;
An electronic device value assessment device comprising:
前記外観状態評価モジュールは、前記ディープラーニング評価モデルを介して前記オブジェクトが処理されたイメージ及び前記残りのイメージから前記電子機器の評価領域それぞれの欠陥状態を予測したマスクを生成し、前記生成された各マスクに基づいて前記評価領域それぞれの欠陥に対する等級を決定し、前記決定された各等級を介して前記電子機器の外観状態に対する最終等級を決定する、請求項23に記載の電子機器価値評価装置。 The electronic device value evaluation device according to claim 23, wherein the appearance condition evaluation module generates masks predicting the defect condition of each evaluation area of the electronic device from the image in which the object is processed through the deep learning evaluation model and the remaining image, determines a grade for the defect of each evaluation area based on each of the generated masks, and determines a final grade for the appearance condition of the electronic device based on each of the determined grades. コンピューティング装置によって実行されるトレーニング方法であって、
欠陥に対する学習イメージをディープラーニングモデルに入力するステップと、
前記ディープラーニングモデルを介して前記学習イメージから前記欠陥の状態を予測したマスクを生成するステップと、
前記生成されたマスクと前記欠陥に対するレーベルマスク(labeled mask)との間の類似度を演算するステップと、
前記演算された類似度が閾値未満である場合、前記ディープラーニングモデル内の少なくとも1つのパラメータをアップデートするステップと、
前記演算された類似度が前記閾値以上である場合、前記ディープラーニングモデルに対するトレーニングを終了するステップと、
を含む、コンピューティング装置によって実行されるトレーニング方法。
1. A training method performed by a computing device, comprising:
inputting training images of defects into a deep learning model;
generating a mask that predicts the state of the defect from the training image via the deep learning model;
computing a similarity between the generated mask and a labeled mask for the defect;
if the calculated similarity is less than a threshold, updating at least one parameter in the deep learning model;
if the calculated similarity is greater than or equal to the threshold, terminating training of the deep learning model;
A training method performed by a computing device, comprising:
前記マスクを生成するステップは、
第1ディープラーニングモデルに第1学習イメージを入力した場合、前記第1ディープラーニングモデルを用いて前記第1学習イメージから電子機器の前面の欠陥状態を予測した第1マスクを生成するステップと、
第2ディープラーニングモデルに第2学習イメージを入力した場合、前記第2ディープラーニングモデルを用いて前記第2学習イメージから前記電子機器の後面の欠陥状態を予測した第2マスクを生成するステップと、
第3ディープラーニングモデルに第3学習イメージを入力した場合、前記第3ディープラーニングモデルを用いて前記第3学習イメージから前記電子機器の側面の欠陥状態を予測した第3マスクを生成するステップと、
第4ディープラーニングモデルに第4学習イメージを入力した場合、前記第4ディープラーニングモデルを用いて前記第4学習イメージから前記電子機器の画面の欠陥状態を予測した第4マスクを生成するステップと、
を含む、請求項25に記載のコンピューティング装置によって実行されるトレーニング方法。
The step of generating the mask comprises:
When a first learning image is input to a first deep learning model, generating a first mask predicting a defect state of a front surface of an electronic device from the first learning image using the first deep learning model;
When a second learning image is input to a second deep learning model, generating a second mask predicting a defect state of the rear surface of the electronic device from the second learning image using the second deep learning model;
When a third learning image is input to a third deep learning model, generating a third mask that predicts a defect state of a side surface of the electronic device from the third learning image using the third deep learning model;
When a fourth learning image is input to a fourth deep learning model, generating a fourth mask that predicts a defective state of a screen of the electronic device from the fourth learning image using the fourth deep learning model;
26. A training method performed by the computing device of claim 25, comprising:
JP2024535214A 2022-02-24 2023-02-21 Electronic device value assessment method and device and deep learning model training method Pending JP2024546819A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2022-0024092 2022-02-24
KR20220024092 2022-02-24
KR10-2022-0083791 2022-07-07
KR1020220083791A KR20230127121A (en) 2022-02-24 2022-07-07 Method and apparatus for evaluating value of electronic device and method for training deep learning model
PCT/KR2023/002426 WO2023163476A1 (en) 2022-02-24 2023-02-21 Electronic device value evaluation method and device, and deep learning model training method

Publications (1)

Publication Number Publication Date
JP2024546819A true JP2024546819A (en) 2024-12-26

Family

ID=87766373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024535214A Pending JP2024546819A (en) 2022-02-24 2023-02-21 Electronic device value assessment method and device and deep learning model training method

Country Status (2)

Country Link
JP (1) JP2024546819A (en)
WO (1) WO2023163476A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170019085A (en) * 2015-08-11 2017-02-21 에스케이 주식회사 Automatic Evaluation Method and Apparatus for Used Mobile Terminal
KR20180088063A (en) * 2017-01-26 2018-08-03 (주)금강시스템즈 System for price computation and method for buying used mobile device using the same
RU2667790C1 (en) * 2017-09-01 2018-09-24 Самсунг Электроникс Ко., Лтд. Method of automatic adjustment of exposition for infrared camera and user computer device using this method
WO2020172190A1 (en) * 2019-02-18 2020-08-27 Ecoatm, Llc Neural network based physical condition evaluation of electronic devices, and associated systems and methods
KR102148884B1 (en) * 2020-04-02 2020-08-27 주식회사 애자일소다 System and method for analyzing vehicle damage
KR102214039B1 (en) * 2020-05-15 2021-02-09 (주)서경자동차 Method and system for providing used car repair and sale service using vr technology

Also Published As

Publication number Publication date
WO2023163476A1 (en) 2023-08-31

Similar Documents

Publication Publication Date Title
JP7110414B2 (en) Image-based vehicle damage determination method, apparatus, and electronic device
US11882357B2 (en) Image display method and device
Rahmouni et al. Distinguishing computer graphics from natural images using convolution neural networks
US12125254B2 (en) System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status
WO2020199611A1 (en) Liveness detection method and apparatus, electronic device, and storage medium
CN109670452A (en) Method for detecting human face, device, electronic equipment and Face datection model
KR20190069457A (en) IMAGE BASED VEHICLES LOSS EVALUATION METHOD, DEVICE AND SYSTEM,
CN109815843A (en) Object detection method and related products
CN109800682B (en) Driver attribute identification method and related products
CN109741293A (en) Significant detection method and device
CN113824884B (en) Shooting method and device, shooting equipment and computer readable storage medium
CN111626295A (en) Training method and device for license plate detection model
CN114612418A (en) Method and device, system, and electronic device for detecting surface defects of mouse shell
CN117830210A (en) Defect detection method, device, electronic equipment and storage medium
CN114255377A (en) Differential commodity detection and classification method for intelligent container
CN115965934A (en) Parking space detection method and device
CN115049675B (en) Generation area determination and spot generation method, device, medium and program product
CN115620079A (en) Sample label obtaining method and lens failure detection model training method
CN111881833A (en) Vehicle detection method, device, equipment and storage medium
CN114373195A (en) Illumination scene adaptive palm anti-counterfeiting method, device, device and storage medium
CN113870221A (en) Method, device, vehicle terminal and storage medium for detecting accessible space
KR20230127121A (en) Method and apparatus for evaluating value of electronic device and method for training deep learning model
JP2024546819A (en) Electronic device value assessment method and device and deep learning model training method
KR20230140325A (en) Method for evaluating appearance state of electronic device and evaluating value of the electronic device, and apparatus for evaluating value of the electronic device
CN117456551A (en) Pedestrian detection method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240612