[go: up one dir, main page]

JP7634942B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7634942B2
JP7634942B2 JP2020060487A JP2020060487A JP7634942B2 JP 7634942 B2 JP7634942 B2 JP 7634942B2 JP 2020060487 A JP2020060487 A JP 2020060487A JP 2020060487 A JP2020060487 A JP 2020060487A JP 7634942 B2 JP7634942 B2 JP 7634942B2
Authority
JP
Japan
Prior art keywords
editing
range
editing information
raw video
user device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020060487A
Other languages
Japanese (ja)
Other versions
JP2021157755A (en
Inventor
竜太 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020060487A priority Critical patent/JP7634942B2/en
Publication of JP2021157755A publication Critical patent/JP2021157755A/en
Application granted granted Critical
Publication of JP7634942B2 publication Critical patent/JP7634942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、現像処理を実行する情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program that executes development processing.

近年、ユーザが使用するパーソナルコンピュータ(PC)等のユーザ装置からアップロードされた静止画や動画に対して、サーバが画像処理を実行して処理結果をユーザ装置に提示する技術が用いられている。以上の技術によれば、サーバの高処理能力を用いた効率的な画像処理(動画処理)が実現される。以上の技術は、イメージセンサからのデータをそのまま各フレームに記録したRAW動画等の大容量動画に対しても広く適用されることが将来的に想定される。 In recent years, a technology has been used in which a server performs image processing on still images and videos uploaded from a user device, such as a personal computer (PC), and presents the results of the processing to the user device. This technology achieves efficient image processing (video processing) using the high processing power of the server. It is expected that in the future, this technology will also be widely applied to large-capacity videos, such as RAW videos, in which data from an image sensor is recorded directly for each frame.

特許文献1は、RAWデータの再生区間を指定する編集情報に示されるデータをストレージから抽出し、抽出されたデータに対して現像処理を実行することによって、現像処理の負荷を軽減する技術を開示する。 Patent document 1 discloses a technology that reduces the load of development processing by extracting data indicated in editing information that specifies the playback section of RAW data from storage and performing development processing on the extracted data.

特開2009-171060号公報JP 2009-171060 A

特許文献1は、単一のユーザによる現像処理に関する技術であって、複数のユーザの存在は想定されていない。複数のユーザがサーバ上の1つのRAW動画を加工するケース(例えば、子供の発表会の動画を複数の保護者が加工するケース)では、各ユーザの好みや要求に応じて1つのRAW動画が編集及び現像される。したがって、以上のようなケースでは、1つのRAW動画に対して、複数のユーザからの相異なる指示に応じた複数の現像処理を実行する必要が生じる。しかしながら、複数の現像処理を短い期間のうちに実行すると、サーバの処理負荷が過剰となる。以上の課題は、RAW動画以外の動画に対する現像処理でも同様に生じる可能性がある。 Patent Document 1 is a technology related to development processing by a single user, and does not assume the existence of multiple users. In cases where multiple users process a single RAW video on a server (for example, multiple parents process a video of a child's recital), the single RAW video is edited and developed according to the preferences and requests of each user. Therefore, in such cases, it becomes necessary to perform multiple development processes on a single RAW video in response to different instructions from multiple users. However, if multiple development processes are performed within a short period of time, the processing load on the server becomes excessive. The above issues can also occur in development processes for videos other than RAW videos.

以上の事情に鑑み、本発明は、動画の現像処理の負荷を軽減できる情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。 In view of the above, the present invention aims to provide an information processing device, an information processing method, and a program that can reduce the load of video development processing.

上記目的を達成するために、本発明の情報処理装置は、ユーザ装置と他のユーザ装置とを含む複数の装置から送信される編集情報に従って、RAW動画の時間的な範囲のうち、前記編集情報を送信した装置のユーザにとって不要な範囲を特定するための所定の編集処理を、前記RAW動画に対して実行する編集手段と、前記RAW動画の時間的な範囲に対して第1現像処理及び前記第1現像処理より処理負荷が小さい第2現像処理のいずれかを実行する現像手段と、を備え、前記ユーザ装置から前記RAW動画の再生要求を受け付けた場合であり、かつ前記ユーザ装置から送信された前記編集情報を保持していない場合、前記現像手段は、前記RAW動画の時間的な範囲のうち前記他のユーザ装置から送信された編集情報に従って特定された前記他のユーザ装置のユーザにとって不要な範囲に対して、前記第2現像処理を実行し、前記RAW動画の他の時間的な範囲に対して前記第1現像処理を実行する、ことを特徴とする。 In order to achieve the above-mentioned object, the information processing device of the present invention comprises an editing means that performs a predetermined editing process on the RAW video in accordance with editing information transmitted from a plurality of devices including a user device and another user device, to identify a range of a temporal range of the RAW video that is unnecessary for a user of the device that transmitted the editing information, and a developing means that performs either a first developing process or a second developing process having a smaller processing load than the first developing process on the temporal range of the RAW video , wherein when a request to play the RAW video is received from the user device and the editing information transmitted from the user device is not held , the developing means performs the second developing process on a range of the temporal range of the RAW video that is unnecessary for the user of the other user device, identified in accordance with the editing information transmitted from the other user device, and performs the first developing process on another temporal range of the RAW video.

本発明によれば、情報処理装置における動画の現像処理の負荷が軽減される。 The present invention reduces the load of video development processing on an information processing device.

本発明の第1実施形態に係る情報処理システムの全体構成図である。1 is an overall configuration diagram of an information processing system according to a first embodiment of the present invention; 本発明の第1実施形態に係るサーバ及びPCの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a server and a PC according to the first embodiment of the present invention. 本発明の第1実施形態に係るアプリケーションの表示画面を例示する説明図である。FIG. 2 is an explanatory diagram illustrating a display screen of an application according to the first embodiment of the present invention. 本発明の第1実施形態におけるサーバ及びPCの動作を示すフローチャートである。5 is a flowchart showing the operation of a server and a PC in the first embodiment of the present invention. 本発明の第1実施形態におけるサーバの現像制御処理を示すフローチャートである。5 is a flowchart showing a development control process of the server in the first embodiment of the present invention. 本発明の第1実施形態における共通カット区間(簡易現像区間)の説明図である。FIG. 4 is an explanatory diagram of a common cut section (simplified development section) in the first embodiment of the present invention. 本発明の第2実施形態におけるサーバの現像制御処理を示すフローチャートである。10 is a flowchart showing a development control process of a server according to a second embodiment of the present invention. 本発明の第2実施形態における共通未クロップ領域(簡易現像領域)の説明図である。13 is an explanatory diagram of a common uncropped area (simple development area) in the second embodiment of the present invention. FIG.

以下、本発明の実施形態について添付図面を参照しながら詳細に説明する。以下に説明される各実施形態は、本発明を実現可能な構成の一例に過ぎない。以下の各実施形態は、本発明が適用される装置の構成や各種の条件に応じて適宜に修正又は変更することが可能である。したがって、本発明の範囲は、以下の各実施形態に記載される構成によって限定されるものではない。例えば、相互に矛盾のない限りにおいて実施形態内に記載された複数の構成を組み合わせた構成も採用可能である。 Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Each embodiment described below is merely one example of a configuration that can realize the present invention. Each of the following embodiments can be modified or changed as appropriate depending on the configuration of the device to which the present invention is applied and various conditions. Therefore, the scope of the present invention is not limited by the configurations described in each of the following embodiments. For example, a configuration that combines multiple configurations described in the embodiments can be adopted as long as they are not mutually contradictory.

<第1実施形態>
図1は、本発明の第1実施形態に係る情報処理システムSの全体構成図である。情報処理システムSはサーバ100(情報処理装置)及び複数のPC150(ユーザ装置)を有する。各PC150はネットワークを介してサーバ100と通信できる。
First Embodiment
1 is a diagram showing the overall configuration of an information processing system S according to a first embodiment of the present invention. The information processing system S includes a server 100 (information processing device) and a plurality of PCs 150 (user devices). Each PC 150 can communicate with the server 100 via a network.

概略的には、サーバ100に格納されているRAW動画に対して、各PC150から送信された編集内容に従って、サーバ100が現像処理を実行して現像結果を各PCに送信する。 In general terms, the server 100 performs development processing on the RAW video stored on the server 100 according to the editing content sent from each PC 150, and then sends the development results to each PC.

図2を参照して、本発明の第1実施形態に係るサーバ100及びPC150の構成を説明する。図2(a)は、本実施形態に係るサーバ100の構成を示すブロック図であり、図2(b)は、本実施形態に係るPC150の構成を示すブロック図である。 The configurations of the server 100 and PC 150 according to the first embodiment of the present invention will be described with reference to FIG. 2. FIG. 2(a) is a block diagram showing the configuration of the server 100 according to this embodiment, and FIG. 2(b) is a block diagram showing the configuration of the PC 150 according to this embodiment.

図2(a)に示すように、サーバ100は、CPU101、ROM102、RAM103、HDD104、ネットワークIF105、ユーザIF106、VRAM107、画像処理部108、及び表示制御部109を有する。以上の要素は、制御信号及びデータ信号の伝送路である内部バス115によって相互に接続される。 As shown in FIG. 2(a), the server 100 has a CPU 101, a ROM 102, a RAM 103, a HDD 104, a network IF 105, a user IF 106, a VRAM 107, an image processing unit 108, and a display control unit 109. These elements are interconnected by an internal bus 115, which is a transmission path for control signals and data signals.

CPU101(制御手段)は、サーバ100における種々の演算を実行する処理回路である。ROM102は、不揮発性の記憶媒体であって、CPU101によって用いられる種々の制御プログラム及びデータを記憶する。RAM103は、揮発性の記憶媒体であって、CPU101が使用する設定値が記憶されると共に種々のプログラムが展開されるワーキングメモリとして機能する。ハードディスクドライブ(HDD)104は、不揮発性の記憶媒体であって、アプリケーションAP及びオペレーティングシステム(OS)を構成する種々のプログラム及びデータを記憶する。 The CPU 101 (control means) is a processing circuit that executes various calculations in the server 100. The ROM 102 is a non-volatile storage medium that stores various control programs and data used by the CPU 101. The RAM 103 is a volatile storage medium that stores setting values used by the CPU 101 and functions as a working memory in which various programs are deployed. The hard disk drive (HDD) 104 is a non-volatile storage medium that stores various programs and data that constitute the application AP and the operating system (OS).

ネットワークIF105は、ネットワーク111との接続インタフェースであって、例えばネットワークインタフェースカード(NIC)である。ユーザIF106は、マウス113及びキーボード114等の入力デバイス112との接続インタフェースであって、例えばUSBインタフェースである。 The network IF 105 is a connection interface with the network 111, and is, for example, a network interface card (NIC). The user IF 106 is a connection interface with input devices 112 such as a mouse 113 and a keyboard 114, and is, for example, a USB interface.

VRAM107は、画像データを記憶する揮発性の記憶媒体である。画像処理部108は、画像データを処理して表示制御部109に供給する処理装置である。表示制御部109は、サーバ100に接続されているディスプレイ110に画像を表示させる制御装置である。 The VRAM 107 is a volatile storage medium that stores image data. The image processing unit 108 is a processing device that processes image data and supplies it to the display control unit 109. The display control unit 109 is a control device that displays images on a display 110 connected to the server 100.

図2(b)に示すように、PC150は、CPU151、ROM152、RAM153、HDD154、ネットワークIF155、ユーザIF156、VRAM157、画像処理部158、及び表示制御部159を有する。以上の要素は、制御信号及びデータ信号の伝送路である内部バス165によって相互に接続される。以上の要素は、サーバ100の対応する要素と同様に構成される。 As shown in FIG. 2(b), the PC 150 has a CPU 151, a ROM 152, a RAM 153, a HDD 154, a network IF 155, a user IF 156, a VRAM 157, an image processing unit 158, and a display control unit 159. The above elements are interconnected by an internal bus 165, which is a transmission path for control signals and data signals. The above elements are configured in the same way as the corresponding elements of the server 100.

上記したサーバ100及びPC150のCPU101,151が、それぞれ、ROM102,152及びHDD104,154が格納するプログラムをRAM103,153に読み出して実行することによって、本実施形態に係る種々の処理が実現される。HDD104は、後述される編集処理の対象であるRAW動画を格納する。 The CPUs 101, 151 of the server 100 and the PC 150 respectively read out and execute the programs stored in the ROMs 102, 152 and the HDDs 104, 154 into the RAMs 103, 153, thereby implementing various processes according to this embodiment. The HDD 104 stores the RAW video that is the subject of the editing process described below.

なお、以下、サーバ100のCPU101がサーバ100内の他の要素を統合的に制御しつつ、ある処理Xを実行することを、単に「サーバ100が処理Xを実行する」のように表現することがある。同様に、PC150のCPU151がPC150内の他の要素を統合的に制御しつつ、ある処理Yを実行することを、単に「PC150が処理Yを実行する」のように表現することがある。 Note that, hereinafter, the execution of a certain process X by the CPU 101 of the server 100 while controlling other elements in the server 100 in an integrated manner may be expressed simply as "the server 100 executes the process X." Similarly, the execution of a certain process Y by the CPU 151 of the PC 150 while controlling other elements in the PC 150 in an integrated manner may be expressed simply as "the PC 150 executes the process Y."

図3は、本発明の第1実施形態に係るアプリケーションAPの表示画面を例示する説明図である。本アプリケーションAPは、PC150において実行され、入力デバイス112に対するユーザの操作に応じて動画を処理する。PC150がアプリケーションAPを実行することによって、ディスプレイ160に以下の表示領域を含む表示画面300が表示される。 Figure 3 is an explanatory diagram illustrating an example of a display screen of application AP according to the first embodiment of the present invention. This application AP is executed in PC 150, and processes video in response to user operations on input device 112. When PC 150 executes application AP, a display screen 300 including the following display areas is displayed on display 160.

図3に示すように、表示画面300は、動画一覧エリア310、プレビューエリア320、コントロールエリア330、及びタイムラインエリア340を表示領域として含む。 As shown in FIG. 3, the display screen 300 includes a video list area 310, a preview area 320, a control area 330, and a timeline area 340 as display areas.

動画一覧エリア310は、サーバ100のHDD104及びPC150のHDD154に格納されているRAW動画のファイル名を表示するエリアである。PC150は、ネットワークを介してサーバ100のHDD104内のRAW動画のファイル名を取得できる。図3には、フォルダ311に格納された4つのRAW動画AAAA,BBBB,CCCC,DDDDが表示されている。ファイル名と共にRAW動画のサムネイルが動画一覧エリア310に表示されてもよい。 The video list area 310 is an area that displays the file names of RAW videos stored in the HDD 104 of the server 100 and the HDD 154 of the PC 150. The PC 150 can obtain the file names of the RAW videos in the HDD 104 of the server 100 via the network. In FIG. 3, four RAW videos AAAA, BBBB, CCCC, and DDDD stored in folder 311 are displayed. Thumbnails of the RAW videos may be displayed in the video list area 310 together with the file names.

プレビューエリア320は、ユーザが選択したRAW動画を再生表示するエリアである。サーバ100は、ユーザが選択したRAW動画の特定のフレームを現像し、現像後の表示データ(現像結果)をPC150に送信する。PC150は、サーバ100から受信した現像後の表示データをプレビューエリア320に表示させる。 Preview area 320 is an area in which the RAW video selected by the user is played and displayed. Server 100 develops a specific frame of the RAW video selected by the user and transmits the developed display data (development result) to PC 150. PC 150 displays the developed display data received from server 100 in preview area 320.

コントロールエリア330は、プレビューエリア320に表示されているRAW動画の再生を制御するためのソフトウェアボタンを表示するエリアである。ユーザは、マウス113を用いてソフトウェアボタンを操作することによって動画の再生を制御できる。 The control area 330 is an area that displays software buttons for controlling the playback of the RAW video displayed in the preview area 320. The user can control the playback of the video by operating the software buttons using the mouse 113.

タイムラインエリア340は、RAW動画の編集作業(カット編集等)に用いられるエリアである。タイムラインエリア340には、ユーザが選択したRAW動画の再生範囲を時系列的に示す矩形341が表示される。編集位置342,343は、RAW動画の一部区間を削除するカット編集処理によって残る区間(時間的な範囲)を示すマークであって、ユーザの操作に基づいて位置が変更される。再生バー350は、RAW動画における現在の再生位置を示すマークである。 The timeline area 340 is an area used for editing the RAW video (cut editing, etc.). The timeline area 340 displays a rectangle 341 that chronologically indicates the playback range of the RAW video selected by the user. The editing positions 342 and 343 are marks that indicate the section (temporal range) that remains after a cut editing process that deletes a section of the RAW video, and their positions are changed based on the user's operation. The playback bar 350 is a mark that indicates the current playback position in the RAW video.

なお、アプリケーションAPは、図3に示されない機能、例えば、ホワイトバランス、色温度、明るさ、シャープネス等のRAW現像パラメータを調整する機能や、RAW動画ファイルを別形式でエクスポートする際のパラメータを設定する機能を有する。 The application AP also has functions not shown in FIG. 3, such as a function to adjust RAW development parameters such as white balance, color temperature, brightness, and sharpness, and a function to set parameters when exporting a RAW video file in a different format.

図4乃至図6を参照して、本発明の第1実施形態に係るサーバ100及びPC150の動作を説明する。 The operation of the server 100 and PC 150 according to the first embodiment of the present invention will be described with reference to Figures 4 to 6.

図4(a)及び図4(b)は、RAW動画を現像し表示する際のサーバ100及びPC150の動作を示すフローチャートである。より具体的には、図4(a)は、前述したプレビューエリア320にRAW動画の現像結果を表示するPC150の動作を示し、図4(b)は、PC150からの現像要求に基づいて現像したRAW動画の現像結果を送信するサーバ100の動作を示す。図4(a)及び図4(b)は、サーバ100及びPC150の協働の元、並列的に実行される。 Figures 4(a) and 4(b) are flowcharts showing the operations of the server 100 and the PC 150 when developing and displaying a RAW video. More specifically, Figure 4(a) shows the operation of the PC 150 which displays the development results of the RAW video in the preview area 320 described above, and Figure 4(b) shows the operation of the server 100 which transmits the development results of the RAW video developed based on a development request from the PC 150. Figures 4(a) and 4(b) are executed in parallel with the cooperation of the server 100 and the PC 150.

ステップS401において、PC150は、ユーザが入力デバイス112を用いてRAW動画を表示する指示を行ったか否かを判定する。以上の表示指示は、プレビューエリア320に表示する画像を更新する指示であって、表示を開始すべき特定のフレームを示す情報が含まれ得る。表示指示に相当するユーザの操作は、例えば、動画一覧エリア310に表示されるRAW動画を選択する操作や、タイムラインエリア340に表示されている再生バー350を移動する操作である。ユーザが単にRAW動画自体を選択した場合、その表示指示は、RAW動画の最初のフレームから表示を開始する指示を意味してよい。PC150は、表示指示を受け付けると(S401:YES)、ステップS402に進み、表示指示を受け付けていない間は(S401:NO)、ステップS401の待ちループを繰り返す。 In step S401, the PC 150 determines whether the user has used the input device 112 to issue an instruction to display the RAW video. The above display instruction is an instruction to update the image displayed in the preview area 320, and may include information indicating a specific frame from which display should begin. A user operation equivalent to a display instruction is, for example, an operation to select a RAW video displayed in the video list area 310, or an operation to move the playback bar 350 displayed in the timeline area 340. If the user simply selects the RAW video itself, the display instruction may mean an instruction to begin displaying from the first frame of the RAW video. When the PC 150 receives a display instruction (S401: YES), it proceeds to step S402, and while the PC 150 has not received a display instruction (S401: NO), it repeats the wait loop of step S401.

ステップS402において、PC150は、ステップS401の判定に係る表示指示に示されるRAW動画を現像する要求を、サーバ100に送信する。以上の現像要求は、現像すべきRAW動画のファイル名、表示を開始すべき特定のフレームの番号、及びRAW現像パラメータを含む。PC150は、以上の現像要求を送信した後、ステップS403に処理を進める。 In step S402, the PC 150 transmits to the server 100 a request to develop the RAW video indicated in the display instruction determined in step S401. The development request includes the file name of the RAW video to be developed, the number of the specific frame from which display should begin, and the RAW development parameters. After transmitting the development request, the PC 150 proceeds to step S403.

ステップS411において、サーバ100は、PC150からRAW動画の現像要求を受信したか否かを判定する。サーバ100は、現像要求を受信すると(S411:YES)、ステップS412に進み、現像要求を受信していない間は(S411:NO)、ステップS411の待ちループを繰り返す。 In step S411, the server 100 determines whether or not a development request for a RAW video has been received from the PC 150. If the server 100 receives a development request (S411: YES), the server 100 proceeds to step S412, and if the server 100 has not received a development request (S411: NO), the server 100 repeats the waiting loop of step S411.

ステップS412において、サーバ100は、PC150から受信した現像要求が示すRAW動画のファイル名及び特定のフレームの番号に基づいて、HDD104に記憶されているRAW動画ファイルからそのフレーム番号のフレームデータを読み出す。 In step S412, the server 100 reads the frame data for a specific frame number from the RAW video file stored in the HDD 104 based on the file name of the RAW video and the number of a specific frame indicated in the development request received from the PC 150.

ステップS413において、サーバ100は、PC150から受信した現像要求が示すRAW現像パラメータを用いて、ステップS412で読み出したフレームデータに対して現像処理を実行する。以上の現像処理によって取得される現像結果は、例えば、RAW現像パラメータに基づいて現像されたRGB形式の画像データである。現像結果は、JPEG等の任意の圧縮方式に従って圧縮されていてよい。 In step S413, the server 100 executes a development process on the frame data read in step S412 using the RAW development parameters indicated in the development request received from the PC 150. The development result obtained by the above development process is, for example, RGB format image data developed based on the RAW development parameters. The development result may be compressed according to any compression method such as JPEG.

ステップS414において、サーバ100は、ステップS413で実行した現像処理による現像結果を、現像要求を送信したPC150に対して送信し、図4(b)の処理を終了する。 In step S414, the server 100 transmits the development results of the development process executed in step S413 to the PC 150 that sent the development request, and ends the process of FIG. 4(b).

ステップS403において、PC150は、ステップS402で送信した現像要求に対応する現像結果をサーバ100から受信したか否かを判定する。PC150は、現像結果を受信すると(S403:YES)、ステップS404に進み、現像結果を受信していない間は(S403:NO)、ステップS403の待ちループを繰り返す。 In step S403, PC 150 determines whether or not it has received from server 100 the development results corresponding to the development request sent in step S402. If PC 150 receives the development results (S403: YES), it proceeds to step S404, and if it has not received the development results (S403: NO), it repeats the waiting loop of step S403.

ステップS404において、PC150は、ステップS403の判定に係る受信した現像結果をプレビューエリア320に表示し、図4(a)の処理を終了する。 In step S404, the PC 150 displays the received development result determined in step S403 in the preview area 320, and ends the process of FIG. 4(a).

図4(c)及び図4(d)は、ユーザがRAW動画を編集し終えた際のサーバ100及びPC150の動作を示すフローチャートである。より具体的には、図4(c)は、ユーザによる編集内容を示す編集情報をサーバ100に送信するPC150の動作を示し、図4(d)は、PC150から編集情報を受信するサーバ100の動作を示す。前述と同様、図4(c)及び図4(d)は、サーバ100及びPC150の協働の元、並列的に実行される。 Figures 4(c) and 4(d) are flowcharts showing the operations of the server 100 and the PC 150 when the user has finished editing the RAW video. More specifically, Figure 4(c) shows the operation of the PC 150 to send editing information indicating the editing content by the user to the server 100, and Figure 4(d) shows the operation of the server 100 to receive the editing information from the PC 150. As described above, Figures 4(c) and 4(d) are executed in parallel with the cooperation of the server 100 and the PC 150.

ステップS421において、PC150は、ユーザが入力デバイス112を用いてRAW動画の編集を完了する指示を行ったか否かを判定する。以上の完了指示は、例えば、RAW動画をカット編集し別のファイル形式でエクスポートする操作であってもよく、カット編集したRAW動画を一時保存する操作であってもよい。PC150は、完了指示を受け付けると(S421:YES)、ステップS422に進み、完了指示を受け付けていない間は(S421:NO)、ステップS421の待ちループを繰り返す。 In step S421, the PC 150 determines whether the user has used the input device 112 to issue an instruction to complete editing of the RAW video. The above completion instruction may be, for example, an operation to cut and edit the RAW video and export it in a different file format, or an operation to temporarily save the cut-edited RAW video. When the PC 150 receives a completion instruction (S421: YES), it proceeds to step S422, and while the PC 150 has not received a completion instruction (S421: NO), it repeats the wait loop of step S421.

ステップS422において、PC150は、ステップS421の完了指示に係るRAW動画に対する編集情報をサーバ100に送信し、図4(c)の処理を終了する。以上の編集情報は、編集を指示したユーザを識別するユーザ識別子等の識別情報、編集されたRAW動画のファイル名、カットされた区間を特定する先頭フレーム及び末尾フレームの番号又はタイムコード、及び各フレームの現像設定を含む。 In step S422, the PC 150 transmits editing information for the RAW video related to the completion instruction in step S421 to the server 100, and ends the process in FIG. 4(c). The above editing information includes identification information such as a user identifier that identifies the user who instructed the editing, the file name of the edited RAW video, the numbers or time codes of the first and last frames that identify the cut section, and the development settings for each frame.

ステップS431において、サーバ100は、PC150から編集情報を受信したか否かを判定する。サーバ100は、編集情報を受信すると(S431:YES)、ステップS432に進み、編集情報を受信していない間は(S431:NO)、ステップS431の待ちループを繰り返す。 In step S431, the server 100 determines whether or not editing information has been received from the PC 150. If the server 100 receives editing information (S431: YES), the server 100 proceeds to step S432, and if editing information has not been received (S431: NO), the server 100 repeats the waiting loop of step S431.

ステップS432において、サーバ100は、PC150から受信した編集情報をHDD104に記憶して、図4(d)の処理を終了する。 In step S432, the server 100 stores the editing information received from the PC 150 in the HDD 104 and ends the process of FIG. 4(d).

上記した図4(a)及び図4(c)の処理は、サーバ100にアクセス可能な複数のPC150によって実行されてよい。複数のユーザの編集作業に基づいて複数のPC150の各々から送信された編集情報は、ユーザ識別子と関連付けられてサーバ100のHDD104に蓄積される。 The above-mentioned processes in FIG. 4(a) and FIG. 4(c) may be executed by a plurality of PCs 150 that can access the server 100. Editing information transmitted from each of the plurality of PCs 150 based on the editing work of a plurality of users is associated with a user identifier and stored in the HDD 104 of the server 100.

図5は、RAW動画の再生に関するサーバ100の現像制御処理を示すフローチャートである。図5(a)のステップS503を詳述したフローチャートが図5(b)である。 Figure 5 is a flowchart showing the development control process of the server 100 regarding the playback of RAW video. Figure 5(b) is a flowchart that details step S503 in Figure 5(a).

ステップS501において、サーバ100は、PC150からRAW動画の再生要求を受信したか否かを判定する。サーバ100は、再生要求を受信すると(S501:YES)、ステップS502に進み、再生要求を受信していない間は(S501:NO)、ステップS501の待ちループを繰り返す。 In step S501, the server 100 determines whether or not a playback request for a RAW video has been received from the PC 150. If the server 100 receives a playback request (S501: YES), the server 100 proceeds to step S502, and if the server 100 has not received a playback request (S501: NO), the server 100 repeats the wait loop of step S501.

以上の再生要求は、コントロールエリア330内の再生ボタンの押下等のユーザ操作に従ってPC150がサーバ100に送信するデータである。また、以上の再生要求は、再生対象であるRAW動画のファイル名及び再生位置(例えば、表示中のRAW動画の対象フレームを示すフレーム番号)、並びに再生要求に係る操作を行ったユーザのユーザ識別子を含む。以下、RAW動画の再生要求を送信したPC150のユーザを「要求ユーザ」と称し、要求ユーザ以外のユーザを「他ユーザ」と称することがある。 The above playback request is data that PC 150 sends to server 100 in response to a user operation such as pressing the play button in control area 330. The above playback request also includes the file name and playback position of the RAW video to be played (e.g., the frame number indicating the target frame of the RAW video being displayed), as well as the user identifier of the user who performed the operation related to the playback request. Hereinafter, the user of PC 150 who sent the request to play the RAW video will be referred to as the "requesting user," and users other than the requesting user will be referred to as "other users."

ステップS502において、サーバ100は、ステップS501にて受信した再生要求に係るRAW動画について、再生要求が含むユーザ識別子と関連付けられた編集情報がHDD104に記憶されているか否かを判定する。サーバ100は、要求ユーザの編集情報が存在する場合(S502:YES)、処理をステップS504に進め、要求ユーザの編集情報が存在しない場合(S502:NO)、処理をステップS503に進める。 In step S502, the server 100 determines whether or not editing information associated with the user identifier included in the playback request is stored in the HDD 104 for the RAW video related to the playback request received in step S501. If editing information for the requesting user exists (S502: YES), the server 100 proceeds to step S504. If editing information for the requesting user does not exist (S502: NO), the server 100 proceeds to step S503.

ステップS503において、サーバ100は、図5(b)に示されるステップS511~S516を実行する。詳細は後述されるが、概略的には、他ユーザの編集情報に基づいて現像処理が制御される。 In step S503, the server 100 executes steps S511 to S516 shown in FIG. 5(b). The details will be described later, but in general, the development process is controlled based on the editing information of other users.

ステップS504において、サーバ100は、再生対象であるRAW動画に対する要求ユーザの編集情報をHDD104から読み出して取得する。 In step S504, the server 100 reads and acquires from the HDD 104 the editing information of the requesting user for the RAW video to be played.

ステップS505において、サーバ100は、再生要求が示す再生位置(対象フレーム)における、ステップS504で読み出した要求ユーザの編集情報が示す現像設定に基づいて現像処理を実行し、再生要求を送信したPC150に対して現像結果を送信する。PC150は、サーバ100から受信した現像結果をプレビューエリア320に表示する。 In step S505, the server 100 executes development processing based on the development settings indicated in the editing information of the requesting user read in step S504 at the playback position (target frame) indicated by the playback request, and transmits the development results to the PC 150 that sent the playback request. The PC 150 displays the development results received from the server 100 in the preview area 320.

以降、サーバ100は、再生要求が示す再生位置から開始するRAW動画の現像処理及び現像結果の送信処理を継続する。ただし、再生要求を送信したPC150から再生停止要求を受信した場合や、RAW動画の再生が終了した場合(すなわち、RAW動画の最終フレームに対する現像処理及び送信処理が完了した場合)、サーバ100は現像処理及び送信処理を停止する。 After this, the server 100 continues the development process of the RAW video and the transmission process of the development results starting from the playback position indicated by the playback request. However, if the server 100 receives a playback stop request from the PC 150 that sent the playback request, or if playback of the RAW video ends (i.e., the development process and transmission process for the final frame of the RAW video are completed), the server 100 stops the development process and transmission process.

次いで、図5(b)を参照して、ステップS503に含まれるステップS511~S516の処理を説明する。 Next, the processing of steps S511 to S516 included in step S503 will be described with reference to FIG. 5(b).

ステップS511において、サーバ100は、現像処理を実行すべき対象フレームにおける他ユーザの編集情報をHDD104から読み出して取得する。ステップS511が初回に実行される場合、対象フレームは再生要求が示す再生を開始する位置である。 In step S511, the server 100 reads and acquires from the HDD 104 the editing information of other users for the target frame for which development processing is to be performed. When step S511 is performed for the first time, the target frame is the position at which playback indicated by the playback request is to start.

ステップS512において、サーバ100は、対象フレームにおける他ユーザの編集情報の数n(編集回数)が所定の閾値N以上であるか否かを判定する。サーバ100は、編集情報の数nが閾値N以上である場合(S512:YES)、処理をステップS513に進め、編集情報の数が閾値N未満である場合(S512:NO)、処理をS515に進める。 In step S512, the server 100 determines whether the number n of editing information (number of edits) of other users in the target frame is equal to or greater than a predetermined threshold N. If the number n of editing information is equal to or greater than the threshold N (S512: YES), the server 100 proceeds to step S513, and if the number of editing information is less than the threshold N (S512: NO), the server 100 proceeds to step S515.

ステップS513において、サーバ100は、対象フレームにおける他ユーザの編集情報のうち編集内容が「カット」である編集情報の数m(カット編集回数)が所定の閾値M以上であるか否かを判定する。サーバ100は、該当する編集情報の数mが閾値M以上である場合(S513:YES)、処理をステップS514に進め、該当する編集情報の数mが閾値M未満である場合(S512:NO)、処理をS515に進める。 In step S513, the server 100 determines whether the number m of editing information whose editing content is "cut" (number of cut edits) among the editing information of other users in the target frame is equal to or greater than a predetermined threshold value M. If the number m of the corresponding editing information is equal to or greater than the threshold value M (S513: YES), the server 100 proceeds to step S514, and if the number m of the corresponding editing information is less than the threshold value M (S512: NO), the server 100 proceeds to step S515.

ステップS514において、サーバ100は、対象フレームに対して簡易的な現像処理(簡易現像)を実行し、再生要求を送信したPC150に対して簡易現像の現像結果を送信する。PC150は、サーバ100から受信した現像結果をプレビューエリア320に表示する。 In step S514, the server 100 executes a simple development process (simple development) on the target frame and transmits the development results of the simple development to the PC 150 that sent the playback request. The PC 150 displays the development results received from the server 100 in the preview area 320.

以上の簡易的な現像処理は、通常の現像処理よりもCPU101の処理負荷が軽い現像処理であって、例えば、一部の処理を省略した現像処理や、解像度を低減させたRAW動画に対する現像処理である。省略され得る処理として、例えば、シャープネス処理、ノイズ除去処理、偽色抑制処理、モアレ抑制処理が非限定的に列挙される。 The above simplified development processes impose a lighter processing load on the CPU 101 than normal development processes, such as development processes that omit some processes or development processes for RAW video with reduced resolution. Examples of processes that may be omitted include, but are not limited to, sharpness processing, noise reduction processing, false color suppression processing, and moiré suppression processing.

ステップS515において、サーバ100は、対象フレームに対して通常の現像処理(通常現像)を実行し、再生要求を送信したPC150に対して通常現像の現像結果を送信する。PC150は、サーバ100から受信した現像結果をプレビューエリア320に表示する。 In step S515, the server 100 executes normal development processing (normal development) on the target frame and transmits the development results of the normal development to the PC 150 that sent the playback request. The PC 150 displays the development results received from the server 100 in the preview area 320.

ステップS516において、サーバ100は、現在の対象フレームがRAW動画の最終フレームであるか否かを判定する。サーバ100は、対象フレームが最終フレームである場合(S516:YES)、処理を終了し、対象フレームが最終フレームではない場合(S516:NO)、対象フレームを次のフレームに進めた上で処理をステップS511に戻す。 In step S516, the server 100 determines whether the current target frame is the final frame of the RAW video. If the target frame is the final frame (S516: YES), the server 100 ends the process. If the target frame is not the final frame (S516: NO), the server 100 advances the target frame to the next frame and returns the process to step S511.

図6は、以上の処理(特に、図5(b)のステップS513,S514)によって実現される簡易現像の対象区間(簡易現像区間)の説明図である。図6は、タイムコードを用いて複数のユーザに係るRAW動画の部分的な再生範囲(00:00:00:00~00:05:00:00)を示している。 Figure 6 is an explanatory diagram of the target section for simple development (simple development section) realized by the above process (particularly steps S513 and S514 in Figure 5(b)). Figure 6 shows the partial playback range (00:00:00:00 to 00:05:00:00) of RAW videos related to multiple users using time codes.

図示されるように、3人の他ユーザ1~3は、同じRAW動画AAAAのそれぞれ異なる区間(時間的な範囲)をカット編集している。他ユーザ1は区間00:02:00:00~00:03:00:00をカットし、他ユーザ2は区間00:02:10:00~00:02:50:00をカットし、他ユーザ3は区間00:01:45:00~00:02:55:00をカットしている。 As shown in the figure, three other users 1 to 3 have cut and edited different sections ( time ranges) of the same RAW video AAAA. Other user 1 cuts the section 00:02:00:00 to 00:03:00:00, other user 2 cuts the section 00:02:10:00 to 00:02:50:00, and other user 3 cuts the section 00:01:45:00 to 00:02:55:00.

3人の他ユーザ1~3が共通してカットした区間は、共通カット区間00:02:10:00~00:02:50:00である。換言すると、共通カット区間00:02:10:00~00:02:50:00におけるカット編集回数mは「3」である。ステップS513の閾値Mが「3」である場合、以上の共通カット区間においてステップS513の判定がYESになり、他の区間においては判定がNOとなる。結果として、共通カット区間00:02:10:00~00:02:50:00において簡易現像が適用される。 The section cut in common by the three other users 1 to 3 is the common cut section 00:02:10:00 to 00:02:50:00. In other words, the number of cut edits m in the common cut section 00:02:10:00 to 00:02:50:00 is "3". If the threshold M in step S513 is "3", the determination in step S513 will be YES for the above common cut sections and NO for the other sections. As a result, simple development is applied to the common cut section 00:02:10:00 to 00:02:50:00.

多くのユーザがカットした区間はユーザにとっての重要度が低い区間である可能性が高いので、動画の品質が低くても問題が生じる可能性が低い。編集を行っていない要求ユーザからの再生要求に対して、他ユーザにカットされ易い区間のRAW動画(対象フレーム)において簡易現像を適用することで、重要度が高い区間(範囲)の動画品質とサーバ100の処理負荷軽減とを両立できる。 Sections cut by many users are likely to be sections that are of low importance to the users, so there is little chance of problems occurring even if the video quality is low. In response to a playback request from a requesting user who has not performed editing, simple development is applied to the RAW video (target frames) of sections that are likely to be cut by other users, making it possible to achieve both video quality for sections (ranges) of high importance and a reduced processing load on the server 100.

なお、図6では、複数の他ユーザが共通してカットした区間(すなわち、複数のカット区間をAND条件で結合した部分)に対して簡易現像が適用されている(M=編集ユーザ数)。しかしながら、複数の他ユーザのいずれかがカットした区間(すなわち、複数のカット区間をOR条件で結合した部分)に対して簡易現像が適用されてもよい(M=1)。 In FIG. 6, simple development is applied to sections that were commonly cut by multiple other users (i.e., sections where multiple cut sections are joined with an AND condition) (M = number of editing users). However, simple development may also be applied to sections that were cut by any of multiple other users (i.e., sections where multiple cut sections are joined with an OR condition) (M = 1).

上記した本実施形態の構成によれば、ユーザによる編集内容を示す編集情報に応じてRAW動画(対象フレーム)に対する現像処理の手法が選択される。結果として、サーバ100における動画の現像処理の負荷を軽減できる。 According to the configuration of this embodiment described above, a development processing method for a RAW video (target frame) is selected according to editing information indicating the editing content by the user. As a result, the load of video development processing on the server 100 can be reduced.

<第2実施形態>
以下、本発明の第2実施形態について説明する。以下に例示する各実施形態において、作用、機能が第1実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の説明を適宜に省略する。第1実施形態において説明した図1乃至図4の構成及び動作は、第2実施形態に準用される。
Second Embodiment
A second embodiment of the present invention will be described below. In each of the embodiments exemplified below, for elements whose actions and functions are equivalent to those of the first embodiment, the reference numerals referred to in the above description will be used and the description of each will be omitted as appropriate. The configurations and operations of the first embodiment shown in Figs. 1 to 4 are applied mutatis mutandis to the second embodiment.

第1実施形態では、時間的な範囲である区間に対する編集内容(カット編集等)を示す編集情報に基づいて現像処理が制御されている。第2実施形態では、画像領域的な範囲に対する編集内容(クロップ編集等)を示す編集情報に基づいて現像処理が制御される。 In the first embodiment, the development process is controlled based on editing information that indicates the editing content (cut editing, etc.) for a section that is a time range. In the second embodiment, the development process is controlled based on editing information that indicates the editing content (crop editing, etc.) for an image area range.

図7は、RAW動画の再生に関するサーバ100の現像制御処理を示すフローチャートである。図7(a)のステップS703を詳述したフローチャートが図7(b)である。図7(a)のステップS701,S702,S704,S705は、第1実施形態の図5(a)のステップS501,S502,S504,S505と同様であるから、説明を省略する。 Figure 7 is a flowchart showing the development control process of the server 100 regarding the playback of RAW video. Figure 7(b) is a flowchart detailing step S703 in Figure 7(a). Steps S701, S702, S704, and S705 in Figure 7(a) are similar to steps S501, S502, S504, and S505 in Figure 5(a) of the first embodiment, and therefore will not be described.

図7(b)を参照して、ステップS703に含まれるステップS711~S717の処理を説明する。図7(b)のステップS711,S712,S716,S717は、第1実施形態の図5(b)のステップS511,S512,S515,S516と同様であるから、説明を省略する。 The processing of steps S711 to S717 included in step S703 will be described with reference to FIG. 7(b). Steps S711, S712, S716, and S717 in FIG. 7(b) are similar to steps S511, S512, S515, and S516 in FIG. 5(b) of the first embodiment, and therefore will not be described.

ステップS713において、サーバ100は、ステップS711にて読み出した他ユーザの編集情報のうち編集内容が「クロップ」である編集情報の数m(クロップ編集回数)が所定の閾値M以上であるか否かを判定する。ここで、クロップは、フレームの全領域から一部領域を切り抜く編集処理を意味し、図8を参照して後述される。サーバ100は、該当する編集情報の数mが閾値M以上である場合(S713:YES)、処理をステップS714に進め、該当する編集情報の数mが閾値M未満である場合(S712:NO)、処理をS716に進める。 In step S713, the server 100 determines whether the number m of editing information whose editing content is "crop" (the number of crop edits) among the editing information of other users read in step S711 is equal to or greater than a predetermined threshold value M. Here, cropping refers to an editing process in which a portion of the entire area of a frame is cut out, and is described below with reference to FIG. 8. If the number m of the corresponding editing information is equal to or greater than the threshold value M (S713: YES), the server 100 proceeds to step S714, and if the number m of the corresponding editing information is less than the threshold value M (S712: NO), the server 100 proceeds to step S716.

ステップS714において、サーバ100は、クロップ編集に係る編集情報を参照して、対象フレームにおいて全ての他ユーザにクロップされていない共通未クロップ領域(図8の領域0~s1,e3~W)を特定する。 In step S714, the server 100 refers to the editing information related to crop editing and identifies the common uncropped areas (areas 0 to s1, e3 to W in Figure 8) in the target frame that have not been cropped by any other users.

ステップS715において、サーバ100は、ステップS714にて特定された共通未クロップ領域に対して簡易現像を実行する一方、その他のクロップ領域に対して通常現像を実行する。サーバ100は、簡易現像領域と通常現像領域とが含まれる対象フレームの現像結果を、再生要求を送信したPC150に対して送信する。PC150は、サーバ100から受信した現像結果をプレビューエリア320に表示する。 In step S715, the server 100 performs simple development on the common uncropped area identified in step S714, while performing normal development on the other cropped areas. The server 100 transmits the development results of the target frame that includes the simple development area and the normal development area to the PC 150 that transmitted the playback request. The PC 150 displays the development results received from the server 100 in the preview area 320.

図8は、以上の処理(特に、図7(b)のステップS713~S715)によって実現される簡易現像の対象領域(簡易現像領域)の説明図である。図8は、RAW動画のある1つのフレームにおける画像領域0~Wを示している。 Figure 8 is an explanatory diagram of the target area for simple development (simple development area) realized by the above process (particularly steps S713 to S715 in Figure 7(b)). Figure 8 shows image areas 0 to W in one frame of a RAW video.

図示されるように、3人の他ユーザ1~3は、同じRAW動画のフレームのそれぞれ異なる領域(空間範囲)をクロップ編集している。他ユーザ1は領域s1~e1をクロップし、他ユーザ2は領域s2~e2をクロップし、他ユーザ3は領域s3~e3をクロップしている。 As shown in the figure, three other users 1-3 are cropping and editing different regions (spatial ranges) of the same RAW video frame. Other user 1 crops the region s1-e1, other user 2 crops the region s2-e2, and other user 3 crops the region s3-e3.

3人の他ユーザ1~3のいずれかがクロップした領域は、クロップ領域s1~e3である。換言すると、3人の他ユーザ1~3のいずれにもクロップされていない領域(共通未クロップ領域)は、領域0~s1,e3~Wである。したがって、ステップS714において以上の共通未クロップ領域が特定され、ステップS715において共通未クロップ領域に対して簡易現像が実行される。 The areas cropped by any of the three other users 1 to 3 are cropped areas s1 to e3. In other words, the areas not cropped by any of the three other users 1 to 3 (common uncropped areas) are areas 0 to s1 and e3 to W. Therefore, the above common uncropped areas are identified in step S714, and simple development is performed on the common uncropped areas in step S715.

多くのユーザにクロップされなかった領域はユーザにとっての重要度が低い領域である可能性が高いので、動画の品質が低くても問題が生じる可能性が低い。編集を行っていない要求ユーザからの再生要求に対して、他ユーザにクロップされないフレーム内の領域に対して簡易現像を適用することで、重要度が高い領域(範囲)の動画品質とサーバ100の処理負荷軽減とを両立できる。 Areas that are not cropped by many users are likely to be areas that are of low importance to the users, so there is little chance of problems occurring even if the video quality is low. By applying simple development to areas within the frame that are not cropped by other users in response to a playback request from a requesting user who is not performing editing, it is possible to achieve both video quality in areas (ranges) that are of high importance and a reduction in the processing load on the server 100.

なお、図8では、複数の他ユーザに共通してクロップされなかった領域(すなわち、複数の未クロップ領域をAND条件で結合した部分)に対して簡易現像が適用されている。しかしながら、複数の他ユーザのうち所定人数にクロップされなかった領域に対して簡易現像が適用されてもよい。 In FIG. 8, simplified development is applied to areas that are not cropped by multiple other users (i.e., areas where multiple uncropped areas are combined with an AND condition). However, simplified development may also be applied to areas that are not cropped by a predetermined number of other users.

なお、図8では、説明の簡単のために水平方向においてクロップ編集が適用される構成が説明されている。しかしながら、垂直方向においてクロップ編集が適用される構成にも、水平及び垂直の両方向においてクロップ編集が適用される構成にも、本実施形態の処理を適用することができる。 Note that, for simplicity of explanation, FIG. 8 illustrates a configuration in which crop editing is applied in the horizontal direction. However, the processing of this embodiment can be applied to a configuration in which crop editing is applied in the vertical direction, and to a configuration in which crop editing is applied in both the horizontal and vertical directions.

上記した本実施形態の構成によれば、ユーザによる編集内容を示す編集情報に応じてRAW動画(対象領域)に対する現像処理の手法が選択される。結果として、サーバ100における動画の現像処理の負荷を軽減できる。 According to the configuration of this embodiment described above, a development processing method for the RAW video (target area) is selected according to editing information indicating the editing content by the user. As a result, the load of video development processing on the server 100 can be reduced.

<変形例>
以上の実施形態は多様に変形される。具体的な変形の態様を以下に例示する。以上の実施形態及び以下の例示から任意に選択された2以上の態様は、相互に矛盾しない限り適宜に併合され得る。
<Modification>
The above embodiment may be modified in various ways. Specific modified aspects are exemplified below. Two or more aspects selected from the above embodiment and the following examples may be appropriately combined as long as they are not mutually inconsistent.

上記した実施形態(特に、ステップS514,S715)では、特定された範囲(区間、領域)に対して簡易現像を実行することでサーバ100の処理負荷が軽減されている。しかしながら、RAW動画のフレームを一定間隔で間引く処理等、負荷を軽減したその他の現像処理が実行されてもよい。 In the above embodiment (particularly steps S514 and S715), the processing load on the server 100 is reduced by performing simple development on the specified range (section, area). However, other development processes with reduced load, such as a process of thinning out frames of a RAW video at regular intervals, may also be performed.

上記した実施形態に関し、サーバ100が、カット編集又はクロップ編集を実行した他ユーザの数(該当する編集情報の数m)に応じて、簡易現像の処理内容を調整してもよい。例えば、該当する編集情報の数mが多いほど、省略される現像処理内の処理が多くなるように、ひいては処理負荷が軽減されるように、サーバ100が処理内容を変更してもよい。他に、RAW動画を編集するユーザの総数T(総ユーザ数)が確定している場合、サーバ100は、ユーザの総数Tに対する該当する編集情報の数mの比(m/T)に基づいて簡易現像を実行するか否かを決定してよい。 In the above embodiment, the server 100 may adjust the processing contents of the simplified development according to the number of other users who performed cut editing or crop editing (the number m of corresponding editing information). For example, the server 100 may change the processing contents so that the more the number m of corresponding editing information is, the more processing in the development process is omitted, and thus the processing load is reduced. In addition, when the total number T of users who edit RAW videos (total number of users) is determined, the server 100 may decide whether to perform simplified development based on the ratio (m/T) of the number m of corresponding editing information to the total number T of users.

上記した実施形態に関し、簡易現像されたフレームに対して一時停止等の特定の指示が行われる場合、又は簡易現像されたフレームに対して現像パラメータ調整が行われる場合、そのフレームの通常現像結果をサーバ100がPC150に送信し直してもよい。 With regard to the above-described embodiment, when a specific instruction such as pausing is given to a frame that has been simply developed, or when development parameters are adjusted for a frame that has been simply developed, the server 100 may resend the normal development result of that frame to the PC 150.

上記した実施形態に関し、表示画面300のタイムラインエリア340内に、簡易現像が適用される区間がアイコンやマーク等の所定の図形によって明示されてもよい。 With respect to the above embodiment, the section to which simplified development is applied may be clearly indicated by a specified figure such as an icon or mark within the timeline area 340 of the display screen 300.

上記した実施形態に関し、サーバ100が、PC150を用いてサーバ100にアクセスするユーザの個人認証を実行してよい。プロフィールに基づいて複数のユーザがグループ化されてよい。例えば、サーバ100は、属性又は好みが一致するユーザのグループを形成してよい。サーバ100は、グループに含まれるユーザに対応する編集情報の内から、所定の編集処理の実行を示す編集情報の数n,mをカウントすると好適である。加えて、サーバ100は、プロフィールに基づいたカウント値の重み付けを行ってもよい。 Regarding the above-described embodiment, the server 100 may perform personal authentication of a user who accesses the server 100 using the PC 150. A plurality of users may be grouped based on a profile. For example, the server 100 may form a group of users with matching attributes or preferences. The server 100 preferably counts the number n, m of editing information indicating the execution of a predetermined editing process from among the editing information corresponding to the users included in the group. In addition, the server 100 may weight the count value based on the profile.

上記した実施形態に関し、サーバ100のアプリケーションAPが、他ユーザによる編集情報の利用を許諾するか否かを、編集情報を生成したユーザに確認する機能を有してもよい。サーバ100は、利用許諾を得られなかったユーザの編集情報を、編集情報の数n,mに算入しないと好適である。 In the above embodiment, the application AP of the server 100 may have a function of confirming with the user who generated the editing information whether or not he/she permits other users to use the editing information. It is preferable that the server 100 does not include the editing information of a user who has not obtained permission to use the editing information in the number n and m of editing information.

上記した実施形態では、PC150においてアプリケーションAPが実行されている。しかしながら、アプリケーションAPは任意の箇所にて実行され得る。例えば、サーバ100がアプリケーションAPを実行してもよい。その場合、サーバ100が表示画面300を示すデータをPC150に送信してディスプレイ160に表示し、PC150は表示画面300に対する操作を示すデータをサーバ100に送信すると好適である。 In the above embodiment, the application AP is executed in the PC 150. However, the application AP may be executed at any location. For example, the server 100 may execute the application AP. In that case, it is preferable that the server 100 transmits data indicating the display screen 300 to the PC 150 and displays it on the display 160, and the PC 150 transmits data indicating operations on the display screen 300 to the server 100.

上記した実施形態では、RAW動画に対する現像処理(再生処理)が制御されている。しかしながら、H.264形式の動画等、任意の形式の動画(オリジナル動画)に対して本発明の構成を応用可能である。例えば、重要度が低い区間に関しては再生時にフレームを一定間隔で間引くことによって、デコード処理の負荷を軽減できる。 In the above embodiment, the development process (playback process) for RAW video is controlled. However, the configuration of the present invention can be applied to video (original video) in any format, such as H.264 format video. For example, for sections with low importance, the load of the decoding process can be reduced by thinning out frames at regular intervals during playback.

以上、本発明の好ましい実施の形態について説明したが、本発明は上述した実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。アプリケーションAPの制御の下、上述の実施形態の機能の一部又は全部がコンピュータ上で稼働するオペレーティングシステムによって実現されてもよい。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-mentioned embodiment, and various modifications and changes are possible within the scope of the gist of the present invention. For example, the present invention can also be realized by supplying a program that realizes one or more functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors of a computer in the system or device read and execute the program. Some or all of the functions of the above-mentioned embodiments may be realized by an operating system running on a computer under the control of an application AP. The present invention can also be realized by a circuit (e.g., an ASIC) that realizes one or more functions.

記憶媒体から読み出された又はネットワークから供給されたプログラムコードが上述した実施形態における機能を実現し、プログラムコードを記憶する記憶媒体自体も本発明を構成する。以上の記憶媒体として、ハードディスク、ROM、RAM、不揮発性のメモリカードCD-ROM、CD-R、DVD、光ディスク、光磁気ディスク、MOが非限定的に例示される。以上のネットワークとして、LAN(ローカル・エリア・ネットワーク)、WAN(ワイド・エリア・ネットワーク)が非限定的に例示される。 The program code read from the storage medium or supplied from the network realizes the functions in the above-mentioned embodiments, and the storage medium itself that stores the program code also constitutes the present invention. Examples of the above-mentioned storage medium include, but are not limited to, a hard disk, a ROM, a RAM, a non-volatile memory card, a CD-ROM, a CD-R, a DVD, an optical disk, a magneto-optical disk, and an MO. Examples of the above-mentioned networks include, but are not limited to, a LAN (local area network) and a WAN (wide area network).

100 サーバ(情報処理装置)
101 CPU(編集手段、現像手段)
150 PC(ユーザ装置)
100 Server (information processing device)
101 CPU (editing means, developing means)
150 PC (user device)

Claims (18)

ユーザ装置と他のユーザ装置とを含む複数の装置から送信される編集情報に従って、RAW動画の時間的な範囲のうち、前記編集情報を送信した装置のユーザにとって不要な範囲を特定するための所定の編集処理を、前記RAW動画に対して実行する編集手段と、
前記RAW動画の時間的な範囲に対して第1現像処理及び前記第1現像処理より処理負荷が小さい第2現像処理のいずれかを実行する現像手段と、を備え、
前記ユーザ装置から前記RAW動画の再生要求を受け付けた場合であり、かつ前記ユーザ装置から送信された前記編集情報を保持していない場合、前記現像手段は、前記RAW動画の時間的な範囲のうち前記他のユーザ装置から送信された編集情報に従って特定された前記他のユーザ装置のユーザにとって不要な範囲に対して、前記第2現像処理を実行し、前記RAW動画の他の時間的な範囲に対して前記第1現像処理を実行する、ことを特徴とする情報処理装置。
an editing means for executing a predetermined editing process on the RAW video in accordance with editing information transmitted from a plurality of devices including a user device and another user device , in order to identify a time range of the RAW video that is unnecessary for a user of the device that transmitted the editing information ;
a developing unit that executes either a first developing process or a second developing process having a smaller processing load than the first developing process for a time range of the RAW moving image,
An information processing device characterized in that when a request to play the RAW video is received from the user device and the editing information transmitted from the other user device is not held , the developing means performs the second developing process on a range of the temporal range of the RAW video that is unnecessary for a user of the other user device, which range is identified in accordance with the editing information transmitted from the other user device, and performs the first developing process on other temporal ranges of the RAW video.
前記所定の編集処理が実行される前記RAW動画の時間的な範囲の少なくとも一部が重複する複数の編集情報の数が閾値以上である場合、前記現像手段は、前記複数の編集情報に従って特定される前記RAW動画の時間的な範囲に対して前記第2現像処理を実行し、
前記所定の編集処理が実行される前記RAW動画の時間的な範囲の少なくとも一部が重複する複数の編集情報の数が閾値以上でない場合、前記現像手段は、前記複数の編集情報に従って特定される前記RAW動画の時間的な範囲に対して前記第1現像処理を実行する、ことを特徴とする請求項1に記載の情報処理装置。
when the number of multiple pieces of editing information that at least partially overlap the temporal range of the RAW moving image for which the predetermined editing process is performed is equal to or greater than a threshold, the developing unit performs the second developing process on the temporal range of the RAW moving image that is specified in accordance with the multiple pieces of editing information;
2. The information processing device according to claim 1, characterized in that when the number of multiple pieces of editing information that overlap at least a portion of the temporal range of the RAW video for which the specified editing process is performed is not equal to or greater than a threshold, the developing means performs the first developing process on the temporal range of the RAW video specified in accordance with the multiple pieces of editing information.
前記現像手段は、前記所定の編集処理の実行を示す前記編集情報の数に応じて、各編集情報に従って特定される不要な範囲に対して、前記第2現像処理の一部の処理を省略して負荷を減らすよう調整し、
前記編集情報の数が多いほど、前記第2現像処理のうち省略する処理を多くする、ことを特徴とする請求項1又は請求項2に記載の情報処理装置。
the developing means adjusts the second developing process to reduce a load by omitting a part of the second developing process for an unnecessary range specified in accordance with each piece of editing information in accordance with the number of pieces of editing information indicating execution of the predetermined editing process;
3. The information processing apparatus according to claim 1, wherein the greater the number of pieces of editing information, the more processes in the second development process are omitted.
前記編集情報を送信した前記ユーザ装置のユーザが属するグループに含まれる複数のユーザのユーザ装置から送信された編集情報の内から、前記所定の編集処理の実行を示す前記編集情報の数がカウントされる、ことを特徴とする請求項2又は請求項3に記載の情報処理装置。 The information processing device according to claim 2 or 3, characterized in that the number of pieces of editing information indicating the execution of the predetermined editing process is counted from among the pieces of editing information transmitted from the user devices of multiple users included in a group to which the user of the user device that transmitted the editing information belongs. 前記所定の編集処理の実行を示す前記編集情報の数をカウントする場合、他ユーザ装置による編集情報の利用を許諾しないユーザ装置から送信される編集情報の数をカウントしない、ことを特徴とする請求項2から請求項4のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 2 to 4, characterized in that, when counting the number of pieces of editing information indicating the execution of the specified editing process, the information processing device does not count the number of pieces of editing information transmitted from a user device that does not permit use of the editing information by other user devices. 前記現像手段は、前記第2現像処理を実行した範囲に対する再生の一時停止の指示又は前記第2現像処理を実行した範囲に対する現像パラメータを調整するための指示を前記ユーザ装置から受信すると、当該範囲に対して前記第1現像処理を実行する、請求項1から請求項5のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5, wherein the developing means, upon receiving from the user device an instruction to pause playback for the range on which the second development process has been performed or an instruction to adjust development parameters for the range on which the second development process has been performed, performs the first development process for the range. 前記第2現像処理が適用された範囲を図形を用いて表示する表示手段を更に備える、請求項1から請求項6のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 6, further comprising a display means for displaying the range to which the second development process has been applied using a graphic. ユーザ装置から送信される編集情報に従って実行される前記所定の編集処理は、前記ユーザ装置から前記RAW動画の再生を要求された際に、前記RAW動画の時間的な範囲のうち前記所定の編集処理によって特定される不要な範囲が再生されないようにするカット編集である、ことを特徴とする請求項1から請求項7のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 7, characterized in that the predetermined editing process executed according to the editing information transmitted from the user device is a cut edit that prevents an unnecessary range of the time range of the RAW video identified by the predetermined editing process from being played back when the user device requests playback of the RAW video. ユーザ装置と他のユーザ装置とを含む複数の装置から送信される編集情報に従って、RAW動画の画像領域的な範囲のうち、前記編集情報を送信した装置のユーザにとって必要な範囲を特定するための所定の編集処理を、前記RAW動画に対して実行する編集手段と、
前記RAW動画の画像領域的な範囲に対して第1現像処理及び前記第1現像処理より処理負荷が小さい第2現像処理のいずれかを実行する現像手段と、を備え、
前記ユーザ装置から前記RAW動画の再生要求を受け付けた場合であり、かつ前記ユーザ装置から送信された前記編集情報を保持していない場合、前記現像手段は、前記RAW動画の画像領域的な範囲のうち前記他のユーザ装置から送信された編集情報に従って特定された前記他のユーザ装置のユーザにとって必要な範囲に対して、前記第1現像処理を実行し、前記RAW動画の他の画像領域的な範囲に対して前記第2現像処理を実行する、ことを特徴とする情報処理装置。
an editing means for executing a predetermined editing process on the RAW video in accordance with editing information transmitted from a plurality of devices including a user device and another user device , in order to identify a range of an image area of the RAW video that is necessary for a user of the device that transmitted the editing information ;
a developing unit that executes either a first developing process or a second developing process having a smaller processing load than the first developing process on an image area of the RAW moving image,
An information processing device characterized in that when a request to play the RAW video is received from the user device and the editing information transmitted from the other user device is not retained , the developing means performs the first developing process on a range of image area-like ranges of the RAW video that is necessary for the user of the other user device, which range is identified in accordance with the editing information transmitted from the other user device, and performs the second developing process on other image area-like ranges of the RAW video.
前記所定の編集処理が実行される前記RAW動画の画像領域的な範囲の少なくとも一部が重複する複数の編集情報の数が閾値以上である場合、前記現像手段は、前記複数の編集情報に従って特定される前記RAW動画の画像領域的な範囲に対して前記第2現像処理を実行し、
前記所定の編集処理が実行される前記RAW動画の画像領域的な範囲の少なくとも一部が重複する複数の編集情報の数が閾値以上でない場合、前記現像手段は、前記複数の編集情報に従って特定される前記RAW動画の画像領域的な範囲に対して前記第1現像処理を実行する、ことを特徴とする請求項9に記載の情報処理装置。
when the number of multiple pieces of editing information that overlap at least a portion of an image area-like range of the RAW video on which the predetermined editing process is performed is equal to or greater than a threshold, the developing unit performs the second developing process on the image area-like range of the RAW video specified in accordance with the multiple pieces of editing information;
10. An information processing device as described in claim 9, characterized in that when the number of multiple editing information pieces that overlap at least a portion of the image area-like range of the RAW video on which the specified editing process is performed is not equal to or greater than a threshold, the developing means performs the first developing process on the image area-like range of the RAW video identified in accordance with the multiple editing information pieces.
前記現像手段は、前記所定の編集処理の実行を示す前記編集情報の数に応じて、各編集情報に従って特定される必要な範囲以外の範囲に対して、前記第2現像処理の一部の処理を省略して負荷を減らすよう調整し、
前記編集情報の数が多いほど、前記第2現像処理のうち省略する処理を多くする、ことを特徴とする請求項9又は請求項10に記載の情報処理装置。
the developing means adjusts the load by omitting a part of the second developing process for a range other than a necessary range specified in accordance with each editing information in accordance with the number of editing information indicating execution of the predetermined editing process;
11. The information processing apparatus according to claim 9, wherein the greater the number of pieces of editing information, the more processes in the second development process are omitted.
前記編集情報を送信した前記ユーザ装置のユーザが属するグループに含まれる複数のユーザのユーザ装置から送信された編集情報の内から、前記所定の編集処理の実行を示す前記編集情報の数がカウントされる、ことを特徴とする請求項10又は請求項11に記載の情報処理装置。 The information processing device according to claim 10 or 11, characterized in that the number of pieces of editing information indicating the execution of the predetermined editing process is counted from among the pieces of editing information transmitted from the user devices of multiple users included in a group to which the user of the user device that transmitted the editing information belongs. 前記所定の編集処理の実行を示す前記編集情報の数をカウントする場合、他ユーザ装置による編集情報の利用を許諾しないユーザ装置から送信される編集情報の数をカウントしない、ことを特徴とする請求項10から請求項12のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 10 to 12, characterized in that, when counting the number of pieces of editing information indicating the execution of the specified editing process, the information processing device does not count the number of pieces of editing information transmitted from a user device that does not permit use of the editing information by other user devices. 前記現像手段は、前記第2現像処理を実行した範囲に対する再生の一時停止の指示又は前記第2現像処理を実行した範囲に対する現像パラメータを調整するための指示を前記ユーザ装置から受信すると、当該範囲に対して前記第1現像処理を実行する、請求項9から請求項13のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 9 to 13, wherein the developing means, upon receiving from the user device an instruction to pause playback for the range on which the second developing process has been performed or an instruction to adjust development parameters for the range on which the second developing process has been performed, performs the first developing process for the range. 前記第2現像処理が適用された範囲を図形を用いて表示する表示手段を更に備える、請求項9から請求項14のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 9 to 14, further comprising a display means for displaying the range to which the second development process has been applied using a graphic. ユーザ装置と他のユーザ装置とを含む複数の装置から送信される編集情報に従って、RAW動画の時間的な範囲のうち、前記編集情報を送信した装置のユーザにとって不要な範囲を特定するための所定の編集処理を、動画に対して実行することと、
前記RAW動画の時間的な範囲に対して第1現像処理及び前記第1現像処理より処理負荷が小さい第2現像処理のいずれかを実行することと、を備え、
前記ユーザ装置から前記RAW動画の再生要求を受け付けた場合であり、かつ前記ユーザ装置から送信された前記編集情報を保持していない場合、前記RAW動画の時間的な範囲のうち前記他のユーザ装置から送信された編集情報に従って特定された前記他のユーザ装置のユーザにとって不要な範囲に対して、前記第2現像処理が実行され、前記RAW動画の他の時間的な範囲に対して前記第1現像処理が実行される、ことを特徴とする情報処理方法。
executing a predetermined editing process on the moving image in accordance with editing information transmitted from a plurality of devices including the user device and another user device , for identifying a time range of the RAW moving image that is unnecessary for a user of the device that transmitted the editing information ;
executing either a first development process or a second development process having a smaller processing load than the first development process for a time range of the RAW moving image;
an information processing method comprising: when a request to play the RAW video is received from the user device and the editing information transmitted from the other user device is not held , the second development process is performed on a range of the temporal range of the RAW video that is unnecessary for a user of the other user device, which range is identified in accordance with the editing information transmitted from the other user device; and the first development process is performed on another temporal range of the RAW video.
ユーザ装置と他のユーザ装置とを含む複数の装置から送信される編集情報に従って、RAW動画の画像領域的な範囲のうち、前記編集情報を送信した装置のユーザにとって必要な範囲を特定するための所定の編集処理を、前記RAW動画に対して実行することと、
前記RAW動画の画像領域的な範囲に対して第1現像処理及び前記第1現像処理より処理負荷が小さい第2現像処理のいずれかを実行することと、を備え、
前記ユーザ装置から前記RAW動画の再生要求を受け付けた場合であり、かつ前記ユーザ装置から送信された前記編集情報を保持していない場合、前記RAW動画の画像領域的な範囲のうち前記他のユーザ装置から送信された編集情報に従って特定された前記他のユーザ装置のユーザにとって必要な範囲に対して、前記第1現像処理が実行され、前記RAW動画の他の画像領域的な範囲に対して前記第2現像処理が実行される、ことを特徴とする情報処理方法。
executing a predetermined editing process on the RAW video in accordance with editing information transmitted from a plurality of devices including the user device and another user device , for identifying a range of an image area of the RAW video that is necessary for a user of the device that transmitted the editing information ;
executing either a first development process or a second development process having a smaller processing load than the first development process on an image area-like range of the RAW moving image;
An information processing method characterized in that, when a request to play the RAW video is received from the user device and the editing information transmitted from the other user device is not retained , the first development process is performed on a range of image area-like ranges of the RAW video that is necessary for a user of the other user device and is identified in accordance with the editing information transmitted from the other user device, and the second development process is performed on other image area-like ranges of the RAW video.
コンピュータを、請求項1乃至15のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of an information processing device according to any one of claims 1 to 15.
JP2020060487A 2020-03-30 2020-03-30 Information processing device, information processing method, and program Active JP7634942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020060487A JP7634942B2 (en) 2020-03-30 2020-03-30 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020060487A JP7634942B2 (en) 2020-03-30 2020-03-30 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2021157755A JP2021157755A (en) 2021-10-07
JP7634942B2 true JP7634942B2 (en) 2025-02-25

Family

ID=77918617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020060487A Active JP7634942B2 (en) 2020-03-30 2020-03-30 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7634942B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206718A (en) 2009-03-05 2010-09-16 Canon Inc Device, method, and program for managing image, and recording medium
JP2015171042A (en) 2014-03-07 2015-09-28 キヤノン株式会社 Picture processing system and picture imaging apparatus
JP2018182550A (en) 2017-04-14 2018-11-15 キヤノン株式会社 Image processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206718A (en) 2009-03-05 2010-09-16 Canon Inc Device, method, and program for managing image, and recording medium
JP2015171042A (en) 2014-03-07 2015-09-28 キヤノン株式会社 Picture processing system and picture imaging apparatus
JP2018182550A (en) 2017-04-14 2018-11-15 キヤノン株式会社 Image processing apparatus

Also Published As

Publication number Publication date
JP2021157755A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
US8620112B2 (en) Image management apparatus and image management method searching for a development unit to perform a development process parameter set on a raw image data
JP4440120B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP2004336343A (en) Image processing system
JP2010016804A (en) Apparatus and method for processing image, and recording medium
US8582948B2 (en) Scenario editing apparatus and scenario editing method, image capturing apparatus and control method thereof, and scenario editing system
JP7634942B2 (en) Information processing device, information processing method, and program
JP5854826B2 (en) Image browsing apparatus, control method thereof, and recording medium
US11044436B2 (en) Information processing apparatus
JP7005284B2 (en) Image processing device, control method of image processing device, and program
JP2004064297A (en) Image processing apparatus, image display apparatus, image processing program, and image display program
JP5645878B2 (en) Image processing apparatus, control method therefor, and program
US12244845B2 (en) Image processing apparatus capable of converting image file such that all annotation information can be used, control method therefor, and storage medium
JP7523955B2 (en) Information processing device, information processing system, control method for information processing system, and program
JP3848151B2 (en) Imaging apparatus, imaging method, program, and storage medium
JP2008244872A (en) Image display device and program
US20230388533A1 (en) Image processing apparatus capable of converting image file such that all annotation information can be used, control method therefor, and storage medium
JP5338516B2 (en) Image processing system and communication device
JP2012065013A (en) Moving image file generation method
JP2019050444A (en) Interface device for data editing, capture device, image processing device, data editing method, and data editing program
JP2008203664A (en) Image processing apparatus and image processing method
JP2008017366A (en) Information processor, and information processing method
JP5430273B2 (en) Image reproduction apparatus, attribute change processing method, and program
JP2008090730A (en) Information processing program and information processor
JP5538836B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250212

R150 Certificate of patent or registration of utility model

Ref document number: 7634942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150