JP2005038164A - Manga editing device, manga editing program, manga editing method - Google Patents
Manga editing device, manga editing program, manga editing method Download PDFInfo
- Publication number
- JP2005038164A JP2005038164A JP2003274275A JP2003274275A JP2005038164A JP 2005038164 A JP2005038164 A JP 2005038164A JP 2003274275 A JP2003274275 A JP 2003274275A JP 2003274275 A JP2003274275 A JP 2003274275A JP 2005038164 A JP2005038164 A JP 2005038164A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- manga
- image
- identifier
- embedded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 241000556720 Manga Species 0.000 title claims description 112
- 238000000034 method Methods 0.000 title claims description 58
- 230000000694 effects Effects 0.000 claims description 68
- 238000003860 storage Methods 0.000 claims description 57
- 238000012937 correction Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 47
- 238000012986 modification Methods 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000009877 rendering Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 28
- 230000033001 locomotion Effects 0.000 description 27
- 238000003780 insertion Methods 0.000 description 18
- 230000037431 insertion Effects 0.000 description 18
- 230000009467 reduction Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000004040 coloring Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、マンガ編集装置に係り、特に、マンガ作家が作成したイラストを加工してマンガ原稿を作成する編集装置に関する。 The present invention relates to a manga editing device, and more particularly to an editing device that creates a manga manuscript by processing an illustration created by a manga artist.
従来より、新聞などの編集物に掲載される文字や画像の編集作業を自動化する試みがなされている。そのような試みを支援する技術を開示した文献として、例えば特許文献1がある。同文献は、新聞紙面の版下データを作成するシステムを開示している。同文献によると、このシステムは、紙面にレイアウトすべき各対象物が見出しであるか、埋め込み画像か、それともその他の記事かを判断する。そして、この判断結果に応じた好適な紙面レイアウトを自動的に決定する。これにより、段末の余白を少なくし、バランスの取れた新聞紙面を編集することができる。
ところで、効率的な編集作業が求められる編集物の一つにマンガがある。マンガ原稿の制作手順を示せば以下のようになる。まず、描きたいことやストーリーの流れを箇条書きで書き綴ったプロットと呼ばれる書面を作成する。続いてこのプロットを基に「コマ割り」と呼ばれる作業を行う。コマ割りとは、原稿の紙面を、「コマ」を描くための複数のフレームに仕切る作業である。「コマ」とは、同一シーンを描写するイラストや文字のまとまりのことである。コマを作るためのフレームの大きさや形に変化を持たせることで、マンガのストーリーの流れをうまく演出することができる。「コマ割り」が終了すると、各フレームに下絵とふきだし枠とを描く。そして、下絵をペンで着色すると共にふきだし枠に台詞を書き込んでマンガ原稿が完成する。 By the way, manga is one of the compilations that require efficient editing work. The procedure for producing a manga manuscript is as follows. First, create a document called a plot that spells out what you want to draw and the flow of the story. Then, based on this plot, an operation called “frame division” is performed. The frame division is an operation of dividing the paper surface of a document into a plurality of frames for drawing “frames”. “Frame” is a group of illustrations and characters that depict the same scene. By changing the size and shape of the frames used to make the frames, the flow of the manga story can be produced well. When the “frame division” is completed, a background picture and a balloon frame are drawn in each frame. Then, the manuscript is completed by coloring the sketch with a pen and writing lines in a speech bubble.
以上説明したように、これまでのマンガ原稿の制作作業は、まずコマ割りを行って各コマのフレームのレイアウトを決定し、この決定した各フレームにイラストやふきだし枠を直接書き込んでいくという手順を踏まなければならかった。従って、下絵やふきだし枠を描いた後にそれらを書き込んだフレームのレイアウトを修正するといったことができなかった。
この発明は、以上説明した事情に鑑みてなされたものであり、マンガの各コマのレイアウトを好適に修正しながらその原稿を生成できる編集システムを提供することを目的とする。
As explained above, the manga manuscript production work so far has been divided into frames, the frame layout of each frame is determined, and illustrations and speech bubbles are directly written in the determined frames. I had to step on it. Therefore, it is impossible to correct the layout of the frame in which the sketch or the speech frame is drawn after the sketch or the speech frame is drawn.
The present invention has been made in view of the circumstances described above, and an object thereof is to provide an editing system capable of generating a manuscript while suitably correcting the layout of each frame of a manga.
本発明の好適な態様であるマンガ編集装置は、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて格納する記憶手段と、フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信手段と、前記受信手段によって受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正手段と、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正手段と、前記第1の修正手段が修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込手段とを備える。
この構成によれば、マンガの編集者は、各コマ画像の形状や大きさと合致するフレームにコマ画像が埋め込まれたマンガ原稿を容易に取得することができる。
A manga editing apparatus according to a preferred aspect of the present invention includes: a storage unit that stores, for each of one or a plurality of frames, frame extension information indicating the extension of the frame in association with a frame identifier that uniquely identifies the frame; Receiving means for receiving a frame identifier and a frame image embedded in the frame; and reading out the frame extension information of the image-embedded frame associated with the frame identifier received by the receiving means from the storage means. First correction means for performing correction on the frame extension information of the image-embedded frame to match the extension of the frame image, and frame extension information of a neighboring frame adjacent to the image-embedded frame is read from the storage means, Modify the extension of the adjacent frame to correct the extension interval. Comprises a second correction means for applying to the broadcast, as well as draw the frame based on the frame extension information first correction means has corrected, and embedding means for embedding the frame image thus received to the drawing frame.
According to this configuration, a manga editor can easily obtain a manga document in which a frame image is embedded in a frame that matches the shape and size of each frame image.
この態様において、前記受信手段は、任意のフレームのフレーム識別子とフレームの修正指示とを受信し、前記第1の修正手段は、当該フレーム識別子と対応付けられたフレーム外延情報を前記記憶手段から読み出し、当該フレーム外延情報に対し前記受信した修正指示に応じた修正を施すようにしてもよい。
このようにすれば、マンガ原稿の各フレームの大まかなレイアウトをコマ画像が埋め込まれる前に予め決定することができる。
In this aspect, the receiving unit receives a frame identifier of an arbitrary frame and a frame correction instruction, and the first correcting unit reads out frame extension information associated with the frame identifier from the storage unit. The frame extension information may be corrected according to the received correction instruction.
In this way, a rough layout of each frame of the manga original can be determined in advance before the frame image is embedded.
また、前述の好適な態様において、前記記憶手段は、フレームに埋め込まれる効果音文字画像を、効果音文字を一意に識別する効果音文字識別子と関連付けて格納し、前記受信手段は、前記フレーム識別子と共に効果音文字識別子を受信し、前記埋め込み手段は、当該受信した効果音文字識別子と対応付けられた効果音文字画像を前記記憶手段から読み出すと共に、当該読み出した効果音文字画像を前記描画したフレームへ埋め込むようにしてもよい。
このようにすれば、予めテンプレートとして準備されている効果音文字のうちのいずれかを選択することにより、その効果音文字が埋め込まれたマンガ原稿を容易に取得することができる。
In the above-mentioned preferred embodiment, the storage means stores the sound effect character image embedded in the frame in association with a sound effect character identifier for uniquely identifying the sound effect character, and the receiving means stores the frame identifier. And the embedding means reads out the sound effect character image associated with the received sound effect character identifier from the storage means and the drawn frame of the sound effect character image. You may make it embed.
In this way, by selecting any one of the sound effect characters prepared as a template in advance, it is possible to easily obtain a manga document in which the sound effect character is embedded.
また、前述の好適な態様において、前記記憶手段は、フレームに埋め込まれるふきだし枠画像を、ふきだし枠を一意に識別するふきだし枠識別子と関連付けて格納し、前記受信手段は、前記フレーム識別子と共にふきだし枠識別子を受信し、前記埋め込み手段は、当該受信したふきだし枠識別子と対応付けられたふきだし枠画像を前記記憶手段から読み出すと共に、当該読み出したふきだし枠画像を前記描画したフレームへ埋め込むようにしてもよい。
このようにすれば、予めテンプレートとして準備されているふきだし枠のうちのいずれかを選択することにより、そのふきだし枠が埋め込まれたマンガ原稿を容易に取得することができる。
In the above-mentioned preferred embodiment, the storage unit stores a balloon frame image embedded in a frame in association with a balloon frame identifier that uniquely identifies the balloon frame, and the receiving unit stores the balloon frame together with the frame identifier. The identifier may be received, and the embedding unit may read the balloon frame image associated with the received balloon frame identifier from the storage unit and embed the read balloon frame image in the drawn frame. .
In this way, by selecting any one of the balloon frames prepared as templates in advance, it is possible to easily obtain a manga document in which the balloon frame is embedded.
この態様において、ふきだし枠に記述する台詞を取得する取得手段を更に備え、前記埋め込み手段は、前記取得手段が取得した台詞を前記フレームに埋め込んだふきだし枠の内部へ記述するようにしてもよい。
このようにすれば、ふきだし枠に台詞が記述されたマンガ原稿を容易に取得することができる。
In this aspect, the information processing apparatus may further include an acquisition unit that acquires a dialogue described in a speech frame, and the embedding unit may describe the speech acquired by the acquisition device inside the speech bubble embedded in the frame.
In this way, it is possible to easily obtain a manga manuscript in which dialogue is described in a speech frame.
また、本発明の別の好適な態様であるマンガ編集プログラムは、コンピュータ装置に、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶処理と、フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信処理と、前記受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正処理と、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正処理と、前記第1の修正処理によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込処理とを実行させる。
このようにすれば、前述したマンガ編集装置と同様の作用を一般的なコンピュータ装置によって実現することができる。
In addition, a manga editing program according to another preferred aspect of the present invention provides a computer apparatus with frame extension information indicating the extension of the frame for each of one or a plurality of frames, and a frame identifier for uniquely identifying the frame. Storage processing to be associated with each other and stored in its own storage means, reception processing to receive a frame identifier and a frame image embedded in the frame, and frame extension information of an image embedded frame associated with the received frame identifier A first correction process for reading out from the storage means and making a correction for matching the frame extension with the frame image extension to the frame extension information of the image embedded frame; Read information from the storage means and keep the frame extension interval A frame is drawn based on the second correction process for applying positive to the frame extension information of the adjacent frame and the frame extension information corrected by the first correction process, and the received frame image is displayed on the drawn frame. The embedding process is executed.
In this way, the same operation as the above-described manga editing device can be realized by a general computer device.
更に、本発明の別の好適な態様であるマンガ編集方法は、マンガ編集装置が、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶過程と、作家端末が、フレーム識別子とフレームに埋め込まれるコマ画像とを前記マンガ編集装置へ送信する送信過程と、前記マンガ編集装置が、前記作家端末から受信したフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正過程と、前記マンガ編集装置が、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正過程と、前記マンガ編集装置が、前記第1の修正過程によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込過程とを有する。
このようにすれば、作家端末とマンガ編集装置とが協調して動作することでマンガ原稿を効率的に作成することができる。
Further, in the manga editing method according to another preferred aspect of the present invention, the manga editing apparatus is configured to provide frame extension information indicating the extension of the frame for each of one or a plurality of frames, and a frame for uniquely identifying the frame. A storage process in which the identifier is stored in its own storage means; a transmission process in which the writer terminal transmits a frame identifier and a frame image embedded in the frame to the manga editing apparatus; and the manga editing apparatus includes the writer terminal. First, frame extension information of an image embedded frame associated with the frame identifier received from the storage unit is read out from the storage means, and a correction is performed on the frame extension information of the image embedded frame to make the frame extension coincide with the frame image extension. Correction process and the manga editing device is in close proximity to the image embedded frame. The frame extension information of a frame is read from the storage means, and a correction for maintaining the frame extension interval is applied to the frame extension information of the adjacent frame, and the manga editing device includes the first correction process. A frame is drawn based on the frame extension information corrected by the step of embedding and the received frame image is embedded in the drawn frame.
In this way, the manga manuscript can be efficiently created by the writer terminal and the manga editing device operating in cooperation.
(A:第1実施形態)
本実施形態に係るマンガ編集システムの特徴は、マンガ原稿に掲載するイラストの画像データをマンガ編集サーバ装置を用いて加工することにより、それらの画像データを埋め込んだ各コマが好適にレイアウトされたマンガ原稿を容易に取得できるようにした点にある。
(A: 1st Embodiment)
The feature of the manga editing system according to the present embodiment is that the image data of the illustrations to be published in the manga manuscript is processed by using the manga editing server device, and the frames in which the image data are embedded are suitably laid out. The manuscript can be easily obtained.
ここで、本実施形態における「コマ」とはマンガ原稿において同一シーンを描画するイラストと文字のまとまりを意味するものとして、また、「フレーム」とはひとつのコマを描画している領域の外延を区画する矩形を意味するものとして、以下の説明を行う。 Here, “frame” in this embodiment means a group of illustrations and characters that draw the same scene in a manga manuscript, and “frame” means the extension of the area where one frame is drawn. The following description will be made assuming that the rectangle is to be partitioned.
(1:マンガ編集システムの構成)
図1は、本実施形態に係るマンガ編集システムの全体構成を示すブロック図である。本システムは、マンガ編集サーバ装置1と作家端末3とをインターネットにより接続して構成される。マンガ編集サーバ装置1は、マンガの各コマに埋め込まれるコマ画像データを作家端末3から受け取り、作家端末3の指示に応じてこのコマ画像データを加工してマンガ原稿を生成する。そして、作家端末3は、マンガ編集サーバ装置1にコマ画像データの加工を指示し、これにより生成されたマンガ原稿データを取得する。
(1: Manga editing system configuration)
FIG. 1 is a block diagram showing the overall configuration of the manga editing system according to the present embodiment. This system is configured by connecting a manga
(2:マンガ編集サーバ装置の構成)
図2は、マンガ編集サーバ装置1のハードウェア構成を示すブロック図である。マンガ編集サーバ装置1は、制御部11、通信部12、表示部13、入力部14、揮発性記憶部15、不揮発性記憶部16、及びこれら各部を接続するバスを備えている。制御部11は、例えばCPU(central processing unit)である。通信部12は、例えば通信インターフェースである。表示部13は、例えばコンピュータディスプレイである。入力部14は、例えばキーボード及びマウスである。
揮発性記憶部15は、例えばRAM(random access memory)であり、制御部11のワークエリアとして利用される。不揮発性記憶部16は、例えばハードディスクであり、フレーム管理データベース16aと、ふきだし枠データベース16bと、効果音文字データベース16cとを格納している。
(2: Manga editing server device configuration)
FIG. 2 is a block diagram showing a hardware configuration of the manga
The
図3にフレーム管理データベース16aのデータ構造を示す。同データベースは、各々1つのフレームに対応した複数のレコードの集合体である。ここで、1つのフレームに対応した1つのレコードは、「フレーム」、「フレーム外延情報」、「コマ画像」、「台詞」、及び「効果音文字」の各フィールドを有している。「フレーム」のフィールドには、各フレームを一意に識別するための「1」乃至「6」の各フレーム識別子を格納する。
「フレーム外延情報」のフィールドには、第1乃至第4制御点の座標値のセットを格納する。制御点の座標値はX座標値とY座標値とからなる。本実施形態においては、作家端末3から受取ったコマ画像を埋め込むフレームの各々をこれら制御点に基づいて描画するようになっている。すなわち、第1制御点と第2制御点とを結ぶ線分(以下この線分を「第1線分」という)と、第2制御点と第3制御点とを結ぶ線分(以下この線分を「第2線分」という)と、第3制御点と第4制御点とを結ぶ線分(以下この線分を「第3線分」という)と、第4制御点と第1制御点とを結ぶ線分(以下この線分を「第4線分」という)とを描画してひとつのフレームを形成する。
FIG. 3 shows the data structure of the frame management database 16a. The database is a collection of a plurality of records each corresponding to one frame. Here, one record corresponding to one frame has fields of “frame”, “frame extension information”, “frame image”, “line”, and “sound effect character”. In the “frame” field, frame identifiers “1” to “6” for uniquely identifying each frame are stored.
In the “frame extension information” field, a set of coordinate values of the first to fourth control points is stored. The coordinate value of the control point is composed of an X coordinate value and a Y coordinate value. In the present embodiment, each frame in which the frame image received from the
ここで、本実施形態におけるフレームの描画領域は、縦方向210ポイント×横方向190ポイントの広がりを有している。そして、フレーム管理データベース16aの「フレーム外延情報」のフィールドには、デフォルトフレームを描画するための各制御点のセットが格納されている。
図4にデフォルトフレームの描画内容を示す。なお、同図では説明の便宜上各フレームの頂点となる第1乃至第4制御点のそれぞれをそれら各制御点の番号により示している。この図に示すように、デフォルトの各制御点のセットによれば、横幅が90ポイントで縦幅が50ポイントの6つのフレームが10ポイントの間隔をおいて描画されることになる。
本実施形態においては、これらデフォルトフレームのいずれかを削除し又はその大きさや形状を修正することができるようになっている。但し、そのような修正が行われても各フレーム間の10ポイントの間隔が維持されるようになっている。詳しくは後の動作説明の項で説明する。
Here, the drawing area of the frame in the present embodiment has a spread of 210 points in the vertical direction × 190 points in the horizontal direction. A set of control points for drawing a default frame is stored in the “frame extension information” field of the frame management database 16a.
FIG. 4 shows the drawing contents of the default frame. In the figure, for convenience of explanation, the first to fourth control points which are the vertices of each frame are indicated by the numbers of the respective control points. As shown in this figure, according to the default set of control points, six frames having a horizontal width of 90 points and a vertical width of 50 points are drawn at intervals of 10 points.
In the present embodiment, any of these default frames can be deleted or the size and shape thereof can be corrected. However, even if such correction is made, the 10-point interval between the frames is maintained. Details will be described later in the explanation of operation.
図3に示す「コマ画像」のフィールドには、作家端末3から受取ったコマ画像データを格納する。「台詞」のフィールドには、ふきだし枠画像データを一意に識別するふきだし枠識別子と、ふきだし枠の配置位置を示す座標値と、ふきだし枠に埋め込むテキスト(台詞)のセットを格納する。「効果音文字」のフィールドには、効果音文字画像を一意に識別する効果音文字識別子と、効果音文字の配置位置を示す座標値のセットを格納する。
The frame image data received from the
ふきだし枠データベース16bは、ふきだし枠識別子と関連付けたふきだし枠画像データを格納する。ふきだし枠というのは、マンガ原稿の各コマに登場する人物の台詞を囲む枠を意味する。本実施形態におけるふきだし枠には、図5に示す6つのタイプがある。
図5(a)乃至(d)に示すのは、登場人物が発声した台詞を示すふきだし枠である。このタイプのふきだし枠は「シッポ」とよばれる箇所を登場人物の口の辺りに近づけて描画することによってその人物の発言であることを示すようになっている。したがって、本実施形態では、「シッポ」が右にあるもの(a)、上にあるもの(b)、左にあるもの(c)、下にあるもの(d)の4つのふきだし枠画像を準備している。図5(e)に示すのは、登場人物が心の中で思った台詞を示すふきだし枠である。図5(f)に示すのは、登場人物が声を張り上げて叫んだ台詞を示すふきだし枠である。本実施形態においては、これら6種類のふきだし枠の画像をテンプレートデータとしてふきだし枠データベース16bへ格納している。
The
FIG. 5A to FIG. 5D show speech frames indicating lines uttered by the characters. This type of speech frame shows the person's remarks by drawing a part called “Shippo” close to the mouth of the character. Therefore, in this embodiment, four balloon frame images are prepared: “Shippo” on the right (a), upper (b), left (c), and lower (d). is doing. FIG. 5 (e) shows a speech frame indicating the dialogue that the character thought in his mind. FIG. 5 (f) shows a speech frame indicating a dialogue that the character screams with a loud voice. In the present embodiment, these six types of balloon frame images are stored in the
効果音文字データベース16cは、効果音文字識別子と関連付けた効果音文字画像データを格納する。この効果音文字というのは、マンガ原稿の各コマに登場する人物の動作や感情を表現したりするための、イラスト化された文字を意味する。例えば、沈黙の状態が続いていることを示す「しーん」、あるいは人物が素っ気無く顔をそむけた状態を示す「ぷいっ」などがある。本実施形態では、これら効果音文字の画像をテンプレートデータとして効果音文字データベース16cへ格納している。 The sound effect character database 16c stores sound effect character image data associated with the sound effect character identifier. This sound effect character means an illustrated character for expressing the motion and emotion of a person appearing in each frame of a manga manuscript. For example, “Shin”, which indicates that the state of silence continues, or “Pui”, which indicates a state in which the person is casually turned away. In the present embodiment, these sound effect character images are stored in the sound effect character database 16c as template data.
(3:作家端末の構成)
図6は、作家端末3のハードウェア構成を示すブロック図である。作家端末3は、制御部31、通信部32、表示部33、入力部34、揮発性記憶部35、不揮発性記憶部36、及びこれら各部を接続するバスを備えている。これら各部のハードウェア構成はマンガ編集サーバ装置1の同部と同様なので詳細な説明を省略する。
(3: Composition of artist terminal)
FIG. 6 is a block diagram illustrating a hardware configuration of the
(4:マンガ編集システムの動作)
本実施形態の動作は、コマ画像配置処理と、台詞挿入処理と、効果音文字挿入処理とに分けられる。作家端末3がマンガ編集サーバ装置1へアクセスすると、まずコマ画像配置処理が実行され、その後に台詞挿入処理と効果音文字挿入処理とが実行されることによってマンガ原稿が完成するようになっている。
(4: Manga editing system operation)
The operation of the present embodiment is divided into a frame image arrangement process, a dialogue insertion process, and a sound effect character insertion process. When the
ここで、作家端末3の操作者であるマンガ作家は、マンガ原稿の各コマに描くイラストをデータ化したコマ画像データを作成し、そのファイルを不揮発性記憶部36に格納してからマンガ編集サーバ装置1へアクセスしなければならないことになっている。このコマ画像データは、市販のドローイングソフトで直接作成するか、若しくは鉛筆で描いた下書きに筆入れして得たイラストをスキャナで読み込んで作成することが望ましい。
以下、フローチャートを参照しつつ、コマ画像配置処理、台詞挿入処理、効果音文字挿入処理のそれぞれについて説明する。
Here, the manga artist who is the operator of the
Hereinafter, each of the frame image arrangement processing, the dialogue insertion processing, and the sound effect character insertion processing will be described with reference to the flowchart.
<コマ画像配置処理>
図7及び図8は、コマ画像配置処理を示すフローチャートである。作家端末3がマンガ編集サーバ装置1にアクセスすると、マンガ編集サーバ装置1の制御部11は、デフォルトフレームを描画したフレーム画面の表示データを生成し、この表示データを作家端末3へ送信する(図7に示すS110)。この具体的処理は以下のようになる。まず、フレーム管理データベース16aの「フレーム外延情報」のフィールドに格納されている制御点のセットを揮発性記憶部15へ読み出し、これら制御点間を線分で結んでデフォルトフレームを描画する。そしてこれらのデフォルトフレームを含むフレーム画面の表示データを揮発性記憶部15上で生成し、この表示データを作家端末3へ送信する。
<Frame image layout processing>
7 and 8 are flowcharts showing the frame image arrangement process. When the
表示データを受信した作家端末3の制御部31は、表示部33にフレーム画面を表示する(S120)。
図9にデフォルトフレームが描画されたフレーム画面を示す。画面左側には、図4に示したようなレイアウトのデフォルトフレームが表示される。画面右側上段にはメッセージ欄Mが表示されており、この欄の中には「フレームの大まかなレイアウトを決定してください」とのメッセージが表示されている。画面右側中段には、不揮発性記憶部16に格納されているコマ画像データのサムネイルが表示される。更に画面右側下段には「次の作業へ」と表示したボタンがある。
The
FIG. 9 shows a frame screen on which a default frame is drawn. On the left side of the screen, a default frame having a layout as shown in FIG. 4 is displayed. A message field M is displayed on the upper right side of the screen, and a message “Please determine the rough layout of the frame” is displayed in this field. A thumbnail of the frame image data stored in the
このフレーム画面が表示されると、作家端末3の操作者はフレーム修正操作を行うことができるようになっている。フレーム修正操作には、削除操作と、拡大及び縮小操作と、台形化操作とがある。
削除操作は、フレーム画面に表示されている各フレームのうちのいずれかを削除する操作である。この操作は、削除対象となるフレームの内部へアイコンを移動して右クリックすることにより行われる。
拡大及び縮小操作は、フレームの外延を拡大又は縮小する操作である。この拡大及び縮小操作は、フレームの第1線分又は第3線分を上下方向へ平行移動することにより行われる。即ち、操作者はまず端点を除いた同線分上の任意の位置へカーソルを移動して右クリックする。そして、右クリックした状態のままでカーソルをその上又は下の任意の位置まで移動して右クリックを離す。
台形化操作は、フレームの形状を台形とする操作である。この台形化操作は、フレームの頂点を横方向に移動することにより行われる。即ち、操作者はまず、フレームの任意の頂点にカーソルを移動して右クリックする。そして、右クリックした状態でのままで第1線分又は第3線分に沿ってカーソルを右又は左に移動し、同線分の新しい端点となるべき位置まで移動したところで右クリックを離す。
When this frame screen is displayed, the operator of the
The delete operation is an operation for deleting any one of the frames displayed on the frame screen. This operation is performed by moving the icon to the inside of the frame to be deleted and right-clicking.
The enlargement / reduction operation is an operation for enlarging or reducing the outer extension of the frame. This enlargement / reduction operation is performed by translating the first line segment or the third line segment of the frame in the vertical direction. That is, the operator first moves the cursor to an arbitrary position on the same line segment excluding the end points and right-clicks. Then, the cursor is moved to an arbitrary position above or below with the right click state, and the right click is released.
The trapezoidal operation is an operation in which the shape of the frame is a trapezoid. This trapezoidal operation is performed by moving the vertex of the frame in the horizontal direction. That is, the operator first moves the cursor to an arbitrary vertex of the frame and right-clicks. Then, the cursor is moved right or left along the first line segment or the third line segment in the state where the right click is performed, and the right click is released when the cursor is moved to a position to become a new end point of the line segment.
上述の3つのうちいずれかの操作が作家端末3の操作者により行われると、作家端末3の制御部31は、操作情報をマンガ編集サーバ装置1へ送信する(S130)。この操作情報とは、右クリック或いは左クリックされたディスプレイ上の座標を識別するための情報である。上述のフレーム画面はビットマップとして表示されるため、作家端末3側ではこの画面のどの線分や制御点が選択されたかということまでは検出できない。従って、上述の操作情報をマンガ編集サーバ装置1が取得してこれを解析することで、修正対象となる線分、或いは修正対象となる制御点、更には、それら線分や制御点がX軸方向又はY軸方向へどの程度移動したかを示す移動値を特定するようになっている。
マンガ編集サーバ装置1の制御部11は、作家端末3から受信した操作情報を解析して、修正対象となるフレームのフレーム識別子とそのフレームへの修正内容を特定する。そして、このフレーム識別子と関連付けられたレコードをフレーム管理データベース16aから特定し、このレコードに格納されている制御点に対して上述の修正内容に応じた修正を施す(S140)。更に、修正が施されたフレームと近接する他のフレームのレコードをフレーム管理データベース16aから特定し、このレコードに格納されている制御点に対してフレーム間の間隔を10ポイントに保つ修正を施す(S150)。
When one of the above three operations is performed by the operator of the
The control unit 11 of the manga
ここで、上述したように、操作者は、削除操作、拡大及び縮小操作、および台形化操作という3種類の操作を行うことができるが、これらのいずれの操作が行われたかにより上記ステップ130乃至ステップ150の具体的処理内容は異なる。そこで以下には、ステップ130及びステップ150の具体的処理内容を修正操作毎に分けて説明する。 Here, as described above, the operator can perform three types of operations, that is, a delete operation, an enlargement / reduction operation, and a trapezoidal operation. Depending on which of these operations is performed, the above steps 130 to 130 are performed. The specific processing contents of step 150 are different. Therefore, in the following, the specific processing contents of step 130 and step 150 will be described separately for each correction operation.
(a)削除操作が行われたときの処理内容
図10は、削除操作が行われたときの具体的処理を示すフローチャートである。
削除操作が行われると、作家端末3の制御部31は、この削除操作の内容に応じた操作情報をマンガ編集サーバ装置1へ送信する(S131a)。
(A) Processing Contents when Deletion Operation is Performed FIG. 10 is a flowchart showing specific processing when a deletion operation is performed.
When the delete operation is performed, the
操作情報を解析して修正対象となるフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S141a)。そして、このレコードの「フレーム外延情報」のフィールドに格納されている第1乃至第4制御点のセットを揮発性記憶部15へ読み出した後に、このレコードを削除する(S142a)。
The control unit 11 of the manga
制御部11は、ステップ142aで読み出した各制御点のY座標値と他のフレームのレコードに格納されている制御点のY座標値とをそれぞれ比較し、同じY座標値の制御点を有している他のフレームのレコードを特定する(S151a)。
続いて制御部11は、この特定したレコードの「フレーム外延情報」のフィールドに格納された第1乃至第4制御点のうちから修正対象となる制御点を特定する(S152a)。具体的には、削除されたのが右側のフレーム(図4に示す2、4、6のいずれかのフレーム)であれば、その隣(左側)のフレームの第2制御点と第3制御点を修正対象として特定する一方で、削除されたのが左側のフレーム(図4に示す1、3、5のいずれかのフレーム)であれば、その隣(右側)のフレームの第1制御点と第4制御点を修正対象として特定する。
更に制御部1は、特定した2つの制御点のX座標値を、ステップ142aで読み出した第1乃至第4制御点のうち制御点番号を同じくする2つの制御点の各X座標値と同じ値にそれぞれ修正する(S153a)。
The control unit 11 compares the Y coordinate value of each control point read in
Subsequently, the control unit 11 specifies a control point to be corrected from the first to fourth control points stored in the “frame extension information” field of the specified record (S152a). Specifically, if it is the right frame (one of
Further, the
(b)拡大及び縮小操作が行われたときの処理内容
図11は、拡大及び縮小操作が行われたときの具体的処理内容を示すフローチャートである。
削除操作が行われると、作家端末3の制御部31は、この拡大及び縮小操作の内容に応じた操作情報をマンガ編集サーバ装置1へ送信する(S131b)。
(B) Processing Contents when Enlargement and Reduction Operations are Performed FIG. 11 is a flowchart showing specific processing contents when enlargement and reduction operations are performed.
When the deletion operation is performed, the
操作情報を解析して修正対象となるフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S141b)。そして、このレコードに格納された第1乃至第4制御点のうちから、拡大及び縮小操作により移動された線分を描画する2つの制御点を特定する(S142b)。制御部11は、この特定した両制御点のY座標値に、操作情報を解析して得た移動値を加算する(S143b)。
The control unit 11 of the manga
制御部11は、フレーム管理データベース16aの他のレコードに格納された制御点を参照し、ステップ142bで特定した2つの制御点と、X座標値を同じくしかつY座標値が10ポイントしか離れていない近接制御点を特定する(S151b)。制御部11は、これら近接制御点のY座標値に上述の移動値を加算する(S152b)。
The control unit 11 refers to the control points stored in other records in the frame management database 16a, and has the same X coordinate value as the two control points specified in
ここで、操作情報から「フレーム1、第3線分、移動値(−15)」という修正内容が解析されたケースを想定し、ステップ141b乃至152bの具体的内容を説明する。
図12(a)は、ステップ143bを実行した時点の制御点に基づいて描画したフレーム1及び3を示している。この時点ではフレーム1の第3制御点と第4制御点のY座標値に移動値−15が加算されたことにより、これら両制御点を結ぶ第3線分が上方向に15ポイント移動している。しかしながらこれによりフレーム3の第1線分との間隔が25ポイントに開いている。この間隔を10ポイントに保つためにステップ151b乃至152bの処理が実行される。
図12(b)は、ステップ152bまで実行した時点の制御点に基づいて描画したフレーム1及び3を示している。この時点ではフレーム3の第1制御点および第2制御点のY座標値にも移動値−15が加算されたことにより、これら両制御点を結んで描画される第1線分とフレーム1の第3線分との距離が10ポイントに縮まっている。
Here, assuming the case where the correction content “
FIG. 12A shows
FIG. 12B shows
(c)台形化操作が行われたときの処理内容
図13は、台形化操作が行われたときの具体的処理内容を示すフローチャートである。
台形化操作が行われると、作家端末3の制御部31は、この台形化操作の内容に応じた操作情報をマンガ編集サーバ装置1へ送信する(S131c)。
(C) Processing contents when trapezoidal operation is performed FIG. 13 is a flowchart showing specific processing contents when the trapezoidal operation is performed.
When the trapezoidal operation is performed, the
操作情報を解析して修正対象となるフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S141c)。そして、このレコードに格納された第1乃至第4制御点のうちから、台形化操作により移動された制御点を特定する(S142c)。制御部31は、この特定した制御点のX座標値に、操作情報を解析して得た移動値を加算する(S143c)。
The control unit 11 of the comic
制御部31は、各レコードの「フレーム外延情報」のフィールドに格納された制御点を参照し、ステップ142cで特定した制御点とY座標値を同じくし、かつX座標値が10ポイントしか離れていない近接制御点を特定する(S151c)。そして、この特定した近接制御点のX座標値に、上述の移動値を加算する(S152c)。
The
ここで、操作情報から「フレーム6、第4制御点、移動値X(30)」という修正内容が解析されたケースを想定し、ステップ141c乃至152cの具体的内容を説明する。
図14(a)は、ステップ143cを実行した時点の制御点に基づいて描画したフレーム5及び6を示している。この時点ではフレーム6の第4制御点のX座標値に移動値30が加算されたことにより、第3線分が右方向に30ポイント短縮されている。しかしながらこれによりフレーム5の第3制御点との間隔が40ポイントに開いている。この間隔を10ポイントに保つためにステップ151c乃至152cの処理が実行される。
図14(b)はステップ152cまで実行した時点の制御点に基づいて描画したフレーム5及び6を示している。この時点ではフレーム5の第3制御点のX座標値にも移動値30が加算されたことにより、フレーム6の第4制御点との距離が10ポイントに縮まっている。
Here, assuming a case where the correction content “
FIG. 14A shows
FIG. 14B shows
図7に示すステップ150を実行した制御部11は、修正後のフレームを描画したフレーム画面の表示データを生成し、この表示データを作家端末3へ送信する(S160)。この具体的処理の内容はステップ110で説明したところと同様である。
作家端末3の制御部31は、修正後のフレームが描画されたフレーム画面を表示部33に表示する(S170)。このフレーム画面には、修正指示を反映したフレームがデフォルトフレームの代わりに表示される。作家端末3の操作者は次にコマ画像埋め込み操作を行う。この操作の具体的手順を示せば以下のようになる。操作者はまず、フレーム画面の右側中段に表示されたサムネイルのうちのひとつへアイコンを移動して右クリックする。そして、右クリックした状態のままでいずれかのフレームの内部までカーソルを移動して右クリックを離す。最後に、コマ画像の大きさに合わせてフレームの大きさを修正したいときはもう一度右クリックし、反対にフレームの大きさに合わせてコマ画像の大きさを修正したいときは左クリックする。
The control unit 11 that has executed step 150 shown in FIG. 7 generates display data of the frame screen on which the corrected frame is drawn, and transmits this display data to the writer terminal 3 (S160). The details of this specific processing are the same as those described in
The
作家端末3の制御部31は、コマ画像の大きさにフレームを合わせる操作が行われたときは、選択されたサムネイルと対応付けて不揮発性記憶部36に格納されていたコマ画像データと、そのサムネイルの移動先を示す操作情報とをマンガ編集サーバ装置1へ送信する(S180)。
一方、フレームの大きさにコマ画像を合わせる操作が行われたときは、フレームの大きさを固定すべきことを示すフレーム固定識別子を、上記コマ画像データ及び操作情報と共に送信する(S190)。
操作情報を解析してサムネイルの移動先フレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、そのフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S200)。制御部11は、作家端末3から受信したコマ画像データを当該特定したレコードの「コマ画像」のフィールドへ格納する(図8に示すS210)。
続いて制御部11は、フレーム固定識別子をコマ画像データと共に受信していない場合には、ステップ210で格納したコマ画像データに基づいてこのコマ画像の外延を特定する(S220)。
When the operation of matching the frame with the size of the frame image is performed, the
On the other hand, when an operation for fitting the frame image to the frame size is performed, a frame fixing identifier indicating that the frame size should be fixed is transmitted together with the frame image data and the operation information (S190).
The control unit 11 of the manga
Subsequently, when the frame fixed identifier is not received together with the frame image data, the control unit 11 specifies the extension of the frame image based on the frame image data stored in Step 210 (S220).
制御部11は、ステップ200で特定したレコードから第1乃至第4制御点のセットを特定する(S230)。続いてこの制御点のセットを、ステップ220で特定した外延と一致するフレームを描画する制御点のセットへと修正する(S240)。更に、ステップ240の修正を施した制御点の移動値を特定する(S250)。この移動値は、修正に伴うX座標値の移動量とY座標値の移動量とにより表現される。
移動値を特定した制御部11は、フレーム管理データベース16aの他のレコードに格納された制御点のうちから、ステップ240の修正を施した制御点の修正前のX座標値との距離及びY座標値との距離が共に10ポイントしか離れていない近接制御点を特定する(S260)。続いてこの近接制御点のX座標値とY座標値のそれぞれにステップ250で特定した移動値を加算する(S270)。そして、この近接制御点を一方の端点とする2つの線分が当該近接制御点で直交するように当該2つの線分の他方の端点となる各制御点の座標値を修正する(S280)。
The control unit 11 specifies a set of first to fourth control points from the record specified in Step 200 (S230). Subsequently, the set of control points is corrected to a set of control points for drawing a frame that matches the extension specified in step 220 (S240). Further, the movement value of the control point subjected to the correction in step 240 is specified (S250). This movement value is expressed by the movement amount of the X coordinate value and the movement amount of the Y coordinate value accompanying the correction.
The control unit 11 that has identified the movement value, among the control points stored in other records of the frame management database 16a, the distance from the X coordinate value before the correction of the control point subjected to the correction in step 240 and the Y coordinate. A proximity control point whose distance from the value is only 10 points is specified (S260). Subsequently, the movement value specified in
ここで、フレーム管理データベース16aの「フレーム外延情報」のフィールドにはデフォルトがそのまま維持されており(つまり修正操作は行われていない)、フレーム1に埋め込まれるコマ画像の外延が横105ポイント×縦60ポイントであったというケースを想定し、ステップ220乃至ステップ280の具体的内容を説明する。
Here, the default is maintained in the “frame extension information” field of the frame management database 16a (that is, no correction operation is performed), and the extension of the frame image embedded in the
図15(a)は、ステップ220を実行した時点の制御点に基づいて描画した各フレームを示している。なお、同図では説明の便宜上各フレームの頂点となる第1乃至第4制御点のそれぞれをそれら各制御点の番号により示している(図15(b)及び図15(c)についても同じ)。ステップ220を実行した時点では、フレーム1はコマ画像よりも横幅が15ポイント小さくまた縦幅も10ポイント小さいため、このままコマ画像を埋め込むとフレームからはみだしてしまうことになる。これを防ぐためにステップ230及びステップ240を実行してフレーム1の大きさをコマ画像の大きさに一致させる。
FIG. 15A shows each frame drawn based on the control points when
図15(b)は、ステップ270まで実行した時点の制御点に基づいて描画した各フレームを示している。この時点では、フレーム2の第1制御点のX座標値に移動値15が加算され、フレーム3の第1制御点のY座標値に移動値10が加算されている。また、フレーム2の第4制御点、フレーム4の第1制御点、及びフレーム3の第2制御点のX座標値に移動値15が加算されると共に、それら各制御点のY座標値に移動値10が加算されている。ただし、フレーム2の第3制御点と、フレーム4の第2及び第4の各制御点と、フレーム3の第3制御点は、フレーム1の各制御点との距離が10ポイントよりも大きいため近接制御点と認識されず、その位置が修正されないままになっている。
FIG. 15B shows each frame drawn based on the control points at the time of execution up to step 270. At this time, the
図15(c)は、ステップ280まで実行した時点の制御点に基づいて描画したフレームを示している。この時点では、フレーム2の第4制御点を一方の端点とする2つの線分(第3線分と第4線分)が第4制御点で直交するように、その第3制御点のY座標値へ移動値10が加算されている。また、フレーム3の第2制御点を一方の端点とする線分(第1線分と第2線分)が第2制御点で直交するように、その第3制御点のX座標値へ移動値15が加算されている。更に、フレーム4の第1制御点を一方の端点とする2つの線分(第1線分と第4線分)が第1制御点で直交するように、その第2制御点のY座標値へ移動値10が加算されると共にその第4制御点のX座標値に移動値15が加算されている。
FIG. 15C shows a frame drawn based on control points at the time when the processing up to step 280 is executed. At this time, two line segments having the fourth control point of
図8のステップ280を実行した制御部11は、フレーム管理データベース16aの制御点のセットに基づいてフレームを描画し、描画した各フレームのフレーム識別子と対応付けられたコマ画像をフレームへ埋め込む(S290)。
一方、作家端末3から受信したデータの中にフレーム固定識別子が含まれていないとき、制御部11は、上記ステップ220乃至ステップ290の処理を実行しないで、描画したフレームにコマ画像をそのまま埋め込み、フレームからはみだしたコマ画像の画素をカットする(S300)。
制御部11は、コマ画像を埋め込んだフレーム画面の表示データを作家端末3へ送信する(S310)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S320)。
The control unit 11 that has executed Step 280 in FIG. 8 draws a frame based on the set of control points in the frame management database 16a, and embeds the frame image associated with the frame identifier of each drawn frame in the frame (S290). ).
On the other hand, when the frame fixed identifier is not included in the data received from the
The control unit 11 transmits display data of the frame screen in which the frame image is embedded to the writer terminal 3 (S310). The
作家端末3の操作者は、コマ画像埋め込み操作を再び行って、他のコマ画像を埋め込むフレームを決定していく。そしてこの作業が行われる毎にステップ180乃至ステップ320の処理が繰り返され、コマ画像が新たに埋め込まれたフレーム画面が作家端末3の表示部33に表示される。準備していたすべてのコマ画像が埋め込まれたことを確認した操作者は、同画面右側下段の「次の作業へ」を選択する。この操作により台詞挿入処理が開始される。
なお、台詞挿入処理及びその後の効果音文字挿入処理が実行されている間も、コマ画像データを埋め込んだフレーム画面の表示データを揮発性記憶部15へ格納した状態が維持される。
The operator of the
Note that the display of the frame screen in which the frame image data is embedded is stored in the
<台詞挿入処理>
図16は、台詞挿入処理を示すフローチャートである。
台詞挿入処理が開始されると、作家端末3の制御部31は、ふきだし枠選択欄を一部に含むフレーム画面を表示部33に表示する(S400)。
図17にふきだし枠選択欄を含んだフレーム画面を示す。この画面の右側中段にはふきだし枠選択欄Fが表示される。そして右側上段のメッセージ欄Mには「フレームに埋め込むふきだし枠を選択してから台詞を入力してください」といったメッセージが表示される。ふきだし枠選択欄Fには、図5(a)乃至図5(e)に示した6パターンのふきだし枠画像のサムネイルが表示される。
<Line insertion processing>
FIG. 16 is a flowchart showing dialogue insertion processing.
When the dialogue insertion process is started, the
FIG. 17 shows a frame screen including a speech frame selection field. A balloon frame selection field F is displayed in the middle of the right side of the screen. In the upper right message field M, a message such as “Please select a speech frame to be embedded in the frame and then input dialogue” is displayed. In the speech frame selection field F, thumbnails of the 6 patterns of speech frame images shown in FIGS. 5A to 5E are displayed.
この画面を参照した操作者はふきだし枠埋め込み操作を行う。このふきだし枠埋め込み操作の具体的手順を以下に説明する。操作者はまずふきだし枠選択欄Fのサムネイルのうちのひとつへアイコンを移動し右クリックする。そして、右クリックした状態のままでフレーム内の任意の配置位置までカーソルを移動して右クリックを離す。
作家端末3の制御部31は、このふきだし枠埋め込み操作の内容に応じた操作情報と選択されたふきだし枠のふきだし枠識別子とをマンガ編集サーバ装置1へ送信する(S410)。
The operator who refers to this screen performs a balloon frame embedding operation. A specific procedure of the speech frame embedding operation will be described below. The operator first moves the icon to one of the thumbnails in the speech frame selection field F and right-clicks it. Then, with the right click, the cursor is moved to an arbitrary arrangement position in the frame and the right click is released.
The
操作情報を解析してふきだし枠を埋め込むフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S420)。制御部11は、このレコードの「ふきだし枠」のフィールドへ、受信したふきだし枠識別子と、操作情報を解析して得た埋め込み位置の座標値とのセットを格納する(S430)。
続いて制御部11は、受信したふきだし枠識別子と対応付けられたふきだし枠画像をふきだし枠データベース16bから読み出す(S440)。
The control unit 11 of the manga
Subsequently, the control unit 11 reads the balloon frame image associated with the received balloon frame identifier from the
制御部11は、上述のコマ画像配置処理の際にマンガ編集サーバ装置1の制御部11により生成され、その揮発性記憶部15に格納されているフレーム画面に、ステップ440で読み出したふきだし枠画像を埋め込む(S450)。この処理を具体的に説明すると以下のようになる。まず、上記操作情報を解析して得た座標値によって、ふきだし枠画像を埋め込むフレームとそのフレーム内の画像埋め込み位置とを特定する。そして、当該特定した埋め込み位置にふきだし枠画像を上書きする。最後に、フレームからはみ出したふきだし枠画像の画素があればこれをカットする。
制御部11は、ふきだし枠画像を埋め込んだフレーム画面の表示データを作家端末3へ送信する(S460)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S470)。
作家端末3の操作者は、フレーム画面のフレームに埋め込まれているふきだし枠を選択し、このふきだし枠内にテキスト(台詞)を入力する。作家端末3の制御部31は、選択されたふきだし枠を示す操作情報と入力されたテキストのデータとをマンガ編集サーバ装置1へ送信する(S480)。
The control unit 11 generates the balloon frame image read out in step 440 on the frame screen generated by the control unit 11 of the manga
The control unit 11 transmits display data of the frame screen in which the balloon frame image is embedded to the writer terminal 3 (S460). The
The operator of the
マンガ編集サーバ装置1の制御部11は、ステップ420で特定したレコードの「台詞」のフィールドへ、操作端末3から受信したテキストデータ(台詞)を格納する(S490)。
制御部11は、ステップ450で生成したフレーム画面のふきだし枠へ、上記テキストを埋め込む(S500)。なお、テキストを埋め込むふきだし枠は作家端末3から受信した操作情報を解析することによって特定する。制御部11は、ふきだし枠にテキストを埋め込んだフレーム画面の表示データを作家端末3へ送信する(S510)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S520)。
The control unit 11 of the manga
The control unit 11 embeds the text in the speech frame of the frame screen generated in step 450 (S500). Note that the balloon frame in which the text is embedded is specified by analyzing the operation information received from the
作家端末3の操作者は、台詞枠埋め込み操作を再び行って、他のふきだし枠の配置位置とそのふきだし枠へ記述する台詞とを決定していく。ひとつのフレームに複数のふきだし枠を埋め込んでもよい。そしてこの作業が行われる毎にステップ410乃至ステップ520の処理が繰り返され、テキスト(台詞)を埋め込んだふきだし枠が新たに追加されたフレーム画面が作家端末3の表示部33に表示される。マンガ原稿を完成するために必要と考えるすべての台詞が表示されたことを確認した操作者は、同画面右側下段の「次の作業へ」を選択する。この操作により効果音文字挿入処理が開始される。
The operator of the
<効果音文字挿入処理>
図18は効果音文字挿入処理を示すフローチャートである。
効果音文字挿入処理が開始されると、作家端末3の制御部31は、効果音文字選択リストを一部に含むフレーム画面を表示部33に表示する(S600)。図19に効果音文字選択リストを含んだフレーム画面を示す。この画面の右側中段には効果音文字選択リストKを表示している。この効果音文字選択リストKには、「わーい」、「キャハハ」、「しーん」、「ぷいっ」といった効果音文字が列記されている。また、同リストの右側にはスクロールバーが表示されている。更に、画面右側下段には、「終了」と表示したボタンがある。
<Sound effect character insertion processing>
FIG. 18 is a flowchart showing sound effect character insertion processing.
When the sound effect character insertion process is started, the
この画面を参照した操作者は効果音文字埋め込み操作を行う。この操作の具体的手順を以下に説明する。操作者はまず効果音文字選択リストKの各効果音文字のうちのひとつへアイコンを移動し右クリックする。そして、右クリックした状態のままでフレーム内の任意の位置までカーソルを移動して右クリックを離す。
作家端末3の制御部31は、この効果音文字埋め込み操作の内容に応じた操作情報と選択された効果音文字の効果音文字識別子とをマンガ編集サーバ装置1へ送信する(S610)。
The operator who refers to this screen performs a sound effect character embedding operation. A specific procedure for this operation will be described below. The operator first moves the icon to one of the sound effect characters in the sound effect character selection list K and right-clicks. Then, the cursor is moved to an arbitrary position in the frame with the right-clicked state, and the right-click is released.
The
操作情報を解析して効果音文字を埋め込むフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S620)。制御部11は、このレコードの「効果音文字」のフィールドへ、操作情報を解析して得た埋め込み位置の座標値と、受信した効果音文字識別子とのセットを格納する(S630)。
制御部11は、この効果音文字識別子と対応付けられた効果音文字画像を効果音文字データベース16cから読み出す(S640)。
The control unit 11 of the manga
The control unit 11 reads the sound effect character image associated with the sound effect character identifier from the sound effect character database 16c (S640).
制御部11は、読み出した効果音文字画像をフレーム画面に埋め込む(S650)。この処理を具体的に説明すると以下のようになる。まず、上記操作情報を解析して得た座標値により、効果音文字画像を埋め込むフレームとそのフレーム内の画像埋め込み位置とを特定する。そして、特定した埋め込み位置に効果音文字画像を上書きする。最後に、フレームからはみだした効果音文字画像の画素があればこれをカットする。
制御部11は、効果音文字画像を埋め込んだフレーム画面の表示データを作家端末3へ送信する(S660)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S670)。
The control unit 11 embeds the read sound effect character image in the frame screen (S650). This process will be specifically described as follows. First, the frame in which the sound effect character image is embedded and the image embedding position in the frame are specified based on the coordinate value obtained by analyzing the operation information. Then, the sound effect character image is overwritten at the specified embedding position. Finally, if there is a pixel of the sound effect character image that protrudes from the frame, it is cut.
The control unit 11 transmits display data of the frame screen in which the sound effect character image is embedded to the writer terminal 3 (S660). The
作家端末3の操作者は、効果音文字埋め込み操作を再び行って、他の効果音文字画像を埋め込むフレームとその埋め込み位置とを決定していく。ひとつのフレームに複数の効果音文字画像を埋め込んでもよい。そしてこの作業が行われる毎にステップ610乃至ステップ670の処理が繰り返され、効果音文字が新たに埋め込まれたフレーム画面が作家端末3の表示部33に表示される。マンガ原稿を完成するために必要と考えるすべての効果音文字がフレーム画面に埋め込まれたことを確認した操作者は、「終了」を選択する。
The operator of the
「終了」が選択されると、作家端末3の制御部31は、ステップ660で送信されたフレーム画面の表示データを不揮発性記憶部36に保存した後に、マンガ編集サーバ装置1との接続を切断する。一方、マンガ編集サーバ装置1の制御部11は、その揮発性記憶部15に格納していたフレーム画面の表示データを消去する。
When “END” is selected, the
以上説明した本実施形態では、マンガ原稿の編集者は作家端末3によりマンガ編集サーバ装置1へアクセスし、フレームの大まかなレイアウトを決定して画像データを送信する。これによりその画像データが好適にレイアウトされたマンガ原稿を容易に生成することができる。
また、予めテンプレートとして用意されているふきだし枠のいずれかを選択してその配置位置を決定し、そのふきだし枠に記述されるべき台詞を入力すると、ふきだし枠と台詞とがセットで埋め込まれたマンガ原稿を生成することができる。
更に、予めテンプレートとして用意されている効果音文字を選択してその配置位置を決定すると、効果音文字が埋め込まれたマンガ原稿を生成することができる。
In the present embodiment described above, the manga manuscript editor accesses the manga
Also, if you select one of the balloon frames prepared as a template in advance, determine the position of the frame, and enter the dialogue that should be described in the balloon frame, then the comic frame with the balloon frame and dialogue embedded as a set A manuscript can be generated.
Furthermore, when a sound effect character prepared as a template is selected in advance and its position is determined, a manga manuscript in which the sound effect character is embedded can be generated.
(B:第2実施形態)
第1実施形態では、コマ画像はすべてフレーム内に埋め込まれ、コマ画像をフレームの外に表示させることはできなかった。これに対し本実施形態は、コマ画像をフレームの外にも表示できるような構成をとる。
本実施形態におけるマンガ編集サーバ装置1は、図2に示したところと同様に、制御部11、通信部12、表示部13、入力部14、揮発性記憶部15、及び不揮発性記憶部16、及びこれら各部を接続するバスを備えている。但し、その不揮発性記憶部16は、フレーム管理データベース16aと、効果音文字データベース16cと、ふきだし枠データベース16bのほかに、図示しない上書き画像データベースを格納している。そして本実施形態においては、マンガ原稿を2つのレイヤに分けて描画するようになっており、下位レイヤに描画されるべきコマ画像データをフレーム管理データベース16aに格納する一方、上位レイヤに描画されるべきコマ画像データを上書き画像データベースへ格納する。
この上書き画像データベースは、「コマ画像データ」と「位置」の各フィールドを有している。図3に示したフレーム管理データベース16aと異なり、「フレーム」や「フレーム外延情報」といったフィールドは有していない。
(B: Second embodiment)
In the first embodiment, all the frame images are embedded in the frame, and the frame image cannot be displayed outside the frame. On the other hand, the present embodiment is configured such that a frame image can be displayed outside the frame.
The manga
The overwrite image database has fields of “frame image data” and “position”. Unlike the frame management database 16a shown in FIG. 3, fields such as “frame” and “frame extension information” are not provided.
本実施形態の動作の概要を示せば以下のようになる。まず作家端末3の操作者が上述のコマ画像埋め込み操作を行うと、図9に示したフレーム画面のメッセージ欄Mに、「このコマ画像はフレームに上書きしますか。」といったメッセージが表示され、更に「はい」及び「いいえ」の各ボタンが表示される。ここで「はい」が選択されると、作家端末3の制御部31は、コマ画像データと、コマ画像の配置位置を示す座標値と、画像が上書きされるべきことを示す上書き識別子とをマンガ編集サーバ装置1へ送信する。これらのデータを受信したマンガ編集サーバ装置1の制御部11は、コマ画像データと座標値のセットを上書き画像データベースへ格納する。
An outline of the operation of the present embodiment is as follows. First, when the operator of the
そして、マンガ編集サーバ装置1は、フレームにコマ画像を埋め込んだフレーム画面を生成すると(図8に示したステップ290)、今度は上書き画像データベースからコマ画像と座標値のセットを読み出し、この座標値によって特定される位置へ当該コマ画像を上書きする。
本実施形態によれば、マンガ原稿内の各フレームの大きさとは無関係にコマ画像を配置することができるので、図20に示すような構図のマンガ原稿を生成するとこもできる。
Then, when the manga
According to the present embodiment, since frame images can be arranged regardless of the size of each frame in the manga original, it is possible to generate a manga original having a composition as shown in FIG.
(C:変形例)
以上、本発明の実施形態について説明したが、本発明はかかる実施形態に限定されるものではなく、その技術思想の範囲内で様々な変形が可能である。なお、変形例としては、例えば、以下のようなものが考えられる。
(C: Modification)
Although the embodiments of the present invention have been described above, the present invention is not limited to such embodiments, and various modifications can be made within the scope of the technical idea. In addition, as a modification, the following can be considered, for example.
(1:変形例1)
第1実施形態のマンガ編集サーバ装置1の不揮発性記憶部16にはフレーム管理データベース16aを格納し、その「フレーム外延情報」のフィールドに格納された第1乃至第4制御点に基づいてフレームが描画されることになっていた。つまり、描画できるフレームは長方形や台形といった4角形の形状に限られていた。
(1: Modification 1)
The
これに対して、上述したフレーム修正操作の一つとして、フレームの5角形化を行えるようにしてもよい。この5角形化操作の手順は、図21に示すようなものが想定できる。操作者は、図9に示したフレーム画面に描画されているデフォルトフレームのうちから5角形化するフレームを選び、端点を除いた線分上の任意の位置へカーソルを移動して左クリックする。そして、左クリックした状態のままでカーソルをその上又は下の任意の位置まで移動して左クリックを離す。これにより、左クリックを離した位置を新たな頂点とする5角形のフレームへと修正することができる。 On the other hand, as one of the frame correction operations described above, a pentagonal frame may be made. The procedure of this pentagonalization operation can be assumed as shown in FIG. The operator selects a frame to be pentagonalized from the default frames drawn on the frame screen shown in FIG. 9, moves the cursor to an arbitrary position on the line segment excluding the end points, and left-clicks. Then, the cursor is moved to an arbitrary position above or below with the left click state, and the left click is released. Thereby, it can correct to the pentagonal frame which makes the position which left click left the new vertex.
5角形フレームの描画は、フレーム管理データベース16aの「フレーム外延情報」のフィールドに第5制御点の座標値を格納できるようにすることで実現できる。例えば、図21に示した5角形化操作はフレームの第1線分を新たな2つの線分に置き換えることによりその形状を5角形とするものであるが、このような操作が行われると、マンガ編集サーバ装置1の制御部11は、左クリックが離された位置の座標値を「フレーム外延情報」のフィールドの第2制御点と関連付けて格納し、同フィールドにそれまで格納されていた第2乃至第4制御点の座標値をそれぞれ一つずつ繰り下げた制御点と関連付けるといった処理を実行することになる。
同じように、「フレーム外延情報」のフィールドに第6制御点や第7制御点の座標値を格納できるようにすれば、フレームの6角形化操作や7角形化操作にも対応することができる。
Drawing of a pentagonal frame can be realized by making it possible to store the coordinate value of the fifth control point in the “frame extension information” field of the frame management database 16a. For example, the pentagonalization operation shown in FIG. 21 is to make the shape a pentagon by replacing the first line segment of the frame with two new line segments. When such an operation is performed, The control unit 11 of the manga
Similarly, if the coordinate values of the sixth control point and the seventh control point can be stored in the “frame extension information” field, it is possible to cope with the hexagonal operation and the heptagonal operation of the frame. .
(2:変形例2)
上記実施形態は、コマ画像を埋め込むフレームのレイアウトを修正できるものではあったが、フレームに埋め込まれるコマ画像データ自体に修正を施すことはできなかった。これに対し、コマ画像をフレームに埋め込んだ後、埋め込まれたコマ画像へ修正を施すことができるようにしてもよい。例えば、コマ画像が埋め込まれた後に、このコマ画像の各画素の濃淡を設定できるようにしてもよい。
(2: Modification 2)
In the above embodiment, the layout of the frame in which the frame image is embedded can be corrected, but the frame image data itself embedded in the frame cannot be corrected. On the other hand, after the frame image is embedded in the frame, the embedded frame image may be corrected. For example, after the frame image is embedded, the density of each pixel of the frame image may be set.
(3:変形例3)
上記実施形態においては、マンガ原稿内に記述できるテキストはふきだし枠内の台詞のみであったが、ふきだし枠の外やフレームの外にもテキストを配置できるようにしてもよい。これにより、登場人物の台詞だけでなくそのシーンの背景を説明するナレーションをも埋め込んだマンガ原稿を生成できる。
(3: Modification 3)
In the above embodiment, the text that can be described in the manga manuscript is only the dialogue in the speech frame, but the text may be arranged outside the speech frame or outside the frame. This makes it possible to generate a manga manuscript that embeds not only the dialogue of the characters but also the narration explaining the background of the scene.
(4:変形例4)
上述の実施形態に示したマンガ編集サーバ装置1と同様の動作を、一般的なコンピュータ装置に実行させるようにしてもよい。このような変形例は、マンガ編集サーバ装置1と同様の動作を実行させるためのマンガ編集プログラムをCD−ROM(compact disk-read only memory)などの記憶媒体へを記憶させておき、このような記憶媒体から一般的なコンピュータ装置に当該プログラムを読み取らせ、係るコンピュータ装置にマンガ編集サーバ装置1と同様の機能を付与することで実現できる。また、この種のプログラムを提供するサーバ装置をネットワーク上に設け、各コンピュータ装置の要求に応じてこのプログラムが配信されるようにしてもよい。
(4: Modification 4)
You may make it make a general computer apparatus perform the operation | movement similar to the manga
1:マンガ編集サーバ装置、3:作家端末,31:制御部、12,32:通信部、13,33:表示部、14,34:入力部、15,35:揮発性記憶部、16,36:不揮発性記憶部、16a:フレーム管理データベース、16b:ふきだし枠データベース、16c:効果音文字データベース 1: Manga editing server device, 3: writer terminal, 31: control unit, 12, 32: communication unit, 13, 33: display unit, 14, 34: input unit, 15, 35: volatile storage unit, 16, 36 : Non-volatile storage unit, 16a: frame management database, 16b: speech bubble database, 16c: sound effect character database
Claims (7)
フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信手段と、
前記受信手段によって受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正手段と、
前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正手段と、
前記第1の修正手段が修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込手段と、
を備えるマンガ編集装置。 Storage means for storing, for each of one or more frames, frame extension information indicating the extension of the frame in association with a frame identifier that uniquely identifies the frame;
Receiving means for receiving a frame identifier and a frame image embedded in the frame;
The frame extension information of the image embedded frame associated with the frame identifier received by the receiving unit is read from the storage unit, and the frame extension information of the image embedded frame is corrected to match the frame extension with the frame image extension. First correcting means to be applied to,
Second correction means for reading out frame extension information of a neighboring frame adjacent to the image-embedded frame from the storage means, and performing correction for keeping the frame extension interval on the frame extension information of the neighboring frame;
An embedding means for drawing a frame based on the frame extension information corrected by the first correction means, and for embedding the received frame image in the drawn frame;
Manga editing device equipped with.
前記受信手段は、
任意のフレームのフレーム識別子とフレームの修正指示とを受信し、
前記第1の修正手段は、
当該フレーム識別子と対応付けられたフレーム外延情報を前記記憶手段から読み出し、
当該フレーム外延情報に対し前記受信した修正指示に応じた修正を施す、
マンガ編集装置。 The manga editing device according to claim 1,
The receiving means includes
Receives the frame identifier of an arbitrary frame and the frame correction instruction,
The first correction means includes
Read frame extension information associated with the frame identifier from the storage means,
The frame extension information is corrected according to the received correction instruction.
Manga editing device.
前記記憶手段は、
フレームに埋め込まれる効果音文字画像を、効果音文字を一意に識別する効果音文字識別子と関連付けて格納し、
前記受信手段は、
前記フレーム識別子と共に効果音文字識別子を受信し、
前記埋め込み手段は、
当該受信した効果音文字識別子と対応付けられた効果音文字画像を前記記憶手段から読み出すと共に、当該読み出した効果音文字画像を前記描画したフレームへ埋め込む、
マンガ編集装置。 The manga editing device according to claim 1,
The storage means
The sound effect character image embedded in the frame is stored in association with a sound effect character identifier that uniquely identifies the sound effect character,
The receiving means includes
Receiving a sound effect character identifier together with the frame identifier;
The embedding means is
Reading out the sound effect character image associated with the received sound effect character identifier from the storage unit and embedding the read sound effect character image in the drawn frame;
Manga editing device.
前記記憶手段は、
フレームに埋め込まれるふきだし枠画像を、ふきだし枠を一意に識別するふきだし枠識別子と関連付けて格納し、
前記受信手段は、
前記フレーム識別子と共にふきだし枠識別子を受信し、
前記埋め込み手段は、
当該受信したふきだし枠識別子と対応付けられたふきだし枠画像を前記記憶手段から読み出すと共に、当該読み出したふきだし枠画像を前記描画したフレームへ埋め込む、
マンガ編集装置。 The manga editing device according to claim 1,
The storage means
The speech bubble image embedded in the frame is stored in association with the speech bubble identifier that uniquely identifies the speech bubble frame,
The receiving means includes
Receiving a speech bubble identifier together with the frame identifier;
The embedding means is
Reading the balloon frame image associated with the received balloon frame identifier from the storage unit and embedding the read balloon frame image in the drawn frame;
Manga editing device.
ふきだし枠に記述する台詞を取得する取得手段を更に備え、
前記埋め込み手段は、
前記取得手段が取得した台詞を前記フレームに埋め込んだふきだし枠の内部へ記述する、
マンガ編集装置。 The manga editing apparatus according to claim 4,
It further comprises an acquisition means for acquiring the dialogue described in the speech frame,
The embedding means is
Describe the speech acquired by the acquisition means in a speech bubble embedded in the frame;
Manga editing device.
1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶処理と、
フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信処理と、
前記受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正処理と、
前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正処理と、
前記第1の修正処理によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込処理と、
を実行させるマンガ編集プログラム。 Computer equipment,
A storage process for storing, in each of the one or more frames, frame extension information indicating the extension of the frame in its own storage unit in association with a frame identifier that uniquely identifies the frame;
A reception process for receiving a frame identifier and a frame image embedded in the frame;
The frame extension information of the image embedded frame associated with the received frame identifier is read from the storage means, and the frame extension information of the image embedded frame is corrected so as to match the frame extension with the frame image extension. 1 correction process,
A second correction process for reading out the frame extension information of the adjacent frame adjacent to the image-embedded frame from the storage unit and performing correction for maintaining the frame extension interval on the frame extension information of the adjacent frame;
An embedding process for rendering a frame based on the frame extension information modified by the first modification process and embedding the received frame image in the rendered frame;
Manga editing program to execute.
作家端末が、フレーム識別子とフレームに埋め込まれるコマ画像とを前記マンガ編集装置へ送信する送信過程と、
前記マンガ編集装置が、前記作家端末から受信したフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正過程と、
前記マンガ編集装置が、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正過程と、
前記マンガ編集装置が、前記第1の修正過程によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込過程と、
を有するマンガ編集方法。 A storage process in which the manga editing device stores, for each of one or a plurality of frames, frame extension information indicating the extension of the frame in its storage means in association with a frame identifier that uniquely identifies the frame;
A transmission process in which the writer terminal transmits a frame identifier and a frame image embedded in the frame to the manga editing device;
The manga editing apparatus reads out frame extension information of an image embedded frame associated with a frame identifier received from the writer terminal from the storage unit, and corrects the image extension to match the extension of the frame image. A first correction process applied to the frame extension information of the frame;
A second correction process in which the manga editing apparatus reads out frame extension information of a neighboring frame adjacent to the image-embedded frame from the storage means, and performs correction to maintain the frame extension interval on the frame extension information of the neighboring frame When,
The manga editing apparatus draws a frame based on the frame extension information corrected by the first correction process, and embeds the embedded frame image in the drawn frame.
Manga editing method having
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003274275A JP2005038164A (en) | 2003-07-14 | 2003-07-14 | Manga editing device, manga editing program, manga editing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003274275A JP2005038164A (en) | 2003-07-14 | 2003-07-14 | Manga editing device, manga editing program, manga editing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005038164A true JP2005038164A (en) | 2005-02-10 |
Family
ID=34211283
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003274275A Withdrawn JP2005038164A (en) | 2003-07-14 | 2003-07-14 | Manga editing device, manga editing program, manga editing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005038164A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8429523B2 (en) | 2009-12-07 | 2013-04-23 | Sony Corporation | Comic creation apparatus, comic creation method, and comic creation program |
| KR20170055906A (en) | 2015-11-12 | 2017-05-22 | 엔에이치엔엔터테인먼트 주식회사 | A data prcessing device, data processing method and computer readable storage medium |
| KR20220081164A (en) * | 2020-12-08 | 2022-06-15 | 네이버웹툰 유한회사 | Method and device for rearranging webtoon content |
| US12511805B2 (en) | 2020-12-08 | 2025-12-30 | Naver Webtoon Ltd. | Method for rearranging webcomic content and device therefor |
-
2003
- 2003-07-14 JP JP2003274275A patent/JP2005038164A/en not_active Withdrawn
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8429523B2 (en) | 2009-12-07 | 2013-04-23 | Sony Corporation | Comic creation apparatus, comic creation method, and comic creation program |
| KR20170055906A (en) | 2015-11-12 | 2017-05-22 | 엔에이치엔엔터테인먼트 주식회사 | A data prcessing device, data processing method and computer readable storage medium |
| US10275125B2 (en) | 2015-11-12 | 2019-04-30 | NHN Comico Corporation | Image data generation apparatus and non-transitory computer-readable recording medium |
| KR20220081164A (en) * | 2020-12-08 | 2022-06-15 | 네이버웹툰 유한회사 | Method and device for rearranging webtoon content |
| WO2022124736A1 (en) * | 2020-12-08 | 2022-06-16 | 네이버웹툰 유한회사 | Method for rearranging webcomic content and device therefor |
| KR102527899B1 (en) * | 2020-12-08 | 2023-05-02 | 네이버웹툰 유한회사 | Method and device for rearranging webtoon content |
| US12511805B2 (en) | 2020-12-08 | 2025-12-30 | Naver Webtoon Ltd. | Method for rearranging webcomic content and device therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20100077379A1 (en) | Image processing apparatus, image processing method, and recording medium | |
| JPH11282829A (en) | Font sharing system and method, and storage medium storing program to execute the sharing method | |
| JP2010061311A (en) | Information processor and computer program | |
| JP4807999B2 (en) | Image display apparatus, image display method, image forming apparatus, image forming method, and program causing computer to execute these methods | |
| JP4574467B2 (en) | Data processing apparatus, data processing method, and computer program | |
| JPH0221024B2 (en) | ||
| JP2018019300A (en) | Image forming apparatus, document digitizing program, and document digitizing method | |
| JP5164426B2 (en) | Display control apparatus and display control method | |
| JP2005038164A (en) | Manga editing device, manga editing program, manga editing method | |
| JP6851853B2 (en) | Expansion of redacting function | |
| JP2018019299A (en) | Image forming apparatus, document digitizing program, and document digitizing method | |
| JP2006048465A (en) | Content generation system, program, and recording medium | |
| JP3890096B2 (en) | Image editing system | |
| JPH08235344A (en) | Scenario editor | |
| JP2010108296A (en) | Information processor and information processing method | |
| JP4838655B2 (en) | Document creation support apparatus and document creation support method | |
| JP4365965B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| JPH06103018A (en) | Display method | |
| JP4911585B2 (en) | Image processing apparatus, image processing method, program, and information recording medium | |
| JP2006072877A (en) | Document editing apparatus, document editing method, document editing program and recording medium therefor | |
| JP2013088777A (en) | Viewer device, server device, display control method, electronic comic editing method and program | |
| JPH0594511A (en) | Image processing device | |
| JP2005196481A (en) | Image forming apparatus, image forming method, and program | |
| JP5292662B2 (en) | Document display device, document display device control method, and program | |
| JP4515108B2 (en) | Plotter |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20061003 |