[go: up one dir, main page]

JP2005038164A - Manga editing device, manga editing program, manga editing method - Google Patents

Manga editing device, manga editing program, manga editing method Download PDF

Info

Publication number
JP2005038164A
JP2005038164A JP2003274275A JP2003274275A JP2005038164A JP 2005038164 A JP2005038164 A JP 2005038164A JP 2003274275 A JP2003274275 A JP 2003274275A JP 2003274275 A JP2003274275 A JP 2003274275A JP 2005038164 A JP2005038164 A JP 2005038164A
Authority
JP
Japan
Prior art keywords
frame
manga
image
identifier
embedded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003274275A
Other languages
Japanese (ja)
Inventor
Kojiro Iizuka
浩二郎 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003274275A priority Critical patent/JP2005038164A/en
Publication of JP2005038164A publication Critical patent/JP2005038164A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an editing system for generating an original while optimally correcting layouts of each frame of comics. <P>SOLUTION: An editor of comics stores image data of illustrations to be embedded in each frame of the comics into its own creator terminal 3 and accesses to a comic editing server device 1. Then, the image data to be embedded in the frames are transmitted after determining rough layouts though frame screens provided from the server device 1. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、マンガ編集装置に係り、特に、マンガ作家が作成したイラストを加工してマンガ原稿を作成する編集装置に関する。   The present invention relates to a manga editing device, and more particularly to an editing device that creates a manga manuscript by processing an illustration created by a manga artist.

従来より、新聞などの編集物に掲載される文字や画像の編集作業を自動化する試みがなされている。そのような試みを支援する技術を開示した文献として、例えば特許文献1がある。同文献は、新聞紙面の版下データを作成するシステムを開示している。同文献によると、このシステムは、紙面にレイアウトすべき各対象物が見出しであるか、埋め込み画像か、それともその他の記事かを判断する。そして、この判断結果に応じた好適な紙面レイアウトを自動的に決定する。これにより、段末の余白を少なくし、バランスの取れた新聞紙面を編集することができる。
特開2001−80020号公報
Conventionally, attempts have been made to automate the editing of characters and images that are published in edited articles such as newspapers. For example, Patent Document 1 discloses a technique that discloses a technique for supporting such an attempt. This document discloses a system for creating composition data for newspaper pages. According to this document, this system determines whether each object to be laid out on a paper is a headline, an embedded image, or another article. Then, a suitable paper layout according to the determination result is automatically determined. As a result, the margin at the end of the stage can be reduced and a balanced newspaper page can be edited.
JP 2001-80020 A

ところで、効率的な編集作業が求められる編集物の一つにマンガがある。マンガ原稿の制作手順を示せば以下のようになる。まず、描きたいことやストーリーの流れを箇条書きで書き綴ったプロットと呼ばれる書面を作成する。続いてこのプロットを基に「コマ割り」と呼ばれる作業を行う。コマ割りとは、原稿の紙面を、「コマ」を描くための複数のフレームに仕切る作業である。「コマ」とは、同一シーンを描写するイラストや文字のまとまりのことである。コマを作るためのフレームの大きさや形に変化を持たせることで、マンガのストーリーの流れをうまく演出することができる。「コマ割り」が終了すると、各フレームに下絵とふきだし枠とを描く。そして、下絵をペンで着色すると共にふきだし枠に台詞を書き込んでマンガ原稿が完成する。   By the way, manga is one of the compilations that require efficient editing work. The procedure for producing a manga manuscript is as follows. First, create a document called a plot that spells out what you want to draw and the flow of the story. Then, based on this plot, an operation called “frame division” is performed. The frame division is an operation of dividing the paper surface of a document into a plurality of frames for drawing “frames”. “Frame” is a group of illustrations and characters that depict the same scene. By changing the size and shape of the frames used to make the frames, the flow of the manga story can be produced well. When the “frame division” is completed, a background picture and a balloon frame are drawn in each frame. Then, the manuscript is completed by coloring the sketch with a pen and writing lines in a speech bubble.

以上説明したように、これまでのマンガ原稿の制作作業は、まずコマ割りを行って各コマのフレームのレイアウトを決定し、この決定した各フレームにイラストやふきだし枠を直接書き込んでいくという手順を踏まなければならかった。従って、下絵やふきだし枠を描いた後にそれらを書き込んだフレームのレイアウトを修正するといったことができなかった。
この発明は、以上説明した事情に鑑みてなされたものであり、マンガの各コマのレイアウトを好適に修正しながらその原稿を生成できる編集システムを提供することを目的とする。
As explained above, the manga manuscript production work so far has been divided into frames, the frame layout of each frame is determined, and illustrations and speech bubbles are directly written in the determined frames. I had to step on it. Therefore, it is impossible to correct the layout of the frame in which the sketch or the speech frame is drawn after the sketch or the speech frame is drawn.
The present invention has been made in view of the circumstances described above, and an object thereof is to provide an editing system capable of generating a manuscript while suitably correcting the layout of each frame of a manga.

本発明の好適な態様であるマンガ編集装置は、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて格納する記憶手段と、フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信手段と、前記受信手段によって受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正手段と、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正手段と、前記第1の修正手段が修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込手段とを備える。
この構成によれば、マンガの編集者は、各コマ画像の形状や大きさと合致するフレームにコマ画像が埋め込まれたマンガ原稿を容易に取得することができる。
A manga editing apparatus according to a preferred aspect of the present invention includes: a storage unit that stores, for each of one or a plurality of frames, frame extension information indicating the extension of the frame in association with a frame identifier that uniquely identifies the frame; Receiving means for receiving a frame identifier and a frame image embedded in the frame; and reading out the frame extension information of the image-embedded frame associated with the frame identifier received by the receiving means from the storage means. First correction means for performing correction on the frame extension information of the image-embedded frame to match the extension of the frame image, and frame extension information of a neighboring frame adjacent to the image-embedded frame is read from the storage means, Modify the extension of the adjacent frame to correct the extension interval. Comprises a second correction means for applying to the broadcast, as well as draw the frame based on the frame extension information first correction means has corrected, and embedding means for embedding the frame image thus received to the drawing frame.
According to this configuration, a manga editor can easily obtain a manga document in which a frame image is embedded in a frame that matches the shape and size of each frame image.

この態様において、前記受信手段は、任意のフレームのフレーム識別子とフレームの修正指示とを受信し、前記第1の修正手段は、当該フレーム識別子と対応付けられたフレーム外延情報を前記記憶手段から読み出し、当該フレーム外延情報に対し前記受信した修正指示に応じた修正を施すようにしてもよい。
このようにすれば、マンガ原稿の各フレームの大まかなレイアウトをコマ画像が埋め込まれる前に予め決定することができる。
In this aspect, the receiving unit receives a frame identifier of an arbitrary frame and a frame correction instruction, and the first correcting unit reads out frame extension information associated with the frame identifier from the storage unit. The frame extension information may be corrected according to the received correction instruction.
In this way, a rough layout of each frame of the manga original can be determined in advance before the frame image is embedded.

また、前述の好適な態様において、前記記憶手段は、フレームに埋め込まれる効果音文字画像を、効果音文字を一意に識別する効果音文字識別子と関連付けて格納し、前記受信手段は、前記フレーム識別子と共に効果音文字識別子を受信し、前記埋め込み手段は、当該受信した効果音文字識別子と対応付けられた効果音文字画像を前記記憶手段から読み出すと共に、当該読み出した効果音文字画像を前記描画したフレームへ埋め込むようにしてもよい。
このようにすれば、予めテンプレートとして準備されている効果音文字のうちのいずれかを選択することにより、その効果音文字が埋め込まれたマンガ原稿を容易に取得することができる。
In the above-mentioned preferred embodiment, the storage means stores the sound effect character image embedded in the frame in association with a sound effect character identifier for uniquely identifying the sound effect character, and the receiving means stores the frame identifier. And the embedding means reads out the sound effect character image associated with the received sound effect character identifier from the storage means and the drawn frame of the sound effect character image. You may make it embed.
In this way, by selecting any one of the sound effect characters prepared as a template in advance, it is possible to easily obtain a manga document in which the sound effect character is embedded.

また、前述の好適な態様において、前記記憶手段は、フレームに埋め込まれるふきだし枠画像を、ふきだし枠を一意に識別するふきだし枠識別子と関連付けて格納し、前記受信手段は、前記フレーム識別子と共にふきだし枠識別子を受信し、前記埋め込み手段は、当該受信したふきだし枠識別子と対応付けられたふきだし枠画像を前記記憶手段から読み出すと共に、当該読み出したふきだし枠画像を前記描画したフレームへ埋め込むようにしてもよい。
このようにすれば、予めテンプレートとして準備されているふきだし枠のうちのいずれかを選択することにより、そのふきだし枠が埋め込まれたマンガ原稿を容易に取得することができる。
In the above-mentioned preferred embodiment, the storage unit stores a balloon frame image embedded in a frame in association with a balloon frame identifier that uniquely identifies the balloon frame, and the receiving unit stores the balloon frame together with the frame identifier. The identifier may be received, and the embedding unit may read the balloon frame image associated with the received balloon frame identifier from the storage unit and embed the read balloon frame image in the drawn frame. .
In this way, by selecting any one of the balloon frames prepared as templates in advance, it is possible to easily obtain a manga document in which the balloon frame is embedded.

この態様において、ふきだし枠に記述する台詞を取得する取得手段を更に備え、前記埋め込み手段は、前記取得手段が取得した台詞を前記フレームに埋め込んだふきだし枠の内部へ記述するようにしてもよい。
このようにすれば、ふきだし枠に台詞が記述されたマンガ原稿を容易に取得することができる。
In this aspect, the information processing apparatus may further include an acquisition unit that acquires a dialogue described in a speech frame, and the embedding unit may describe the speech acquired by the acquisition device inside the speech bubble embedded in the frame.
In this way, it is possible to easily obtain a manga manuscript in which dialogue is described in a speech frame.

また、本発明の別の好適な態様であるマンガ編集プログラムは、コンピュータ装置に、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶処理と、フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信処理と、前記受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正処理と、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正処理と、前記第1の修正処理によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込処理とを実行させる。
このようにすれば、前述したマンガ編集装置と同様の作用を一般的なコンピュータ装置によって実現することができる。
In addition, a manga editing program according to another preferred aspect of the present invention provides a computer apparatus with frame extension information indicating the extension of the frame for each of one or a plurality of frames, and a frame identifier for uniquely identifying the frame. Storage processing to be associated with each other and stored in its own storage means, reception processing to receive a frame identifier and a frame image embedded in the frame, and frame extension information of an image embedded frame associated with the received frame identifier A first correction process for reading out from the storage means and making a correction for matching the frame extension with the frame image extension to the frame extension information of the image embedded frame; Read information from the storage means and keep the frame extension interval A frame is drawn based on the second correction process for applying positive to the frame extension information of the adjacent frame and the frame extension information corrected by the first correction process, and the received frame image is displayed on the drawn frame. The embedding process is executed.
In this way, the same operation as the above-described manga editing device can be realized by a general computer device.

更に、本発明の別の好適な態様であるマンガ編集方法は、マンガ編集装置が、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶過程と、作家端末が、フレーム識別子とフレームに埋め込まれるコマ画像とを前記マンガ編集装置へ送信する送信過程と、前記マンガ編集装置が、前記作家端末から受信したフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正過程と、前記マンガ編集装置が、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正過程と、前記マンガ編集装置が、前記第1の修正過程によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込過程とを有する。
このようにすれば、作家端末とマンガ編集装置とが協調して動作することでマンガ原稿を効率的に作成することができる。
Further, in the manga editing method according to another preferred aspect of the present invention, the manga editing apparatus is configured to provide frame extension information indicating the extension of the frame for each of one or a plurality of frames, and a frame for uniquely identifying the frame. A storage process in which the identifier is stored in its own storage means; a transmission process in which the writer terminal transmits a frame identifier and a frame image embedded in the frame to the manga editing apparatus; and the manga editing apparatus includes the writer terminal. First, frame extension information of an image embedded frame associated with the frame identifier received from the storage unit is read out from the storage means, and a correction is performed on the frame extension information of the image embedded frame to make the frame extension coincide with the frame image extension. Correction process and the manga editing device is in close proximity to the image embedded frame. The frame extension information of a frame is read from the storage means, and a correction for maintaining the frame extension interval is applied to the frame extension information of the adjacent frame, and the manga editing device includes the first correction process. A frame is drawn based on the frame extension information corrected by the step of embedding and the received frame image is embedded in the drawn frame.
In this way, the manga manuscript can be efficiently created by the writer terminal and the manga editing device operating in cooperation.

(A:第1実施形態)
本実施形態に係るマンガ編集システムの特徴は、マンガ原稿に掲載するイラストの画像データをマンガ編集サーバ装置を用いて加工することにより、それらの画像データを埋め込んだ各コマが好適にレイアウトされたマンガ原稿を容易に取得できるようにした点にある。
(A: 1st Embodiment)
The feature of the manga editing system according to the present embodiment is that the image data of the illustrations to be published in the manga manuscript is processed by using the manga editing server device, and the frames in which the image data are embedded are suitably laid out. The manuscript can be easily obtained.

ここで、本実施形態における「コマ」とはマンガ原稿において同一シーンを描画するイラストと文字のまとまりを意味するものとして、また、「フレーム」とはひとつのコマを描画している領域の外延を区画する矩形を意味するものとして、以下の説明を行う。   Here, “frame” in this embodiment means a group of illustrations and characters that draw the same scene in a manga manuscript, and “frame” means the extension of the area where one frame is drawn. The following description will be made assuming that the rectangle is to be partitioned.

(1:マンガ編集システムの構成)
図1は、本実施形態に係るマンガ編集システムの全体構成を示すブロック図である。本システムは、マンガ編集サーバ装置1と作家端末3とをインターネットにより接続して構成される。マンガ編集サーバ装置1は、マンガの各コマに埋め込まれるコマ画像データを作家端末3から受け取り、作家端末3の指示に応じてこのコマ画像データを加工してマンガ原稿を生成する。そして、作家端末3は、マンガ編集サーバ装置1にコマ画像データの加工を指示し、これにより生成されたマンガ原稿データを取得する。
(1: Manga editing system configuration)
FIG. 1 is a block diagram showing the overall configuration of the manga editing system according to the present embodiment. This system is configured by connecting a manga editing server device 1 and a writer terminal 3 via the Internet. The manga editing server device 1 receives frame image data embedded in each frame of the manga from the writer terminal 3 and processes the frame image data in accordance with an instruction from the writer terminal 3 to generate a manga manuscript. Then, the writer terminal 3 instructs the manga editing server device 1 to process the frame image data, and acquires the manga manuscript data generated thereby.

(2:マンガ編集サーバ装置の構成)
図2は、マンガ編集サーバ装置1のハードウェア構成を示すブロック図である。マンガ編集サーバ装置1は、制御部11、通信部12、表示部13、入力部14、揮発性記憶部15、不揮発性記憶部16、及びこれら各部を接続するバスを備えている。制御部11は、例えばCPU(central processing unit)である。通信部12は、例えば通信インターフェースである。表示部13は、例えばコンピュータディスプレイである。入力部14は、例えばキーボード及びマウスである。
揮発性記憶部15は、例えばRAM(random access memory)であり、制御部11のワークエリアとして利用される。不揮発性記憶部16は、例えばハードディスクであり、フレーム管理データベース16aと、ふきだし枠データベース16bと、効果音文字データベース16cとを格納している。
(2: Manga editing server device configuration)
FIG. 2 is a block diagram showing a hardware configuration of the manga editing server device 1. The manga editing server device 1 includes a control unit 11, a communication unit 12, a display unit 13, an input unit 14, a volatile storage unit 15, a nonvolatile storage unit 16, and a bus that connects these units. The control unit 11 is, for example, a CPU (central processing unit). The communication unit 12 is, for example, a communication interface. The display unit 13 is, for example, a computer display. The input unit 14 is, for example, a keyboard and a mouse.
The volatile storage unit 15 is a random access memory (RAM), for example, and is used as a work area of the control unit 11. The nonvolatile storage unit 16 is, for example, a hard disk, and stores a frame management database 16a, a speech frame database 16b, and a sound effect character database 16c.

図3にフレーム管理データベース16aのデータ構造を示す。同データベースは、各々1つのフレームに対応した複数のレコードの集合体である。ここで、1つのフレームに対応した1つのレコードは、「フレーム」、「フレーム外延情報」、「コマ画像」、「台詞」、及び「効果音文字」の各フィールドを有している。「フレーム」のフィールドには、各フレームを一意に識別するための「1」乃至「6」の各フレーム識別子を格納する。
「フレーム外延情報」のフィールドには、第1乃至第4制御点の座標値のセットを格納する。制御点の座標値はX座標値とY座標値とからなる。本実施形態においては、作家端末3から受取ったコマ画像を埋め込むフレームの各々をこれら制御点に基づいて描画するようになっている。すなわち、第1制御点と第2制御点とを結ぶ線分(以下この線分を「第1線分」という)と、第2制御点と第3制御点とを結ぶ線分(以下この線分を「第2線分」という)と、第3制御点と第4制御点とを結ぶ線分(以下この線分を「第3線分」という)と、第4制御点と第1制御点とを結ぶ線分(以下この線分を「第4線分」という)とを描画してひとつのフレームを形成する。
FIG. 3 shows the data structure of the frame management database 16a. The database is a collection of a plurality of records each corresponding to one frame. Here, one record corresponding to one frame has fields of “frame”, “frame extension information”, “frame image”, “line”, and “sound effect character”. In the “frame” field, frame identifiers “1” to “6” for uniquely identifying each frame are stored.
In the “frame extension information” field, a set of coordinate values of the first to fourth control points is stored. The coordinate value of the control point is composed of an X coordinate value and a Y coordinate value. In the present embodiment, each frame in which the frame image received from the writer terminal 3 is embedded is drawn based on these control points. That is, a line segment connecting the first control point and the second control point (hereinafter, this line segment is referred to as “first line segment”), and a line segment connecting the second control point and the third control point (hereinafter referred to as this line). Minute line is referred to as “second line segment”, a line segment connecting the third control point and the fourth control point (hereinafter, this line segment is referred to as “third line segment”), the fourth control point, and the first control. A line segment connecting the points (hereinafter, this line segment is referred to as a “fourth line segment”) is drawn to form one frame.

ここで、本実施形態におけるフレームの描画領域は、縦方向210ポイント×横方向190ポイントの広がりを有している。そして、フレーム管理データベース16aの「フレーム外延情報」のフィールドには、デフォルトフレームを描画するための各制御点のセットが格納されている。
図4にデフォルトフレームの描画内容を示す。なお、同図では説明の便宜上各フレームの頂点となる第1乃至第4制御点のそれぞれをそれら各制御点の番号により示している。この図に示すように、デフォルトの各制御点のセットによれば、横幅が90ポイントで縦幅が50ポイントの6つのフレームが10ポイントの間隔をおいて描画されることになる。
本実施形態においては、これらデフォルトフレームのいずれかを削除し又はその大きさや形状を修正することができるようになっている。但し、そのような修正が行われても各フレーム間の10ポイントの間隔が維持されるようになっている。詳しくは後の動作説明の項で説明する。
Here, the drawing area of the frame in the present embodiment has a spread of 210 points in the vertical direction × 190 points in the horizontal direction. A set of control points for drawing a default frame is stored in the “frame extension information” field of the frame management database 16a.
FIG. 4 shows the drawing contents of the default frame. In the figure, for convenience of explanation, the first to fourth control points which are the vertices of each frame are indicated by the numbers of the respective control points. As shown in this figure, according to the default set of control points, six frames having a horizontal width of 90 points and a vertical width of 50 points are drawn at intervals of 10 points.
In the present embodiment, any of these default frames can be deleted or the size and shape thereof can be corrected. However, even if such correction is made, the 10-point interval between the frames is maintained. Details will be described later in the explanation of operation.

図3に示す「コマ画像」のフィールドには、作家端末3から受取ったコマ画像データを格納する。「台詞」のフィールドには、ふきだし枠画像データを一意に識別するふきだし枠識別子と、ふきだし枠の配置位置を示す座標値と、ふきだし枠に埋め込むテキスト(台詞)のセットを格納する。「効果音文字」のフィールドには、効果音文字画像を一意に識別する効果音文字識別子と、効果音文字の配置位置を示す座標値のセットを格納する。   The frame image data received from the writer terminal 3 is stored in the “frame image” field shown in FIG. The “line” field stores a balloon frame identifier for uniquely identifying the balloon frame image data, a coordinate value indicating the arrangement position of the balloon frame, and a set of text (line) embedded in the balloon frame. In the “sound effect character” field, a sound effect character identifier for uniquely identifying a sound effect character image and a set of coordinate values indicating an arrangement position of the sound effect character are stored.

ふきだし枠データベース16bは、ふきだし枠識別子と関連付けたふきだし枠画像データを格納する。ふきだし枠というのは、マンガ原稿の各コマに登場する人物の台詞を囲む枠を意味する。本実施形態におけるふきだし枠には、図5に示す6つのタイプがある。
図5(a)乃至(d)に示すのは、登場人物が発声した台詞を示すふきだし枠である。このタイプのふきだし枠は「シッポ」とよばれる箇所を登場人物の口の辺りに近づけて描画することによってその人物の発言であることを示すようになっている。したがって、本実施形態では、「シッポ」が右にあるもの(a)、上にあるもの(b)、左にあるもの(c)、下にあるもの(d)の4つのふきだし枠画像を準備している。図5(e)に示すのは、登場人物が心の中で思った台詞を示すふきだし枠である。図5(f)に示すのは、登場人物が声を張り上げて叫んだ台詞を示すふきだし枠である。本実施形態においては、これら6種類のふきだし枠の画像をテンプレートデータとしてふきだし枠データベース16bへ格納している。
The balloon frame database 16b stores the balloon frame image data associated with the balloon frame identifier. A speech bubble means a frame that surrounds the dialogue of a person appearing in each frame of a manga manuscript. There are six types of balloon frames in the present embodiment as shown in FIG.
FIG. 5A to FIG. 5D show speech frames indicating lines uttered by the characters. This type of speech frame shows the person's remarks by drawing a part called “Shippo” close to the mouth of the character. Therefore, in this embodiment, four balloon frame images are prepared: “Shippo” on the right (a), upper (b), left (c), and lower (d). is doing. FIG. 5 (e) shows a speech frame indicating the dialogue that the character thought in his mind. FIG. 5 (f) shows a speech frame indicating a dialogue that the character screams with a loud voice. In the present embodiment, these six types of balloon frame images are stored in the balloon frame database 16b as template data.

効果音文字データベース16cは、効果音文字識別子と関連付けた効果音文字画像データを格納する。この効果音文字というのは、マンガ原稿の各コマに登場する人物の動作や感情を表現したりするための、イラスト化された文字を意味する。例えば、沈黙の状態が続いていることを示す「しーん」、あるいは人物が素っ気無く顔をそむけた状態を示す「ぷいっ」などがある。本実施形態では、これら効果音文字の画像をテンプレートデータとして効果音文字データベース16cへ格納している。   The sound effect character database 16c stores sound effect character image data associated with the sound effect character identifier. This sound effect character means an illustrated character for expressing the motion and emotion of a person appearing in each frame of a manga manuscript. For example, “Shin”, which indicates that the state of silence continues, or “Pui”, which indicates a state in which the person is casually turned away. In the present embodiment, these sound effect character images are stored in the sound effect character database 16c as template data.

(3:作家端末の構成)
図6は、作家端末3のハードウェア構成を示すブロック図である。作家端末3は、制御部31、通信部32、表示部33、入力部34、揮発性記憶部35、不揮発性記憶部36、及びこれら各部を接続するバスを備えている。これら各部のハードウェア構成はマンガ編集サーバ装置1の同部と同様なので詳細な説明を省略する。
(3: Composition of artist terminal)
FIG. 6 is a block diagram illustrating a hardware configuration of the writer terminal 3. The writer terminal 3 includes a control unit 31, a communication unit 32, a display unit 33, an input unit 34, a volatile storage unit 35, a non-volatile storage unit 36, and a bus connecting these units. Since the hardware configuration of each of these units is the same as that of the manga editing server apparatus 1, detailed description thereof is omitted.

(4:マンガ編集システムの動作)
本実施形態の動作は、コマ画像配置処理と、台詞挿入処理と、効果音文字挿入処理とに分けられる。作家端末3がマンガ編集サーバ装置1へアクセスすると、まずコマ画像配置処理が実行され、その後に台詞挿入処理と効果音文字挿入処理とが実行されることによってマンガ原稿が完成するようになっている。
(4: Manga editing system operation)
The operation of the present embodiment is divided into a frame image arrangement process, a dialogue insertion process, and a sound effect character insertion process. When the writer terminal 3 accesses the manga editing server device 1, the frame image placement process is executed first, and then the dialogue insertion process and the sound effect character insertion process are executed, thereby completing the manga manuscript. .

ここで、作家端末3の操作者であるマンガ作家は、マンガ原稿の各コマに描くイラストをデータ化したコマ画像データを作成し、そのファイルを不揮発性記憶部36に格納してからマンガ編集サーバ装置1へアクセスしなければならないことになっている。このコマ画像データは、市販のドローイングソフトで直接作成するか、若しくは鉛筆で描いた下書きに筆入れして得たイラストをスキャナで読み込んで作成することが望ましい。
以下、フローチャートを参照しつつ、コマ画像配置処理、台詞挿入処理、効果音文字挿入処理のそれぞれについて説明する。
Here, the manga artist who is the operator of the writer terminal 3 creates frame image data in which illustrations drawn on each frame of the manga manuscript are converted into data, stores the file in the nonvolatile storage unit 36, and then the manga editing server. Access to device 1 is to be made. It is desirable that the frame image data is created directly by a commercially available drawing software, or created by reading an illustration obtained by writing a draft drawn with a pencil with a scanner.
Hereinafter, each of the frame image arrangement processing, the dialogue insertion processing, and the sound effect character insertion processing will be described with reference to the flowchart.

<コマ画像配置処理>
図7及び図8は、コマ画像配置処理を示すフローチャートである。作家端末3がマンガ編集サーバ装置1にアクセスすると、マンガ編集サーバ装置1の制御部11は、デフォルトフレームを描画したフレーム画面の表示データを生成し、この表示データを作家端末3へ送信する(図7に示すS110)。この具体的処理は以下のようになる。まず、フレーム管理データベース16aの「フレーム外延情報」のフィールドに格納されている制御点のセットを揮発性記憶部15へ読み出し、これら制御点間を線分で結んでデフォルトフレームを描画する。そしてこれらのデフォルトフレームを含むフレーム画面の表示データを揮発性記憶部15上で生成し、この表示データを作家端末3へ送信する。
<Frame image layout processing>
7 and 8 are flowcharts showing the frame image arrangement process. When the writer terminal 3 accesses the manga editing server device 1, the control unit 11 of the manga editing server device 1 generates display data of a frame screen in which a default frame is drawn, and transmits this display data to the writer terminal 3 (FIG. S110 shown in FIG. This specific process is as follows. First, a set of control points stored in the “frame extension information” field of the frame management database 16a is read to the volatile storage unit 15, and a default frame is drawn by connecting these control points with line segments. Then, display data of the frame screen including these default frames is generated on the volatile storage unit 15, and this display data is transmitted to the writer terminal 3.

表示データを受信した作家端末3の制御部31は、表示部33にフレーム画面を表示する(S120)。
図9にデフォルトフレームが描画されたフレーム画面を示す。画面左側には、図4に示したようなレイアウトのデフォルトフレームが表示される。画面右側上段にはメッセージ欄Mが表示されており、この欄の中には「フレームの大まかなレイアウトを決定してください」とのメッセージが表示されている。画面右側中段には、不揮発性記憶部16に格納されているコマ画像データのサムネイルが表示される。更に画面右側下段には「次の作業へ」と表示したボタンがある。
The control unit 31 of the writer terminal 3 that has received the display data displays a frame screen on the display unit 33 (S120).
FIG. 9 shows a frame screen on which a default frame is drawn. On the left side of the screen, a default frame having a layout as shown in FIG. 4 is displayed. A message field M is displayed on the upper right side of the screen, and a message “Please determine the rough layout of the frame” is displayed in this field. A thumbnail of the frame image data stored in the nonvolatile storage unit 16 is displayed in the middle of the right side of the screen. In addition, there is a button labeled “To the next task” on the lower right side of the screen.

このフレーム画面が表示されると、作家端末3の操作者はフレーム修正操作を行うことができるようになっている。フレーム修正操作には、削除操作と、拡大及び縮小操作と、台形化操作とがある。
削除操作は、フレーム画面に表示されている各フレームのうちのいずれかを削除する操作である。この操作は、削除対象となるフレームの内部へアイコンを移動して右クリックすることにより行われる。
拡大及び縮小操作は、フレームの外延を拡大又は縮小する操作である。この拡大及び縮小操作は、フレームの第1線分又は第3線分を上下方向へ平行移動することにより行われる。即ち、操作者はまず端点を除いた同線分上の任意の位置へカーソルを移動して右クリックする。そして、右クリックした状態のままでカーソルをその上又は下の任意の位置まで移動して右クリックを離す。
台形化操作は、フレームの形状を台形とする操作である。この台形化操作は、フレームの頂点を横方向に移動することにより行われる。即ち、操作者はまず、フレームの任意の頂点にカーソルを移動して右クリックする。そして、右クリックした状態でのままで第1線分又は第3線分に沿ってカーソルを右又は左に移動し、同線分の新しい端点となるべき位置まで移動したところで右クリックを離す。
When this frame screen is displayed, the operator of the writer terminal 3 can perform a frame correction operation. The frame correction operation includes a delete operation, an enlargement / reduction operation, and a trapezoidal operation.
The delete operation is an operation for deleting any one of the frames displayed on the frame screen. This operation is performed by moving the icon to the inside of the frame to be deleted and right-clicking.
The enlargement / reduction operation is an operation for enlarging or reducing the outer extension of the frame. This enlargement / reduction operation is performed by translating the first line segment or the third line segment of the frame in the vertical direction. That is, the operator first moves the cursor to an arbitrary position on the same line segment excluding the end points and right-clicks. Then, the cursor is moved to an arbitrary position above or below with the right click state, and the right click is released.
The trapezoidal operation is an operation in which the shape of the frame is a trapezoid. This trapezoidal operation is performed by moving the vertex of the frame in the horizontal direction. That is, the operator first moves the cursor to an arbitrary vertex of the frame and right-clicks. Then, the cursor is moved right or left along the first line segment or the third line segment in the state where the right click is performed, and the right click is released when the cursor is moved to a position to become a new end point of the line segment.

上述の3つのうちいずれかの操作が作家端末3の操作者により行われると、作家端末3の制御部31は、操作情報をマンガ編集サーバ装置1へ送信する(S130)。この操作情報とは、右クリック或いは左クリックされたディスプレイ上の座標を識別するための情報である。上述のフレーム画面はビットマップとして表示されるため、作家端末3側ではこの画面のどの線分や制御点が選択されたかということまでは検出できない。従って、上述の操作情報をマンガ編集サーバ装置1が取得してこれを解析することで、修正対象となる線分、或いは修正対象となる制御点、更には、それら線分や制御点がX軸方向又はY軸方向へどの程度移動したかを示す移動値を特定するようになっている。
マンガ編集サーバ装置1の制御部11は、作家端末3から受信した操作情報を解析して、修正対象となるフレームのフレーム識別子とそのフレームへの修正内容を特定する。そして、このフレーム識別子と関連付けられたレコードをフレーム管理データベース16aから特定し、このレコードに格納されている制御点に対して上述の修正内容に応じた修正を施す(S140)。更に、修正が施されたフレームと近接する他のフレームのレコードをフレーム管理データベース16aから特定し、このレコードに格納されている制御点に対してフレーム間の間隔を10ポイントに保つ修正を施す(S150)。
When one of the above three operations is performed by the operator of the writer terminal 3, the control unit 31 of the writer terminal 3 transmits operation information to the manga editing server device 1 (S130). This operation information is information for identifying the coordinates on the display that have been right-clicked or left-clicked. Since the above frame screen is displayed as a bitmap, the artist terminal 3 cannot detect which line segment or control point of this screen has been selected. Therefore, the manga editing server device 1 acquires the above-described operation information and analyzes it, so that the line segment to be corrected, or the control point to be corrected, and further, the line segment and the control point are displayed on the X axis. A movement value indicating how much the movement has occurred in the direction or the Y-axis direction is specified.
The control unit 11 of the manga editing server device 1 analyzes the operation information received from the writer terminal 3 and specifies the frame identifier of the frame to be corrected and the correction content to the frame. Then, the record associated with the frame identifier is specified from the frame management database 16a, and the control point stored in this record is corrected according to the above-described correction content (S140). Further, a record of another frame adjacent to the corrected frame is specified from the frame management database 16a, and correction is performed to maintain the interval between frames at 10 points with respect to the control points stored in this record ( S150).

ここで、上述したように、操作者は、削除操作、拡大及び縮小操作、および台形化操作という3種類の操作を行うことができるが、これらのいずれの操作が行われたかにより上記ステップ130乃至ステップ150の具体的処理内容は異なる。そこで以下には、ステップ130及びステップ150の具体的処理内容を修正操作毎に分けて説明する。   Here, as described above, the operator can perform three types of operations, that is, a delete operation, an enlargement / reduction operation, and a trapezoidal operation. Depending on which of these operations is performed, the above steps 130 to 130 are performed. The specific processing contents of step 150 are different. Therefore, in the following, the specific processing contents of step 130 and step 150 will be described separately for each correction operation.

(a)削除操作が行われたときの処理内容
図10は、削除操作が行われたときの具体的処理を示すフローチャートである。
削除操作が行われると、作家端末3の制御部31は、この削除操作の内容に応じた操作情報をマンガ編集サーバ装置1へ送信する(S131a)。
(A) Processing Contents when Deletion Operation is Performed FIG. 10 is a flowchart showing specific processing when a deletion operation is performed.
When the delete operation is performed, the control unit 31 of the writer terminal 3 transmits operation information corresponding to the content of the delete operation to the comic editing server device 1 (S131a).

操作情報を解析して修正対象となるフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S141a)。そして、このレコードの「フレーム外延情報」のフィールドに格納されている第1乃至第4制御点のセットを揮発性記憶部15へ読み出した後に、このレコードを削除する(S142a)。   The control unit 11 of the manga editing server apparatus 1 that has identified the frame identifier of the frame to be corrected by analyzing the operation information identifies the record associated with this frame identifier from the frame management database 16a (S141a). Then, after reading the set of first to fourth control points stored in the “frame extension information” field of this record to the volatile storage unit 15, this record is deleted (S142a).

制御部11は、ステップ142aで読み出した各制御点のY座標値と他のフレームのレコードに格納されている制御点のY座標値とをそれぞれ比較し、同じY座標値の制御点を有している他のフレームのレコードを特定する(S151a)。
続いて制御部11は、この特定したレコードの「フレーム外延情報」のフィールドに格納された第1乃至第4制御点のうちから修正対象となる制御点を特定する(S152a)。具体的には、削除されたのが右側のフレーム(図4に示す2、4、6のいずれかのフレーム)であれば、その隣(左側)のフレームの第2制御点と第3制御点を修正対象として特定する一方で、削除されたのが左側のフレーム(図4に示す1、3、5のいずれかのフレーム)であれば、その隣(右側)のフレームの第1制御点と第4制御点を修正対象として特定する。
更に制御部1は、特定した2つの制御点のX座標値を、ステップ142aで読み出した第1乃至第4制御点のうち制御点番号を同じくする2つの制御点の各X座標値と同じ値にそれぞれ修正する(S153a)。
The control unit 11 compares the Y coordinate value of each control point read in step 142a with the Y coordinate value of the control point stored in the record of another frame, and has control points having the same Y coordinate value. The record of the other frame is specified (S151a).
Subsequently, the control unit 11 specifies a control point to be corrected from the first to fourth control points stored in the “frame extension information” field of the specified record (S152a). Specifically, if it is the right frame (one of frames 2, 4, and 6 shown in FIG. 4) that has been deleted, the second control point and the third control point of the adjacent (left) frame. If the left frame (one of frames 1, 3, and 5 shown in FIG. 4) is deleted, the first control point of the adjacent (right) frame is The fourth control point is specified as a correction target.
Further, the control unit 1 sets the X coordinate values of the two specified control points to the same value as the X coordinate values of the two control points having the same control point number among the first to fourth control points read in step 142a. (S153a).

(b)拡大及び縮小操作が行われたときの処理内容
図11は、拡大及び縮小操作が行われたときの具体的処理内容を示すフローチャートである。
削除操作が行われると、作家端末3の制御部31は、この拡大及び縮小操作の内容に応じた操作情報をマンガ編集サーバ装置1へ送信する(S131b)。
(B) Processing Contents when Enlargement and Reduction Operations are Performed FIG. 11 is a flowchart showing specific processing contents when enlargement and reduction operations are performed.
When the deletion operation is performed, the control unit 31 of the writer terminal 3 transmits operation information corresponding to the contents of the enlargement / reduction operation to the manga editing server device 1 (S131b).

操作情報を解析して修正対象となるフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S141b)。そして、このレコードに格納された第1乃至第4制御点のうちから、拡大及び縮小操作により移動された線分を描画する2つの制御点を特定する(S142b)。制御部11は、この特定した両制御点のY座標値に、操作情報を解析して得た移動値を加算する(S143b)。   The control unit 11 of the manga editing server apparatus 1 that has identified the frame identifier of the frame to be corrected by analyzing the operation information identifies the record associated with this frame identifier from the frame management database 16a (S141b). Then, two control points for drawing the line segment moved by the enlargement / reduction operation are specified from the first to fourth control points stored in the record (S142b). The control unit 11 adds the movement value obtained by analyzing the operation information to the Y coordinate values of the specified both control points (S143b).

制御部11は、フレーム管理データベース16aの他のレコードに格納された制御点を参照し、ステップ142bで特定した2つの制御点と、X座標値を同じくしかつY座標値が10ポイントしか離れていない近接制御点を特定する(S151b)。制御部11は、これら近接制御点のY座標値に上述の移動値を加算する(S152b)。   The control unit 11 refers to the control points stored in other records in the frame management database 16a, and has the same X coordinate value as the two control points specified in step 142b, and the Y coordinate value is only 10 points away. An adjacent proximity control point is specified (S151b). The control unit 11 adds the above movement value to the Y coordinate value of these proximity control points (S152b).

ここで、操作情報から「フレーム1、第3線分、移動値(−15)」という修正内容が解析されたケースを想定し、ステップ141b乃至152bの具体的内容を説明する。
図12(a)は、ステップ143bを実行した時点の制御点に基づいて描画したフレーム1及び3を示している。この時点ではフレーム1の第3制御点と第4制御点のY座標値に移動値−15が加算されたことにより、これら両制御点を結ぶ第3線分が上方向に15ポイント移動している。しかしながらこれによりフレーム3の第1線分との間隔が25ポイントに開いている。この間隔を10ポイントに保つためにステップ151b乃至152bの処理が実行される。
図12(b)は、ステップ152bまで実行した時点の制御点に基づいて描画したフレーム1及び3を示している。この時点ではフレーム3の第1制御点および第2制御点のY座標値にも移動値−15が加算されたことにより、これら両制御点を結んで描画される第1線分とフレーム1の第3線分との距離が10ポイントに縮まっている。
Here, assuming the case where the correction content “frame 1, third segment, movement value (−15)” is analyzed from the operation information, the specific content of steps 141b to 152b will be described.
FIG. 12A shows frames 1 and 3 drawn based on control points at the time when step 143b is executed. At this point, the movement value -15 is added to the Y coordinate values of the third control point and the fourth control point of frame 1, so that the third line segment connecting these two control points moves upward by 15 points. Yes. However, the distance from the first line segment of the frame 3 is thereby opened at 25 points. In order to keep this interval at 10 points, the processing of steps 151b to 152b is executed.
FIG. 12B shows frames 1 and 3 drawn based on the control points at the time of execution up to step 152b. At this time, the movement value -15 is also added to the Y coordinate values of the first control point and the second control point of the frame 3, so that the first line segment drawn by connecting these control points and the frame 1 The distance from the third line segment is reduced to 10 points.

(c)台形化操作が行われたときの処理内容
図13は、台形化操作が行われたときの具体的処理内容を示すフローチャートである。
台形化操作が行われると、作家端末3の制御部31は、この台形化操作の内容に応じた操作情報をマンガ編集サーバ装置1へ送信する(S131c)。
(C) Processing contents when trapezoidal operation is performed FIG. 13 is a flowchart showing specific processing contents when the trapezoidal operation is performed.
When the trapezoidal operation is performed, the control unit 31 of the writer terminal 3 transmits operation information corresponding to the content of the trapezoidal operation to the manga editing server device 1 (S131c).

操作情報を解析して修正対象となるフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S141c)。そして、このレコードに格納された第1乃至第4制御点のうちから、台形化操作により移動された制御点を特定する(S142c)。制御部31は、この特定した制御点のX座標値に、操作情報を解析して得た移動値を加算する(S143c)。   The control unit 11 of the comic editing server device 1 that has identified the frame identifier of the frame to be corrected by analyzing the operation information identifies the record associated with the frame identifier from the frame management database 16a (S141c). Then, the control point moved by the trapezoidal operation is specified from the first to fourth control points stored in this record (S142c). The control unit 31 adds the movement value obtained by analyzing the operation information to the X coordinate value of the specified control point (S143c).

制御部31は、各レコードの「フレーム外延情報」のフィールドに格納された制御点を参照し、ステップ142cで特定した制御点とY座標値を同じくし、かつX座標値が10ポイントしか離れていない近接制御点を特定する(S151c)。そして、この特定した近接制御点のX座標値に、上述の移動値を加算する(S152c)。   The control unit 31 refers to the control point stored in the “frame extension information” field of each record, makes the Y coordinate value the same as the control point specified in step 142c, and is only 10 points away from the X coordinate value. An adjacent proximity control point is identified (S151c). Then, the above movement value is added to the X coordinate value of the specified proximity control point (S152c).

ここで、操作情報から「フレーム6、第4制御点、移動値X(30)」という修正内容が解析されたケースを想定し、ステップ141c乃至152cの具体的内容を説明する。
図14(a)は、ステップ143cを実行した時点の制御点に基づいて描画したフレーム5及び6を示している。この時点ではフレーム6の第4制御点のX座標値に移動値30が加算されたことにより、第3線分が右方向に30ポイント短縮されている。しかしながらこれによりフレーム5の第3制御点との間隔が40ポイントに開いている。この間隔を10ポイントに保つためにステップ151c乃至152cの処理が実行される。
図14(b)はステップ152cまで実行した時点の制御点に基づいて描画したフレーム5及び6を示している。この時点ではフレーム5の第3制御点のX座標値にも移動値30が加算されたことにより、フレーム6の第4制御点との距離が10ポイントに縮まっている。
Here, assuming a case where the correction content “frame 6, fourth control point, movement value X (30)” is analyzed from the operation information, the specific content of steps 141c to 152c will be described.
FIG. 14A shows frames 5 and 6 drawn based on the control points at the time when step 143c is executed. At this time, the third line segment is shortened 30 points to the right by adding the movement value 30 to the X coordinate value of the fourth control point of the frame 6. However, the distance between the frame 5 and the third control point is 40 points. In order to keep this interval at 10 points, the processes of steps 151c to 152c are executed.
FIG. 14B shows frames 5 and 6 drawn based on the control points at the time of execution up to step 152c. At this time, the movement value 30 is also added to the X coordinate value of the third control point of the frame 5, so that the distance from the fourth control point of the frame 6 is reduced to 10 points.

図7に示すステップ150を実行した制御部11は、修正後のフレームを描画したフレーム画面の表示データを生成し、この表示データを作家端末3へ送信する(S160)。この具体的処理の内容はステップ110で説明したところと同様である。
作家端末3の制御部31は、修正後のフレームが描画されたフレーム画面を表示部33に表示する(S170)。このフレーム画面には、修正指示を反映したフレームがデフォルトフレームの代わりに表示される。作家端末3の操作者は次にコマ画像埋め込み操作を行う。この操作の具体的手順を示せば以下のようになる。操作者はまず、フレーム画面の右側中段に表示されたサムネイルのうちのひとつへアイコンを移動して右クリックする。そして、右クリックした状態のままでいずれかのフレームの内部までカーソルを移動して右クリックを離す。最後に、コマ画像の大きさに合わせてフレームの大きさを修正したいときはもう一度右クリックし、反対にフレームの大きさに合わせてコマ画像の大きさを修正したいときは左クリックする。
The control unit 11 that has executed step 150 shown in FIG. 7 generates display data of the frame screen on which the corrected frame is drawn, and transmits this display data to the writer terminal 3 (S160). The details of this specific processing are the same as those described in step 110.
The control unit 31 of the writer terminal 3 displays the frame screen on which the corrected frame is drawn on the display unit 33 (S170). On this frame screen, a frame reflecting the correction instruction is displayed instead of the default frame. Next, the operator of the writer terminal 3 performs a frame image embedding operation. The specific procedure for this operation is as follows. First, the operator moves the icon to one of the thumbnails displayed on the right middle of the frame screen and right-clicks. Then, with the right click, move the cursor to the inside of one of the frames and release the right click. Finally, if you want to correct the frame size to fit the frame image, right-click again. On the other hand, if you want to correct the frame size to fit the frame size, left-click.

作家端末3の制御部31は、コマ画像の大きさにフレームを合わせる操作が行われたときは、選択されたサムネイルと対応付けて不揮発性記憶部36に格納されていたコマ画像データと、そのサムネイルの移動先を示す操作情報とをマンガ編集サーバ装置1へ送信する(S180)。
一方、フレームの大きさにコマ画像を合わせる操作が行われたときは、フレームの大きさを固定すべきことを示すフレーム固定識別子を、上記コマ画像データ及び操作情報と共に送信する(S190)。
操作情報を解析してサムネイルの移動先フレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、そのフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S200)。制御部11は、作家端末3から受信したコマ画像データを当該特定したレコードの「コマ画像」のフィールドへ格納する(図8に示すS210)。
続いて制御部11は、フレーム固定識別子をコマ画像データと共に受信していない場合には、ステップ210で格納したコマ画像データに基づいてこのコマ画像の外延を特定する(S220)。
When the operation of matching the frame with the size of the frame image is performed, the control unit 31 of the writer terminal 3 associates the selected thumbnail with the frame image data stored in the nonvolatile storage unit 36, and The operation information indicating the thumbnail destination is transmitted to the manga editing server device 1 (S180).
On the other hand, when an operation for fitting the frame image to the frame size is performed, a frame fixing identifier indicating that the frame size should be fixed is transmitted together with the frame image data and the operation information (S190).
The control unit 11 of the manga editing server device 1 that has analyzed the operation information and specified the frame identifier of the destination frame of the thumbnail specifies the record associated with the frame identifier from the frame management database 16a (S200). The control unit 11 stores the frame image data received from the writer terminal 3 in the “frame image” field of the specified record (S210 shown in FIG. 8).
Subsequently, when the frame fixed identifier is not received together with the frame image data, the control unit 11 specifies the extension of the frame image based on the frame image data stored in Step 210 (S220).

制御部11は、ステップ200で特定したレコードから第1乃至第4制御点のセットを特定する(S230)。続いてこの制御点のセットを、ステップ220で特定した外延と一致するフレームを描画する制御点のセットへと修正する(S240)。更に、ステップ240の修正を施した制御点の移動値を特定する(S250)。この移動値は、修正に伴うX座標値の移動量とY座標値の移動量とにより表現される。
移動値を特定した制御部11は、フレーム管理データベース16aの他のレコードに格納された制御点のうちから、ステップ240の修正を施した制御点の修正前のX座標値との距離及びY座標値との距離が共に10ポイントしか離れていない近接制御点を特定する(S260)。続いてこの近接制御点のX座標値とY座標値のそれぞれにステップ250で特定した移動値を加算する(S270)。そして、この近接制御点を一方の端点とする2つの線分が当該近接制御点で直交するように当該2つの線分の他方の端点となる各制御点の座標値を修正する(S280)。
The control unit 11 specifies a set of first to fourth control points from the record specified in Step 200 (S230). Subsequently, the set of control points is corrected to a set of control points for drawing a frame that matches the extension specified in step 220 (S240). Further, the movement value of the control point subjected to the correction in step 240 is specified (S250). This movement value is expressed by the movement amount of the X coordinate value and the movement amount of the Y coordinate value accompanying the correction.
The control unit 11 that has identified the movement value, among the control points stored in other records of the frame management database 16a, the distance from the X coordinate value before the correction of the control point subjected to the correction in step 240 and the Y coordinate. A proximity control point whose distance from the value is only 10 points is specified (S260). Subsequently, the movement value specified in step 250 is added to each of the X coordinate value and the Y coordinate value of this proximity control point (S270). Then, the coordinate value of each control point serving as the other end point of the two line segments is corrected so that the two line segments having the proximity control point as one end point are orthogonal to each other at the proximity control point (S280).

ここで、フレーム管理データベース16aの「フレーム外延情報」のフィールドにはデフォルトがそのまま維持されており(つまり修正操作は行われていない)、フレーム1に埋め込まれるコマ画像の外延が横105ポイント×縦60ポイントであったというケースを想定し、ステップ220乃至ステップ280の具体的内容を説明する。   Here, the default is maintained in the “frame extension information” field of the frame management database 16a (that is, no correction operation is performed), and the extension of the frame image embedded in the frame 1 is 105 points × vertical. Assuming the case of 60 points, the specific contents of steps 220 to 280 will be described.

図15(a)は、ステップ220を実行した時点の制御点に基づいて描画した各フレームを示している。なお、同図では説明の便宜上各フレームの頂点となる第1乃至第4制御点のそれぞれをそれら各制御点の番号により示している(図15(b)及び図15(c)についても同じ)。ステップ220を実行した時点では、フレーム1はコマ画像よりも横幅が15ポイント小さくまた縦幅も10ポイント小さいため、このままコマ画像を埋め込むとフレームからはみだしてしまうことになる。これを防ぐためにステップ230及びステップ240を実行してフレーム1の大きさをコマ画像の大きさに一致させる。   FIG. 15A shows each frame drawn based on the control points when step 220 is executed. In the figure, for convenience of explanation, the first to fourth control points which are the vertices of each frame are indicated by the numbers of the respective control points (the same applies to FIGS. 15B and 15C). . When step 220 is executed, the frame 1 has a width that is 15 points smaller than the frame image and a height that is 10 points smaller. Therefore, if the frame image is embedded as it is, the frame 1 protrudes from the frame. In order to prevent this, Step 230 and Step 240 are executed to match the size of frame 1 with the size of the frame image.

図15(b)は、ステップ270まで実行した時点の制御点に基づいて描画した各フレームを示している。この時点では、フレーム2の第1制御点のX座標値に移動値15が加算され、フレーム3の第1制御点のY座標値に移動値10が加算されている。また、フレーム2の第4制御点、フレーム4の第1制御点、及びフレーム3の第2制御点のX座標値に移動値15が加算されると共に、それら各制御点のY座標値に移動値10が加算されている。ただし、フレーム2の第3制御点と、フレーム4の第2及び第4の各制御点と、フレーム3の第3制御点は、フレーム1の各制御点との距離が10ポイントよりも大きいため近接制御点と認識されず、その位置が修正されないままになっている。   FIG. 15B shows each frame drawn based on the control points at the time of execution up to step 270. At this time, the movement value 15 is added to the X coordinate value of the first control point of the frame 2, and the movement value 10 is added to the Y coordinate value of the first control point of the frame 3. In addition, the movement value 15 is added to the X coordinate values of the fourth control point of the frame 2, the first control point of the frame 4, and the second control point of the frame 3, and the movement is moved to the Y coordinate value of each control point. The value 10 is added. However, the distance between the third control point of frame 2, the second and fourth control points of frame 4, and the third control point of frame 3 is greater than 10 points. It is not recognized as a proximity control point, and its position remains uncorrected.

図15(c)は、ステップ280まで実行した時点の制御点に基づいて描画したフレームを示している。この時点では、フレーム2の第4制御点を一方の端点とする2つの線分(第3線分と第4線分)が第4制御点で直交するように、その第3制御点のY座標値へ移動値10が加算されている。また、フレーム3の第2制御点を一方の端点とする線分(第1線分と第2線分)が第2制御点で直交するように、その第3制御点のX座標値へ移動値15が加算されている。更に、フレーム4の第1制御点を一方の端点とする2つの線分(第1線分と第4線分)が第1制御点で直交するように、その第2制御点のY座標値へ移動値10が加算されると共にその第4制御点のX座標値に移動値15が加算されている。   FIG. 15C shows a frame drawn based on control points at the time when the processing up to step 280 is executed. At this time, two line segments having the fourth control point of frame 2 as one end point (the third line segment and the fourth line segment) are orthogonal to each other at the fourth control point. The movement value 10 is added to the coordinate value. In addition, the line segment (the first line segment and the second line segment) having the second control point of the frame 3 as one end point is moved to the X coordinate value of the third control point so that it is orthogonal to the second control point. The value 15 is added. Further, the Y coordinate value of the second control point so that two line segments (the first line segment and the fourth line segment) having the first control point of the frame 4 as one end point are orthogonal to each other at the first control point. A movement value 10 is added to and a movement value 15 is added to the X coordinate value of the fourth control point.

図8のステップ280を実行した制御部11は、フレーム管理データベース16aの制御点のセットに基づいてフレームを描画し、描画した各フレームのフレーム識別子と対応付けられたコマ画像をフレームへ埋め込む(S290)。
一方、作家端末3から受信したデータの中にフレーム固定識別子が含まれていないとき、制御部11は、上記ステップ220乃至ステップ290の処理を実行しないで、描画したフレームにコマ画像をそのまま埋め込み、フレームからはみだしたコマ画像の画素をカットする(S300)。
制御部11は、コマ画像を埋め込んだフレーム画面の表示データを作家端末3へ送信する(S310)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S320)。
The control unit 11 that has executed Step 280 in FIG. 8 draws a frame based on the set of control points in the frame management database 16a, and embeds the frame image associated with the frame identifier of each drawn frame in the frame (S290). ).
On the other hand, when the frame fixed identifier is not included in the data received from the writer terminal 3, the control unit 11 embeds the frame image as it is in the drawn frame without executing the processing of step 220 to step 290, Pixels of the frame image protruding from the frame are cut (S300).
The control unit 11 transmits display data of the frame screen in which the frame image is embedded to the writer terminal 3 (S310). The control unit 31 of the writer terminal 3 displays the frame screen on the display unit 33 (S320).

作家端末3の操作者は、コマ画像埋め込み操作を再び行って、他のコマ画像を埋め込むフレームを決定していく。そしてこの作業が行われる毎にステップ180乃至ステップ320の処理が繰り返され、コマ画像が新たに埋め込まれたフレーム画面が作家端末3の表示部33に表示される。準備していたすべてのコマ画像が埋め込まれたことを確認した操作者は、同画面右側下段の「次の作業へ」を選択する。この操作により台詞挿入処理が開始される。
なお、台詞挿入処理及びその後の効果音文字挿入処理が実行されている間も、コマ画像データを埋め込んだフレーム画面の表示データを揮発性記憶部15へ格納した状態が維持される。
The operator of the writer terminal 3 performs the frame image embedding operation again to determine a frame in which another frame image is embedded. Each time this operation is performed, the processing from step 180 to step 320 is repeated, and the frame screen in which the frame image is newly embedded is displayed on the display unit 33 of the writer terminal 3. The operator who confirms that all the prepared frame images have been embedded selects “next work” at the lower right side of the screen. This operation starts the dialogue insertion process.
Note that the display of the frame screen in which the frame image data is embedded is stored in the volatile storage unit 15 while the speech insertion process and the subsequent sound effect character insertion process are being executed.

<台詞挿入処理>
図16は、台詞挿入処理を示すフローチャートである。
台詞挿入処理が開始されると、作家端末3の制御部31は、ふきだし枠選択欄を一部に含むフレーム画面を表示部33に表示する(S400)。
図17にふきだし枠選択欄を含んだフレーム画面を示す。この画面の右側中段にはふきだし枠選択欄Fが表示される。そして右側上段のメッセージ欄Mには「フレームに埋め込むふきだし枠を選択してから台詞を入力してください」といったメッセージが表示される。ふきだし枠選択欄Fには、図5(a)乃至図5(e)に示した6パターンのふきだし枠画像のサムネイルが表示される。
<Line insertion processing>
FIG. 16 is a flowchart showing dialogue insertion processing.
When the dialogue insertion process is started, the control unit 31 of the writer terminal 3 displays a frame screen partially including a speech frame selection field on the display unit 33 (S400).
FIG. 17 shows a frame screen including a speech frame selection field. A balloon frame selection field F is displayed in the middle of the right side of the screen. In the upper right message field M, a message such as “Please select a speech frame to be embedded in the frame and then input dialogue” is displayed. In the speech frame selection field F, thumbnails of the 6 patterns of speech frame images shown in FIGS. 5A to 5E are displayed.

この画面を参照した操作者はふきだし枠埋め込み操作を行う。このふきだし枠埋め込み操作の具体的手順を以下に説明する。操作者はまずふきだし枠選択欄Fのサムネイルのうちのひとつへアイコンを移動し右クリックする。そして、右クリックした状態のままでフレーム内の任意の配置位置までカーソルを移動して右クリックを離す。
作家端末3の制御部31は、このふきだし枠埋め込み操作の内容に応じた操作情報と選択されたふきだし枠のふきだし枠識別子とをマンガ編集サーバ装置1へ送信する(S410)。
The operator who refers to this screen performs a balloon frame embedding operation. A specific procedure of the speech frame embedding operation will be described below. The operator first moves the icon to one of the thumbnails in the speech frame selection field F and right-clicks it. Then, with the right click, the cursor is moved to an arbitrary arrangement position in the frame and the right click is released.
The control unit 31 of the writer terminal 3 transmits the operation information according to the content of the speech frame embedding operation and the speech frame identifier of the selected speech frame to the manga editing server device 1 (S410).

操作情報を解析してふきだし枠を埋め込むフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S420)。制御部11は、このレコードの「ふきだし枠」のフィールドへ、受信したふきだし枠識別子と、操作情報を解析して得た埋め込み位置の座標値とのセットを格納する(S430)。
続いて制御部11は、受信したふきだし枠識別子と対応付けられたふきだし枠画像をふきだし枠データベース16bから読み出す(S440)。
The control unit 11 of the manga editing server apparatus 1 that has identified the frame identifier of the frame in which the speech frame is embedded by analyzing the operation information identifies the record associated with this frame identifier from the frame management database 16a (S420). The control unit 11 stores the set of the received speech frame identifier and the coordinate value of the embedding position obtained by analyzing the operation information in the “speech frame” field of this record (S430).
Subsequently, the control unit 11 reads the balloon frame image associated with the received balloon frame identifier from the balloon frame database 16b (S440).

制御部11は、上述のコマ画像配置処理の際にマンガ編集サーバ装置1の制御部11により生成され、その揮発性記憶部15に格納されているフレーム画面に、ステップ440で読み出したふきだし枠画像を埋め込む(S450)。この処理を具体的に説明すると以下のようになる。まず、上記操作情報を解析して得た座標値によって、ふきだし枠画像を埋め込むフレームとそのフレーム内の画像埋め込み位置とを特定する。そして、当該特定した埋め込み位置にふきだし枠画像を上書きする。最後に、フレームからはみ出したふきだし枠画像の画素があればこれをカットする。
制御部11は、ふきだし枠画像を埋め込んだフレーム画面の表示データを作家端末3へ送信する(S460)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S470)。
作家端末3の操作者は、フレーム画面のフレームに埋め込まれているふきだし枠を選択し、このふきだし枠内にテキスト(台詞)を入力する。作家端末3の制御部31は、選択されたふきだし枠を示す操作情報と入力されたテキストのデータとをマンガ編集サーバ装置1へ送信する(S480)。
The control unit 11 generates the balloon frame image read out in step 440 on the frame screen generated by the control unit 11 of the manga editing server device 1 and stored in the volatile storage unit 15 during the above-described frame image arrangement processing. Is embedded (S450). This process will be specifically described as follows. First, the frame in which the balloon frame image is embedded and the image embedding position in the frame are specified by the coordinate value obtained by analyzing the operation information. Then, the balloon frame image is overwritten at the specified embedding position. Finally, if there is a pixel in the balloon frame image that protrudes from the frame, it is cut.
The control unit 11 transmits display data of the frame screen in which the balloon frame image is embedded to the writer terminal 3 (S460). The control unit 31 of the writer terminal 3 displays the frame screen on the display unit 33 (S470).
The operator of the writer terminal 3 selects a speech frame embedded in the frame of the frame screen, and inputs text (line) in the speech frame. The control unit 31 of the writer terminal 3 transmits the operation information indicating the selected balloon frame and the input text data to the manga editing server device 1 (S480).

マンガ編集サーバ装置1の制御部11は、ステップ420で特定したレコードの「台詞」のフィールドへ、操作端末3から受信したテキストデータ(台詞)を格納する(S490)。
制御部11は、ステップ450で生成したフレーム画面のふきだし枠へ、上記テキストを埋め込む(S500)。なお、テキストを埋め込むふきだし枠は作家端末3から受信した操作情報を解析することによって特定する。制御部11は、ふきだし枠にテキストを埋め込んだフレーム画面の表示データを作家端末3へ送信する(S510)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S520)。
The control unit 11 of the manga editing server device 1 stores the text data (line) received from the operation terminal 3 in the “line” field of the record identified in step 420 (S490).
The control unit 11 embeds the text in the speech frame of the frame screen generated in step 450 (S500). Note that the balloon frame in which the text is embedded is specified by analyzing the operation information received from the writer terminal 3. The control unit 11 transmits display data of the frame screen in which the text is embedded in the speech frame to the writer terminal 3 (S510). The control unit 31 of the writer terminal 3 displays the frame screen on the display unit 33 (S520).

作家端末3の操作者は、台詞枠埋め込み操作を再び行って、他のふきだし枠の配置位置とそのふきだし枠へ記述する台詞とを決定していく。ひとつのフレームに複数のふきだし枠を埋め込んでもよい。そしてこの作業が行われる毎にステップ410乃至ステップ520の処理が繰り返され、テキスト(台詞)を埋め込んだふきだし枠が新たに追加されたフレーム画面が作家端末3の表示部33に表示される。マンガ原稿を完成するために必要と考えるすべての台詞が表示されたことを確認した操作者は、同画面右側下段の「次の作業へ」を選択する。この操作により効果音文字挿入処理が開始される。   The operator of the writer terminal 3 performs the dialogue frame embedding operation again, and determines the placement position of another speech frame and the speech to be written in the speech frame. Multiple speech bubbles may be embedded in one frame. Each time this operation is performed, the processing from step 410 to step 520 is repeated, and a frame screen in which a speech frame in which text (line) is embedded is newly added is displayed on the display unit 33 of the writer terminal 3. The operator who has confirmed that all the dialogue that is considered necessary for completing the manga manuscript has been displayed, selects “next work” at the bottom right of the screen. The sound effect character insertion process is started by this operation.

<効果音文字挿入処理>
図18は効果音文字挿入処理を示すフローチャートである。
効果音文字挿入処理が開始されると、作家端末3の制御部31は、効果音文字選択リストを一部に含むフレーム画面を表示部33に表示する(S600)。図19に効果音文字選択リストを含んだフレーム画面を示す。この画面の右側中段には効果音文字選択リストKを表示している。この効果音文字選択リストKには、「わーい」、「キャハハ」、「しーん」、「ぷいっ」といった効果音文字が列記されている。また、同リストの右側にはスクロールバーが表示されている。更に、画面右側下段には、「終了」と表示したボタンがある。
<Sound effect character insertion processing>
FIG. 18 is a flowchart showing sound effect character insertion processing.
When the sound effect character insertion process is started, the control unit 31 of the writer terminal 3 displays a frame screen partially including the sound effect character selection list on the display unit 33 (S600). FIG. 19 shows a frame screen including a sound effect character selection list. A sound effect character selection list K is displayed in the middle of the right side of the screen. In the sound effect character selection list K, sound effect characters such as “Wai”, “Cajaha”, “Shin”, “Pui” are listed. A scroll bar is displayed on the right side of the list. Further, in the lower right part of the screen, there is a button displaying “END”.

この画面を参照した操作者は効果音文字埋め込み操作を行う。この操作の具体的手順を以下に説明する。操作者はまず効果音文字選択リストKの各効果音文字のうちのひとつへアイコンを移動し右クリックする。そして、右クリックした状態のままでフレーム内の任意の位置までカーソルを移動して右クリックを離す。
作家端末3の制御部31は、この効果音文字埋め込み操作の内容に応じた操作情報と選択された効果音文字の効果音文字識別子とをマンガ編集サーバ装置1へ送信する(S610)。
The operator who refers to this screen performs a sound effect character embedding operation. A specific procedure for this operation will be described below. The operator first moves the icon to one of the sound effect characters in the sound effect character selection list K and right-clicks. Then, the cursor is moved to an arbitrary position in the frame with the right-clicked state, and the right-click is released.
The control unit 31 of the writer terminal 3 transmits the operation information corresponding to the contents of the sound effect character embedding operation and the sound effect character identifier of the selected sound effect character to the manga editing server device 1 (S610).

操作情報を解析して効果音文字を埋め込むフレームのフレーム識別子を特定したマンガ編集サーバ装置1の制御部11は、このフレーム識別子と対応付けられたレコードをフレーム管理データベース16aから特定する(S620)。制御部11は、このレコードの「効果音文字」のフィールドへ、操作情報を解析して得た埋め込み位置の座標値と、受信した効果音文字識別子とのセットを格納する(S630)。
制御部11は、この効果音文字識別子と対応付けられた効果音文字画像を効果音文字データベース16cから読み出す(S640)。
The control unit 11 of the manga editing server apparatus 1 that has identified the frame identifier of the frame in which the sound effect character is embedded by analyzing the operation information specifies the record associated with this frame identifier from the frame management database 16a (S620). The control unit 11 stores the set of the coordinate value of the embedding position obtained by analyzing the operation information and the received sound effect character identifier in the “sound effect character” field of this record (S630).
The control unit 11 reads the sound effect character image associated with the sound effect character identifier from the sound effect character database 16c (S640).

制御部11は、読み出した効果音文字画像をフレーム画面に埋め込む(S650)。この処理を具体的に説明すると以下のようになる。まず、上記操作情報を解析して得た座標値により、効果音文字画像を埋め込むフレームとそのフレーム内の画像埋め込み位置とを特定する。そして、特定した埋め込み位置に効果音文字画像を上書きする。最後に、フレームからはみだした効果音文字画像の画素があればこれをカットする。
制御部11は、効果音文字画像を埋め込んだフレーム画面の表示データを作家端末3へ送信する(S660)。作家端末3の制御部31は、フレーム画面を表示部33に表示する(S670)。
The control unit 11 embeds the read sound effect character image in the frame screen (S650). This process will be specifically described as follows. First, the frame in which the sound effect character image is embedded and the image embedding position in the frame are specified based on the coordinate value obtained by analyzing the operation information. Then, the sound effect character image is overwritten at the specified embedding position. Finally, if there is a pixel of the sound effect character image that protrudes from the frame, it is cut.
The control unit 11 transmits display data of the frame screen in which the sound effect character image is embedded to the writer terminal 3 (S660). The control unit 31 of the writer terminal 3 displays the frame screen on the display unit 33 (S670).

作家端末3の操作者は、効果音文字埋め込み操作を再び行って、他の効果音文字画像を埋め込むフレームとその埋め込み位置とを決定していく。ひとつのフレームに複数の効果音文字画像を埋め込んでもよい。そしてこの作業が行われる毎にステップ610乃至ステップ670の処理が繰り返され、効果音文字が新たに埋め込まれたフレーム画面が作家端末3の表示部33に表示される。マンガ原稿を完成するために必要と考えるすべての効果音文字がフレーム画面に埋め込まれたことを確認した操作者は、「終了」を選択する。   The operator of the writer terminal 3 performs the sound effect character embedding operation again to determine a frame in which another sound effect character image is embedded and its embedding position. A plurality of sound effect character images may be embedded in one frame. Each time this operation is performed, the processing from step 610 to step 670 is repeated, and a frame screen in which sound effect characters are newly embedded is displayed on the display unit 33 of the writer terminal 3. The operator who has confirmed that all sound effect characters considered necessary for completing the manga manuscript are embedded in the frame screen, selects “END”.

「終了」が選択されると、作家端末3の制御部31は、ステップ660で送信されたフレーム画面の表示データを不揮発性記憶部36に保存した後に、マンガ編集サーバ装置1との接続を切断する。一方、マンガ編集サーバ装置1の制御部11は、その揮発性記憶部15に格納していたフレーム画面の表示データを消去する。   When “END” is selected, the control unit 31 of the writer terminal 3 stores the display data of the frame screen transmitted in step 660 in the nonvolatile storage unit 36 and then disconnects from the manga editing server device 1. To do. On the other hand, the control unit 11 of the manga editing server device 1 erases the display data of the frame screen stored in the volatile storage unit 15.

以上説明した本実施形態では、マンガ原稿の編集者は作家端末3によりマンガ編集サーバ装置1へアクセスし、フレームの大まかなレイアウトを決定して画像データを送信する。これによりその画像データが好適にレイアウトされたマンガ原稿を容易に生成することができる。
また、予めテンプレートとして用意されているふきだし枠のいずれかを選択してその配置位置を決定し、そのふきだし枠に記述されるべき台詞を入力すると、ふきだし枠と台詞とがセットで埋め込まれたマンガ原稿を生成することができる。
更に、予めテンプレートとして用意されている効果音文字を選択してその配置位置を決定すると、効果音文字が埋め込まれたマンガ原稿を生成することができる。
In the present embodiment described above, the manga manuscript editor accesses the manga editing server device 1 through the writer terminal 3, determines the rough layout of the frame, and transmits the image data. Thereby, it is possible to easily generate a manga document in which the image data is suitably laid out.
Also, if you select one of the balloon frames prepared as a template in advance, determine the position of the frame, and enter the dialogue that should be described in the balloon frame, then the comic frame with the balloon frame and dialogue embedded as a set A manuscript can be generated.
Furthermore, when a sound effect character prepared as a template is selected in advance and its position is determined, a manga manuscript in which the sound effect character is embedded can be generated.

(B:第2実施形態)
第1実施形態では、コマ画像はすべてフレーム内に埋め込まれ、コマ画像をフレームの外に表示させることはできなかった。これに対し本実施形態は、コマ画像をフレームの外にも表示できるような構成をとる。
本実施形態におけるマンガ編集サーバ装置1は、図2に示したところと同様に、制御部11、通信部12、表示部13、入力部14、揮発性記憶部15、及び不揮発性記憶部16、及びこれら各部を接続するバスを備えている。但し、その不揮発性記憶部16は、フレーム管理データベース16aと、効果音文字データベース16cと、ふきだし枠データベース16bのほかに、図示しない上書き画像データベースを格納している。そして本実施形態においては、マンガ原稿を2つのレイヤに分けて描画するようになっており、下位レイヤに描画されるべきコマ画像データをフレーム管理データベース16aに格納する一方、上位レイヤに描画されるべきコマ画像データを上書き画像データベースへ格納する。
この上書き画像データベースは、「コマ画像データ」と「位置」の各フィールドを有している。図3に示したフレーム管理データベース16aと異なり、「フレーム」や「フレーム外延情報」といったフィールドは有していない。
(B: Second embodiment)
In the first embodiment, all the frame images are embedded in the frame, and the frame image cannot be displayed outside the frame. On the other hand, the present embodiment is configured such that a frame image can be displayed outside the frame.
The manga editing server device 1 in the present embodiment is similar to that shown in FIG. 2 in that the control unit 11, the communication unit 12, the display unit 13, the input unit 14, the volatile storage unit 15, and the nonvolatile storage unit 16, And a bus for connecting these components. However, the nonvolatile storage unit 16 stores an overwritten image database (not shown) in addition to the frame management database 16a, the sound effect character database 16c, and the speech bubble database 16b. In this embodiment, the manga document is drawn in two layers. The frame image data to be drawn in the lower layer is stored in the frame management database 16a, and is drawn in the upper layer. The frame image data to be stored is stored in the overwrite image database.
The overwrite image database has fields of “frame image data” and “position”. Unlike the frame management database 16a shown in FIG. 3, fields such as “frame” and “frame extension information” are not provided.

本実施形態の動作の概要を示せば以下のようになる。まず作家端末3の操作者が上述のコマ画像埋め込み操作を行うと、図9に示したフレーム画面のメッセージ欄Mに、「このコマ画像はフレームに上書きしますか。」といったメッセージが表示され、更に「はい」及び「いいえ」の各ボタンが表示される。ここで「はい」が選択されると、作家端末3の制御部31は、コマ画像データと、コマ画像の配置位置を示す座標値と、画像が上書きされるべきことを示す上書き識別子とをマンガ編集サーバ装置1へ送信する。これらのデータを受信したマンガ編集サーバ装置1の制御部11は、コマ画像データと座標値のセットを上書き画像データベースへ格納する。   An outline of the operation of the present embodiment is as follows. First, when the operator of the writer terminal 3 performs the above-described frame image embedding operation, a message such as “Do you want to overwrite this frame image on the frame?” Is displayed in the message field M of the frame screen shown in FIG. Furthermore, “Yes” and “No” buttons are displayed. When “Yes” is selected here, the control unit 31 of the writer terminal 3 displays the frame image data, the coordinate value indicating the arrangement position of the frame image, and the overwrite identifier indicating that the image should be overwritten. Transmit to the editing server device 1. The control unit 11 of the manga editing server apparatus 1 that has received these data stores the set of frame image data and coordinate values in the overwrite image database.

そして、マンガ編集サーバ装置1は、フレームにコマ画像を埋め込んだフレーム画面を生成すると(図8に示したステップ290)、今度は上書き画像データベースからコマ画像と座標値のセットを読み出し、この座標値によって特定される位置へ当該コマ画像を上書きする。
本実施形態によれば、マンガ原稿内の各フレームの大きさとは無関係にコマ画像を配置することができるので、図20に示すような構図のマンガ原稿を生成するとこもできる。
Then, when the manga editing server device 1 generates a frame screen in which the frame image is embedded in the frame (step 290 shown in FIG. 8), this time, a set of the frame image and the coordinate value is read from the overwrite image database, and this coordinate value is read out. The frame image is overwritten at the position specified by.
According to the present embodiment, since frame images can be arranged regardless of the size of each frame in the manga original, it is possible to generate a manga original having a composition as shown in FIG.

(C:変形例)
以上、本発明の実施形態について説明したが、本発明はかかる実施形態に限定されるものではなく、その技術思想の範囲内で様々な変形が可能である。なお、変形例としては、例えば、以下のようなものが考えられる。
(C: Modification)
Although the embodiments of the present invention have been described above, the present invention is not limited to such embodiments, and various modifications can be made within the scope of the technical idea. In addition, as a modification, the following can be considered, for example.

(1:変形例1)
第1実施形態のマンガ編集サーバ装置1の不揮発性記憶部16にはフレーム管理データベース16aを格納し、その「フレーム外延情報」のフィールドに格納された第1乃至第4制御点に基づいてフレームが描画されることになっていた。つまり、描画できるフレームは長方形や台形といった4角形の形状に限られていた。
(1: Modification 1)
The non-volatile storage unit 16 of the manga editing server device 1 according to the first embodiment stores the frame management database 16a, and frames are generated based on the first to fourth control points stored in the “frame extension information” field. It was to be drawn. That is, the frame that can be drawn is limited to a rectangular shape such as a rectangle or a trapezoid.

これに対して、上述したフレーム修正操作の一つとして、フレームの5角形化を行えるようにしてもよい。この5角形化操作の手順は、図21に示すようなものが想定できる。操作者は、図9に示したフレーム画面に描画されているデフォルトフレームのうちから5角形化するフレームを選び、端点を除いた線分上の任意の位置へカーソルを移動して左クリックする。そして、左クリックした状態のままでカーソルをその上又は下の任意の位置まで移動して左クリックを離す。これにより、左クリックを離した位置を新たな頂点とする5角形のフレームへと修正することができる。   On the other hand, as one of the frame correction operations described above, a pentagonal frame may be made. The procedure of this pentagonalization operation can be assumed as shown in FIG. The operator selects a frame to be pentagonalized from the default frames drawn on the frame screen shown in FIG. 9, moves the cursor to an arbitrary position on the line segment excluding the end points, and left-clicks. Then, the cursor is moved to an arbitrary position above or below with the left click state, and the left click is released. Thereby, it can correct to the pentagonal frame which makes the position which left click left the new vertex.

5角形フレームの描画は、フレーム管理データベース16aの「フレーム外延情報」のフィールドに第5制御点の座標値を格納できるようにすることで実現できる。例えば、図21に示した5角形化操作はフレームの第1線分を新たな2つの線分に置き換えることによりその形状を5角形とするものであるが、このような操作が行われると、マンガ編集サーバ装置1の制御部11は、左クリックが離された位置の座標値を「フレーム外延情報」のフィールドの第2制御点と関連付けて格納し、同フィールドにそれまで格納されていた第2乃至第4制御点の座標値をそれぞれ一つずつ繰り下げた制御点と関連付けるといった処理を実行することになる。
同じように、「フレーム外延情報」のフィールドに第6制御点や第7制御点の座標値を格納できるようにすれば、フレームの6角形化操作や7角形化操作にも対応することができる。
Drawing of a pentagonal frame can be realized by making it possible to store the coordinate value of the fifth control point in the “frame extension information” field of the frame management database 16a. For example, the pentagonalization operation shown in FIG. 21 is to make the shape a pentagon by replacing the first line segment of the frame with two new line segments. When such an operation is performed, The control unit 11 of the manga editing server apparatus 1 stores the coordinate value of the position where the left click is released in association with the second control point of the field of “frame extension information”, and stores the second value stored in the field until then. A process of associating the coordinate values of the second to fourth control points with the control points lowered one by one is executed.
Similarly, if the coordinate values of the sixth control point and the seventh control point can be stored in the “frame extension information” field, it is possible to cope with the hexagonal operation and the heptagonal operation of the frame. .

(2:変形例2)
上記実施形態は、コマ画像を埋め込むフレームのレイアウトを修正できるものではあったが、フレームに埋め込まれるコマ画像データ自体に修正を施すことはできなかった。これに対し、コマ画像をフレームに埋め込んだ後、埋め込まれたコマ画像へ修正を施すことができるようにしてもよい。例えば、コマ画像が埋め込まれた後に、このコマ画像の各画素の濃淡を設定できるようにしてもよい。
(2: Modification 2)
In the above embodiment, the layout of the frame in which the frame image is embedded can be corrected, but the frame image data itself embedded in the frame cannot be corrected. On the other hand, after the frame image is embedded in the frame, the embedded frame image may be corrected. For example, after the frame image is embedded, the density of each pixel of the frame image may be set.

(3:変形例3)
上記実施形態においては、マンガ原稿内に記述できるテキストはふきだし枠内の台詞のみであったが、ふきだし枠の外やフレームの外にもテキストを配置できるようにしてもよい。これにより、登場人物の台詞だけでなくそのシーンの背景を説明するナレーションをも埋め込んだマンガ原稿を生成できる。
(3: Modification 3)
In the above embodiment, the text that can be described in the manga manuscript is only the dialogue in the speech frame, but the text may be arranged outside the speech frame or outside the frame. This makes it possible to generate a manga manuscript that embeds not only the dialogue of the characters but also the narration explaining the background of the scene.

(4:変形例4)
上述の実施形態に示したマンガ編集サーバ装置1と同様の動作を、一般的なコンピュータ装置に実行させるようにしてもよい。このような変形例は、マンガ編集サーバ装置1と同様の動作を実行させるためのマンガ編集プログラムをCD−ROM(compact disk-read only memory)などの記憶媒体へを記憶させておき、このような記憶媒体から一般的なコンピュータ装置に当該プログラムを読み取らせ、係るコンピュータ装置にマンガ編集サーバ装置1と同様の機能を付与することで実現できる。また、この種のプログラムを提供するサーバ装置をネットワーク上に設け、各コンピュータ装置の要求に応じてこのプログラムが配信されるようにしてもよい。
(4: Modification 4)
You may make it make a general computer apparatus perform the operation | movement similar to the manga editing server apparatus 1 shown in the above-mentioned embodiment. In such a modification, a manga editing program for executing the same operation as that of the manga editing server device 1 is stored in a storage medium such as a CD-ROM (compact disk-read only memory). This can be realized by causing a general computer device to read the program from the storage medium and giving the computer device the same function as the manga editing server device 1. Further, a server device that provides this type of program may be provided on a network, and this program may be distributed in response to a request from each computer device.

マンガ編集システムの全体構成図である。It is a whole block diagram of a manga editing system. マンガ編集サーバ装置のハードウェア構成図である。It is a hardware block diagram of a manga editing server apparatus. フレーム管理データベースのデータ構造図である。It is a data structure figure of a frame management database. デフォルトフレームの配置を示すイメージ図である。It is an image figure which shows arrangement | positioning of a default frame. ふきだし枠のバリエーションを示す図である。It is a figure which shows the variation of a balloon frame. 作家端末のハードウェア構成図である。It is a hardware block diagram of a writer terminal. コマ画像配置処理を示すフローチャートである(前半部分)。It is a flowchart which shows a frame image arrangement | positioning process (first half part). コマ画像配置処理を示すフローチャートである(後半部分)。It is a flowchart which shows a frame image arrangement | positioning process (second half part). デフォルトフレームを表示したフレーム画面である。It is a frame screen displaying a default frame. 削除操作時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of deletion operation. 拡大及び縮小操作時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of expansion and reduction operation. 制御点の修正処理を説明するためのイメージ図である。It is an image figure for demonstrating the correction process of a control point. 台形化操作時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of trapezoid operation. 制御点の修正処理を説明するためのイメージ図である。It is an image figure for demonstrating the correction process of a control point. 制御点の修正処理を説明するためのイメージ図である。It is an image figure for demonstrating the correction process of a control point. 台詞挿入処理を示すフローチャートである。It is a flowchart which shows a line insertion process. ふきだし枠選択欄を含んだフレーム画面である。This is a frame screen including a balloon frame selection field. 効果音文字挿入処理を示すフローチャートである。It is a flowchart which shows a sound effect character insertion process. 効果音文字選択リストを含んだフレーム画面であるIt is a frame screen that includes a sound effect character selection list マンガ原稿を示す図である。It is a figure which shows a manga manuscript. 5角形化操作の手順を示す図である。It is a figure which shows the procedure of pentagonalization operation.

符号の説明Explanation of symbols

1:マンガ編集サーバ装置、3:作家端末,31:制御部、12,32:通信部、13,33:表示部、14,34:入力部、15,35:揮発性記憶部、16,36:不揮発性記憶部、16a:フレーム管理データベース、16b:ふきだし枠データベース、16c:効果音文字データベース 1: Manga editing server device, 3: writer terminal, 31: control unit, 12, 32: communication unit, 13, 33: display unit, 14, 34: input unit, 15, 35: volatile storage unit, 16, 36 : Non-volatile storage unit, 16a: frame management database, 16b: speech bubble database, 16c: sound effect character database

Claims (7)

1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて格納する記憶手段と、
フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信手段と、
前記受信手段によって受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正手段と、
前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正手段と、
前記第1の修正手段が修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込手段と、
を備えるマンガ編集装置。
Storage means for storing, for each of one or more frames, frame extension information indicating the extension of the frame in association with a frame identifier that uniquely identifies the frame;
Receiving means for receiving a frame identifier and a frame image embedded in the frame;
The frame extension information of the image embedded frame associated with the frame identifier received by the receiving unit is read from the storage unit, and the frame extension information of the image embedded frame is corrected to match the frame extension with the frame image extension. First correcting means to be applied to,
Second correction means for reading out frame extension information of a neighboring frame adjacent to the image-embedded frame from the storage means, and performing correction for keeping the frame extension interval on the frame extension information of the neighboring frame;
An embedding means for drawing a frame based on the frame extension information corrected by the first correction means, and for embedding the received frame image in the drawn frame;
Manga editing device equipped with.
請求項1記載のマンガ編集装置において、
前記受信手段は、
任意のフレームのフレーム識別子とフレームの修正指示とを受信し、
前記第1の修正手段は、
当該フレーム識別子と対応付けられたフレーム外延情報を前記記憶手段から読み出し、
当該フレーム外延情報に対し前記受信した修正指示に応じた修正を施す、
マンガ編集装置。
The manga editing device according to claim 1,
The receiving means includes
Receives the frame identifier of an arbitrary frame and the frame correction instruction,
The first correction means includes
Read frame extension information associated with the frame identifier from the storage means,
The frame extension information is corrected according to the received correction instruction.
Manga editing device.
請求項1記載のマンガ編集装置において、
前記記憶手段は、
フレームに埋め込まれる効果音文字画像を、効果音文字を一意に識別する効果音文字識別子と関連付けて格納し、
前記受信手段は、
前記フレーム識別子と共に効果音文字識別子を受信し、
前記埋め込み手段は、
当該受信した効果音文字識別子と対応付けられた効果音文字画像を前記記憶手段から読み出すと共に、当該読み出した効果音文字画像を前記描画したフレームへ埋め込む、
マンガ編集装置。
The manga editing device according to claim 1,
The storage means
The sound effect character image embedded in the frame is stored in association with a sound effect character identifier that uniquely identifies the sound effect character,
The receiving means includes
Receiving a sound effect character identifier together with the frame identifier;
The embedding means is
Reading out the sound effect character image associated with the received sound effect character identifier from the storage unit and embedding the read sound effect character image in the drawn frame;
Manga editing device.
請求項1記載のマンガ編集装置において、
前記記憶手段は、
フレームに埋め込まれるふきだし枠画像を、ふきだし枠を一意に識別するふきだし枠識別子と関連付けて格納し、
前記受信手段は、
前記フレーム識別子と共にふきだし枠識別子を受信し、
前記埋め込み手段は、
当該受信したふきだし枠識別子と対応付けられたふきだし枠画像を前記記憶手段から読み出すと共に、当該読み出したふきだし枠画像を前記描画したフレームへ埋め込む、
マンガ編集装置。
The manga editing device according to claim 1,
The storage means
The speech bubble image embedded in the frame is stored in association with the speech bubble identifier that uniquely identifies the speech bubble frame,
The receiving means includes
Receiving a speech bubble identifier together with the frame identifier;
The embedding means is
Reading the balloon frame image associated with the received balloon frame identifier from the storage unit and embedding the read balloon frame image in the drawn frame;
Manga editing device.
請求項4記載のマンガ編集装置において、
ふきだし枠に記述する台詞を取得する取得手段を更に備え、
前記埋め込み手段は、
前記取得手段が取得した台詞を前記フレームに埋め込んだふきだし枠の内部へ記述する、
マンガ編集装置。
The manga editing apparatus according to claim 4,
It further comprises an acquisition means for acquiring the dialogue described in the speech frame,
The embedding means is
Describe the speech acquired by the acquisition means in a speech bubble embedded in the frame;
Manga editing device.
コンピュータ装置に、
1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶処理と、
フレーム識別子とフレームに埋め込まれるコマ画像とを受信する受信処理と、
前記受信されたフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正処理と、
前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正処理と、
前記第1の修正処理によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込処理と、
を実行させるマンガ編集プログラム。
Computer equipment,
A storage process for storing, in each of the one or more frames, frame extension information indicating the extension of the frame in its own storage unit in association with a frame identifier that uniquely identifies the frame;
A reception process for receiving a frame identifier and a frame image embedded in the frame;
The frame extension information of the image embedded frame associated with the received frame identifier is read from the storage means, and the frame extension information of the image embedded frame is corrected so as to match the frame extension with the frame image extension. 1 correction process,
A second correction process for reading out the frame extension information of the adjacent frame adjacent to the image-embedded frame from the storage unit and performing correction for maintaining the frame extension interval on the frame extension information of the adjacent frame;
An embedding process for rendering a frame based on the frame extension information modified by the first modification process and embedding the received frame image in the rendered frame;
Manga editing program to execute.
マンガ編集装置が、1または複数のフレームの各々について、当該フレームの外延を示すフレーム外延情報を、当該フレームを一意に識別するフレーム識別子と関連付けて自らの記憶手段へ格納する記憶過程と、
作家端末が、フレーム識別子とフレームに埋め込まれるコマ画像とを前記マンガ編集装置へ送信する送信過程と、
前記マンガ編集装置が、前記作家端末から受信したフレーム識別子と対応付けられた画像埋め込みフレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延を前記コマ画像の外延と一致させる修正を当該画像埋め込みフレームのフレーム外延情報へ施す第1の修正過程と、
前記マンガ編集装置が、前記画蔵埋め込みフレームと近接する近接フレームのフレーム外延情報を前記記憶手段から読み出し、フレームの外延の間隔を保つ修正を当該近接フレームのフレーム外延情報へ施す第2の修正過程と、
前記マンガ編集装置が、前記第1の修正過程によって修正したフレーム外延情報に基づいてフレームを描画すると共に、当該描画したフレームへ前記受信したコマ画像を埋め込む埋込過程と、
を有するマンガ編集方法。
A storage process in which the manga editing device stores, for each of one or a plurality of frames, frame extension information indicating the extension of the frame in its storage means in association with a frame identifier that uniquely identifies the frame;
A transmission process in which the writer terminal transmits a frame identifier and a frame image embedded in the frame to the manga editing device;
The manga editing apparatus reads out frame extension information of an image embedded frame associated with a frame identifier received from the writer terminal from the storage unit, and corrects the image extension to match the extension of the frame image. A first correction process applied to the frame extension information of the frame;
A second correction process in which the manga editing apparatus reads out frame extension information of a neighboring frame adjacent to the image-embedded frame from the storage means, and performs correction to maintain the frame extension interval on the frame extension information of the neighboring frame When,
The manga editing apparatus draws a frame based on the frame extension information corrected by the first correction process, and embeds the embedded frame image in the drawn frame.
Manga editing method having
JP2003274275A 2003-07-14 2003-07-14 Manga editing device, manga editing program, manga editing method Withdrawn JP2005038164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003274275A JP2005038164A (en) 2003-07-14 2003-07-14 Manga editing device, manga editing program, manga editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003274275A JP2005038164A (en) 2003-07-14 2003-07-14 Manga editing device, manga editing program, manga editing method

Publications (1)

Publication Number Publication Date
JP2005038164A true JP2005038164A (en) 2005-02-10

Family

ID=34211283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003274275A Withdrawn JP2005038164A (en) 2003-07-14 2003-07-14 Manga editing device, manga editing program, manga editing method

Country Status (1)

Country Link
JP (1) JP2005038164A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8429523B2 (en) 2009-12-07 2013-04-23 Sony Corporation Comic creation apparatus, comic creation method, and comic creation program
KR20170055906A (en) 2015-11-12 2017-05-22 엔에이치엔엔터테인먼트 주식회사 A data prcessing device, data processing method and computer readable storage medium
KR20220081164A (en) * 2020-12-08 2022-06-15 네이버웹툰 유한회사 Method and device for rearranging webtoon content
US12511805B2 (en) 2020-12-08 2025-12-30 Naver Webtoon Ltd. Method for rearranging webcomic content and device therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8429523B2 (en) 2009-12-07 2013-04-23 Sony Corporation Comic creation apparatus, comic creation method, and comic creation program
KR20170055906A (en) 2015-11-12 2017-05-22 엔에이치엔엔터테인먼트 주식회사 A data prcessing device, data processing method and computer readable storage medium
US10275125B2 (en) 2015-11-12 2019-04-30 NHN Comico Corporation Image data generation apparatus and non-transitory computer-readable recording medium
KR20220081164A (en) * 2020-12-08 2022-06-15 네이버웹툰 유한회사 Method and device for rearranging webtoon content
WO2022124736A1 (en) * 2020-12-08 2022-06-16 네이버웹툰 유한회사 Method for rearranging webcomic content and device therefor
KR102527899B1 (en) * 2020-12-08 2023-05-02 네이버웹툰 유한회사 Method and device for rearranging webtoon content
US12511805B2 (en) 2020-12-08 2025-12-30 Naver Webtoon Ltd. Method for rearranging webcomic content and device therefor

Similar Documents

Publication Publication Date Title
US20100077379A1 (en) Image processing apparatus, image processing method, and recording medium
JPH11282829A (en) Font sharing system and method, and storage medium storing program to execute the sharing method
JP2010061311A (en) Information processor and computer program
JP4807999B2 (en) Image display apparatus, image display method, image forming apparatus, image forming method, and program causing computer to execute these methods
JP4574467B2 (en) Data processing apparatus, data processing method, and computer program
JPH0221024B2 (en)
JP2018019300A (en) Image forming apparatus, document digitizing program, and document digitizing method
JP5164426B2 (en) Display control apparatus and display control method
JP2005038164A (en) Manga editing device, manga editing program, manga editing method
JP6851853B2 (en) Expansion of redacting function
JP2018019299A (en) Image forming apparatus, document digitizing program, and document digitizing method
JP2006048465A (en) Content generation system, program, and recording medium
JP3890096B2 (en) Image editing system
JPH08235344A (en) Scenario editor
JP2010108296A (en) Information processor and information processing method
JP4838655B2 (en) Document creation support apparatus and document creation support method
JP4365965B2 (en) Information processing apparatus, information processing method, and storage medium
JPH06103018A (en) Display method
JP4911585B2 (en) Image processing apparatus, image processing method, program, and information recording medium
JP2006072877A (en) Document editing apparatus, document editing method, document editing program and recording medium therefor
JP2013088777A (en) Viewer device, server device, display control method, electronic comic editing method and program
JPH0594511A (en) Image processing device
JP2005196481A (en) Image forming apparatus, image forming method, and program
JP5292662B2 (en) Document display device, document display device control method, and program
JP4515108B2 (en) Plotter

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061003