[go: up one dir, main page]

WO2025170203A1 - Server and method for managing memory pool, and non-transitory computer-readable recoding medium - Google Patents

Server and method for managing memory pool, and non-transitory computer-readable recoding medium

Info

Publication number
WO2025170203A1
WO2025170203A1 PCT/KR2024/097073 KR2024097073W WO2025170203A1 WO 2025170203 A1 WO2025170203 A1 WO 2025170203A1 KR 2024097073 W KR2024097073 W KR 2024097073W WO 2025170203 A1 WO2025170203 A1 WO 2025170203A1
Authority
WO
WIPO (PCT)
Prior art keywords
memory
server
blocks
data
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/097073
Other languages
French (fr)
Korean (ko)
Inventor
최세종
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020240048791A external-priority patent/KR20250122359A/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2025170203A1 publication Critical patent/WO2025170203A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/13Linear codes
    • H03M13/15Cyclic codes, i.e. cyclic shifts of codewords produce other codewords, e.g. codes defined by a generator polynomial, Bose-Chaudhuri-Hocquenghem [BCH] codes

Definitions

  • the following descriptions relate to a server, a method, and a non-transitory computer-readable recording medium for managing a memory pool.
  • the server may store the original and copies of the data in different storages to protect and recover the user's data, and may limit traffic or service requests to provide stable service.
  • the size of each of the first memory blocks can correspond to the size of each of the n data blocks and k parity blocks.
  • Each of the data blocks can have the same size as each of the parity blocks.
  • the method can include an operation of processing the data based on the allocation of the first memory blocks to process the user request.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to allocate first memory blocks of the first memory pool to process the user request based on all first system tasks waiting in a first system task queue for the first memory pool being processed.
  • a size of each of the first memory blocks may correspond to a size of each of the n data blocks and k parity blocks.
  • Each of the data blocks may have the same size as each of the parity blocks.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to process the data based on the allocation of the first memory blocks to process the user request.
  • the server may include communication circuitry, at least one processor including processing circuitry, and at least one memory, which may be external to the at least one processor and the communication circuitry and which temporarily stores instructions while being used by the at least one processor.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to receive user data from an electronic device via the communication circuitry.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to allocate a plurality of memory blocks of the at least one memory for encoding the user data.
  • the plurality of memory blocks may have a predefined and identical fixed size prior to receiving the user data.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to: divide the user data into data blocks, each of the data blocks having the fixed size, as the server encodes the user data.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to generate parity blocks for repairing at least one erroneous block among the data blocks. Each of the parity blocks may have the fixed size.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to store the data blocks and the parity blocks in the plurality of memory blocks allocated for encoding the user data.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to transmit the data blocks and the parity blocks to storage devices via the communication circuitry, such that they are distributed among the storage devices.
  • the server may include communication circuitry, at least one processor including processing circuitry, and at least one memory, which is external to the at least one processor and the communication circuitry and temporarily stores instructions while being used by the at least one processor.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to receive a request related to user data from an electronic device via the communication circuitry.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to identify the user data encoded into data blocks and parity blocks.
  • the data blocks may be divided by the server from the user data.
  • the parity blocks may be generated by the server to repair at least one error block of the data block.
  • the data blocks and the parity blocks may have the same fixed size.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to allocate a plurality of memory blocks of the at least one memory for decoding the data blocks and the parity blocks.
  • the plurality of memory blocks may have the fixed size predefined before receiving the request.
  • the instructions, when individually or collectively executed by the at least one processor may cause the server to store the generated user data in the plurality of memory blocks.
  • the instructions when individually or collectively executed by the at least one processor, may cause the server to transmit the generated user data stored in the plurality of memory blocks to the electronic device via the communication circuit.
  • FIG. 1 is a block diagram of a server according to one embodiment.
  • FIG. 2a illustrates an example of queues for a memory pool, according to one embodiment.
  • FIG. 2b is a block diagram of queues for a memory pool, according to one embodiment.
  • FIG. 3A illustrates an example of an operation of a server encoding data, according to one embodiment.
  • Figure 4 is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG. 5A is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG. 5b is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG. 6A is a flowchart illustrating the operation of a server according to one embodiment.
  • Figure 6b is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG. 7a is a flowchart illustrating the operation of a server according to one embodiment.
  • Figure 7b is a flowchart illustrating the operation of a server according to one embodiment.
  • Figure 8a is a flowchart illustrating the operation of a server according to one embodiment.
  • Figure 8b is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG. 9A is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG. 9b is a flowchart illustrating the operation of a server according to one embodiment.
  • Figure 10 is a block diagram of a server according to one embodiment.
  • FIG. 11 is a block diagram of an electronic device within a network environment according to various embodiments.
  • FIG. 1 is a block diagram of a server according to an embodiment.
  • FIG. 2a illustrates an example of queues for a memory pool according to an embodiment.
  • FIG. 2b is a block diagram of queues for a memory pool according to an embodiment.
  • the server (101) may include a memory (110), a processor (120), and a communication circuit (130).
  • the memory (110) may (at least temporarily) store instructions for executing operations of the server (101) exemplified in the descriptions of FIGS. 4 to 9B.
  • the instructions may be executed by the processor (120).
  • the instructions may be included in one or more programs stored in the memory (110).
  • the memory (110) may include at least a portion of the memory (1130) of FIG. 11 (or at least a portion of the non-volatile memory (1134)) or may correspond to at least a portion of the memory (1130) of FIG. 11 (or at least a portion of the non-volatile memory (1134)).
  • the memory (110) may include a main memory (e.g., random access memory (RAM)) within the server (101), a register for the processor (120), a cache for the processor (120), a register for the communication circuit (130), a buffer (or soft buffer) for the communication circuit (130), and/or an auxiliary memory (e.g., a hard disk drive (HDD), a solid state drive (SSD)) of the server (101).
  • a main memory e.g., random access memory (RAM)
  • the memory (110) may be implemented as a single chip or may be implemented as multiple chips.
  • the memory (110) may be implemented as a single integrated circuit or may be implemented as multiple integrated circuits.
  • the memory (110) may be distributedly arranged within the server (101).
  • the communication circuit (130) may be used to support wireless communication between the server (101) and another electronic device (e.g., the electronic device (103)).
  • the communication circuit (130) may include at least a portion of the communication module (1190) (or the wireless communication module (1192)) of FIG. 11, or may correspond to at least a portion of the communication module (1190) (or the wireless communication module (1192)) of FIG. 11.
  • the communication circuit (130) may include a communication circuit for a long-distance communication network.
  • the communication circuit (130) may be used to establish a communication link.
  • the communication circuit (130) may be implemented as a single chip or as multiple chips.
  • the communication circuit (130) may be implemented as a single integrated circuit or as multiple integrated circuits.
  • the communication circuit (130) may be distributed within the server (101).
  • the memory (110) may include a data scan module (141), a data heal module (143), a disk recovery module (145), a request processing module (147), a coding module (150), a memory pool management module (160), a memory pool (170), storage (180), and a metadata database (DB) (190).
  • a data scan module (141), a data heal module (143), a disk recovery module (145), a request processing module (147), a coding module (150), a memory pool management module (160), a memory pool (170), storage (180), and a metadata database (DB) (190).
  • DB metadata database
  • the data scan module (141), the data heal module (143), the disk recovery module (145), the request processing module (147), the coding module (150), and the memory pool management module (160) may include instructions for executing operations of the server (101) exemplified in the descriptions of FIGS. 4 to 9B.
  • the data scan module (141), the data heal module (143), the disk recovery module (145), the request processing module (147), the coding module (150), and the memory pool management module (160) may be executed by the processor (120).
  • the coding module (150) may include an encoder (151) and a decoder (155).
  • the encoder (151) and the decoder (155) may process data based on the same coding technique (e.g., erasure coding technique). For example, the sizes of the data may be different. For example, the sizes of data encoded at one time may be different. However, this is not a limitation.
  • the encoder (151) may encode data based on a designated code (e.g., RS (Reed-Solomon) code).
  • the encoder (151) may encode N data pieces (or data chunks) of the same size into N+K data pieces (or data chunks).
  • the K data pieces may be referred to as parity pieces.
  • the sizes of the data pieces may be the same.
  • the sizes of the data pieces may be 1 megabyte or more (e.g., between 1 and 5 megabytes).
  • N and K are natural numbers, and K may be less than or equal to N.
  • N may be 6, and K may be 3.
  • the present invention is not limited thereto.
  • the decoder (155) can decode data based on a specified code (e.g., an RS code). For example, the decoder (155) can decode N+K data fragments of the same size into N data fragments.
  • a specified code e.g., an RS code
  • the code for erasure coding is not limited to RS code.
  • the code for erasure coding may include a Hamming code, a Bose-Chaudhuri-Hocquenghem (BCH) code, or a low-density parity check (LDPC) code.
  • the code for erasure coding may be a code having the properties of a (linear) block code.
  • the present invention is not limited thereto.
  • the memory pool management module (160) can manage the memory pool (170).
  • the memory pool management module (160) can set the capacity of the memory pool (170) among the total capacity of the memory (110).
  • the memory pool management module (160) can set one or more pools (210, 230, 250) in the memory pool (170).
  • the memory pool (170) can correspond to the main memory (e.g., random access memory (RAM)) in the server (101).
  • the memory pool (170) can be located outside the processor (120) and the communication circuit (130) in the server (101).
  • the memory pool (170) can temporarily store instructions while being used.
  • the capacities excluding the capacity of the memory pool (170) from the total capacity of the main memory (e.g., RAM (random access memory)) within the server (101) may have blocks of variable sizes.
  • the capacities excluding the capacity of the memory pool (170) from the total capacity of the main memory (e.g., RAM (random access memory)) within the server (101) may be allocated for tasks other than user-requested tasks and system tasks (e.g., heal tasks, scan tasks, recovery tasks) (e.g., processes of other applications).
  • the capacity of the memory allocated for other tasks may be variably set for each process.
  • the memory pool management module (160) may set a scan memory pool (210) to which a memory area for processing a task of the data scan module (141) is allocated in the memory pool (170).
  • the memory pool management module (160) may set a scan memory pool (210) to which a memory area of a fixed size is allocated in the memory pool (170).
  • the memory pool management module (160) can set a recovery memory pool (230) to which a memory area for processing a task of the disk recovery module (145) is allocated in the memory pool (170).
  • the memory pool management module (160) can set a recovery module (145) to which a memory area of a fixed size is allocated in the memory pool (170).
  • the memory pool management module (160) can set a root memory pool (250) to which a memory area for processing the top-level system task (e.g., a task input to the root queue (251)) in the memory pool (170) is allocated.
  • the root memory pool (250) can be a memory pool to which a memory area for processing the task of the data hill module (143) is allocated in the memory pool (170).
  • the memory pool management module (160) can set a root memory pool (250) to which a memory area of a variable size is allocated in the memory pool (170).
  • the memory pool management module (160) can increase the size of the memory pool (170) (or the root memory pool (250)). For example, if the number of hill tasks is small (or less than a standard number), the memory pool management module (160) may reduce the size of the memory pool (170) (or the root memory pool (250)). However, this is not limited thereto.
  • the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may have the same size.
  • each of the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may have the same size as a data chunk (or a data fragment) (or a parity fragment).
  • each of the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may have the same predefined fixed size.
  • each of the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may be set when the server (101) boots.
  • the present invention is not limited thereto.
  • a scan queue (211) may be connected to a scan memory pool (210).
  • the connection of a scan queue (211) to a scan memory pool (210) may refer to that at least one queue of the scan queue (211) is processed using a memory area of the scan memory pool (210).
  • a task of a data scan module (141) may be input (or enqueued) (or pushed) to the scan queue (211).
  • tasks stored in the scan queue (211) may be output (or dequeued) (or popped) (or pulled) based on an input order (or a first in first out (FIFO) method).
  • a memory area of the scan memory pool (210) may be allocated for processing a task output from the scan queue (211). Based on the completion of processing of the task, the memory area of the scan memory pool (210) allocated for the task may be deallocated.
  • the scan memory pool (210) may not have any queues other than the scan queue (211) connected to it. In one embodiment, the scan memory pool (210) may not include any subqueues of the scan queue (211).
  • a recovery queue (231) may be connected to the recovery memory pool (230). In one embodiment, the connection of the recovery queue (231) to the recovery memory pool (230) may indicate that at least one queue of the recovery queue (231) is processed using the memory area of the recovery memory pool (230). In one embodiment, the recovery queue (231) may be input (or enqueued) (or pushed) by a task of the disk recovery module (145). In one embodiment, the tasks stored in the recovery queue (231) may be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out).
  • a memory area of the recovery memory pool (230) may be allocated for processing a task output from the recovery queue (231). Based on the completion of processing of the task, the memory area of the recovery memory pool (230) allocated for the task may be deallocated.
  • a queue other than the recovery queue (231) may be connected to the recovery memory pool (230).
  • the recovery memory pool (230) may include a subqueue of the recovery queue (231).
  • the recovery memory pool (230) may be connected to a request queue (240) as a subqueue of the recovery queue (231).
  • the connection of the request queue (240) as a subqueue to the recovery memory pool (230) may indicate that at least one queue of the request queue (240) is processed using the memory area of the recovery memory pool (230).
  • the request queue (240) may be a place where a task of the request processing module (147) may be input (or enqueued) (or pushed).
  • tasks stored in the request queue (240) may be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out). In one embodiment, tasks stored in the request queue (240) may be output (or dequeued) (or popped) (or pulled) when there are no tasks in the upper queue, the recovery queue (231). In one embodiment, a memory area of the recovery memory pool (230) may be allocated for processing tasks output from the request queue (240). Based on the completion of processing of a task, the memory area of the request queue (240) allocated for the task may be deallocated.
  • the request queue (240) may include a plurality of request queues (241, 243, 245).
  • tasks input to each of the plurality of request queues (241, 243, 245) may be output (or dequeued) (or popped) (or pulled) in a round-robin manner.
  • tasks may be output (or dequeued) (or popped) (or pulled) in the order of the request queue (241), the request queue (243), and the request queue (245).
  • a root queue (251) may be connected to the root memory pool (250) as a top-level queue.
  • a hill queue (261) may be connected to the root memory pool (250) as a second-level queue.
  • the connection of the root queue (251) and the hill queue (261) to the root memory pool (250) may indicate that at least one queue of the root queue (251) or the hill queue (261) is processed using a memory area of the root memory pool (250).
  • the hill queue (261) can be input (or enqueued) (or pushed) by tasks of the data hill module (143). In one embodiment, the tasks stored in the hill queue (261) can be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out).
  • a memory area of the root memory pool (250) may be allocated for processing a task output from the heal queue (261). Upon completion of processing of the task, the memory area of the root memory pool (250) allocated for the task may be deallocated.
  • the root memory pool (250) may be connected to a queue other than the root queue (251) and the hill queue (261).
  • the root memory pool (250) may include a subqueue of the hill queue (261).
  • the root memory pool (250) may be connected to a request queue (270) as a subqueue of the hill queue (261).
  • the connection of the request queue (270) as a subqueue to the root memory pool (250) may indicate that at least one queue of the request queue (270) is processed using the memory area of the root memory pool (250).
  • the request queue (270) may be a place where a task of the request processing module (147) may be input (or enqueued) (or pushed). In one embodiment, tasks stored in the request queue (270) may be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out). In one embodiment, tasks stored in the request queue (270) may be output (or dequeued) (or popped) (or pulled) when there are no tasks in the upper queue, the root memory pool (250). In one embodiment, a memory area of the root memory pool (250) may be allocated for processing tasks output from the request queue (270). Based on the completion of processing of a task, the memory area of the request queue (270) allocated for the task may be deallocated.
  • the request queue (270) may include a plurality of request queues (271, 273, 275).
  • tasks input to each of the plurality of request queues (271, 273, 275) may be output (or dequeued) (or popped) (or pulled) in a round-robin manner.
  • tasks may be output (or dequeued) (or popped) (or pulled) in the order of the request queue (271), the request queue (273), and the request queue (275).
  • the memory pool (170) may be memory allocated from the main memory (e.g., RAM, registers for the processor (120), cache for the processor (120)) (or volatile memory) of the server (101).
  • the storage (180) may be auxiliary memory (e.g., HDD, SSD) (or non-volatile memory) of the server (101).
  • the metadata DB (190) can store (or manage) the location and/or status of data chunks stored in the storage (180).
  • the data scan module (141) may operate in the background. In one embodiment, the data scan module (141) may be executed by the processor (120) regardless of a user request.
  • the data scan module (141) can identify a scan request. For example, the data scan module (141) can repeatedly identify a scan request. For example, the data scan module (141) can identify a scan event that occurs repeatedly to check the status of all data chunks (or data pieces) (or data blocks) stored in the storage (180). For example, the data scan module (141) can identify a scan event that occurs repeatedly to sequentially check all data chunks.
  • the repeated occurrence of a scan event can indicate that the scan event is repeated at a regular cycle. In one embodiment, the repeated occurrence of a scan event can indicate that the scan event is repeated irregularly.
  • the data scan module (141) may input (or enqueue) (or push) a scan request (or identification information of the scan request) (or a scan task) (or identification information of the scan task) into the scan queue (211) to process a scan task according to the scan request.
  • the data scan module (141) may input (or enqueue) (or push) a scan request including information on the number of memory blocks required to process the scan task into the scan queue (211).
  • the number of memory blocks required to process the scan task may be the number of data chunks that the data scan module (141) can process simultaneously.
  • the number of memory blocks required to process the scan task may be 1.
  • the present invention is not limited thereto.
  • the data scan module (141) can identify the processing order of scan requests added to the scan queue (211). In one embodiment, the data scan module (141) can identify the processing order of scan requests based on the input order (or first-in, first-out) of the scan requests. In one embodiment, the data scan module (141) can identify that memory blocks of the scan memory pool (210) for processing the scan request are allocated based on the input order (or first-in, first-out) of the scan requests. In one embodiment, the data scan module (141) can identify that memory blocks of the scan memory pool (210) are allocated in the number of memory blocks required. For example, the data scan module (141) can identify that memory blocks of the scan memory pool (210) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. However, the present invention is not limited thereto.
  • the data scan module (141) may process a scan request based on which memory blocks of the scan memory pool (210) are allocated for the scan request. For example, the data scan module (141) may load a data chunk stored in storage (180) into a memory block of the scan memory pool (210).
  • the data scan module (141) can check whether a data chunk stored in a memory block of the scan memory pool (210) is damaged (or hashed). For example, the data scan module (141) can check whether a data chunk is damaged (or hashed) based on a checksum (or hash value) of the data chunk.
  • the data scan module (141) may record information about a data chunk (or abnormal data chunk) that is identified as damaged (hereinafter, damaged data chunk) in the metadata DB (190) (or metadata of the metadata DB (190)). In one embodiment, the data scan module (141) may record a mark (or a symbol) indicating that the data chunk is damaged (hereinafter, damaged mark) in the metadata of the damaged data chunk.
  • the data scan module (141) may deallocate a memory block of the scan memory pool (210) allocated for a scan request based on completion of the verification of whether the data chunk is damaged (or has integrity). For example, the data scan module (141) may transmit a signal indicating completion of the verification of whether the data chunk is damaged (or has integrity) to the memory pool management module (160). In one embodiment, the memory pool management module (160) may deallocate a memory block of the scan memory pool (210) allocated for a scan request based on the signal. In one embodiment, the deallocated memory block may be reused to process another scan request of the data scan module (141). For example, the size of the memory block allocated to process another scan request of the data scan module (141) may be an integer multiple of the size of the memory block (or the size of the data block) (or the size of the data chunk).
  • the data scan module (141) may notify the data heal module (143) that a corrupt data chunk has been identified based on the identification of the corrupt data chunk.
  • the data hill module (143) may operate in the background. In one embodiment, the data hill module (143) may be executed by the processor (120) regardless of a user request.
  • the data heal module (143) can identify (or generate) a heal request. For example, the data heal module (143) can repeatedly identify whether a corrupted data chunk exists through the metadata DB (190). For example, the data heal module (143) can identify whether a corrupted data chunk exists based on a notification from the data scan module (141). For example, the data heal module (143) can identify (or generate) a heal event based on the presence of a corrupted data chunk.
  • the data hill module (143) may input (or enqueue) (or push) a hill request (or identification information of the hill request) (or a hill task) (or identification information of the hill task) into the hill queue (261) to process a hill task according to the hill request.
  • the data hill module (143) may input (or enqueue) (or push) a hill request including information on the number of memory blocks required to process the hill task into the hill queue (261).
  • the number of memory blocks required to process the hill task may be the number of data chunks required for encoding or decoding according to a specified coding technique.
  • the number of memory blocks required to process the hill task may be N+K.
  • the present invention is not limited thereto.
  • the data hill module (143) can identify the processing order of hill requests added to the hill queue (261). In one embodiment, the data hill module (143) can identify the processing order of hill requests based on the input order (or first-in, first-out) of hill requests. In one embodiment, the data hill module (143) can identify that memory blocks of the root memory pool (250) for processing hill requests are allocated based on the input order (or first-in, first-out) of hill requests. In one embodiment, the data hill module (143) can identify that memory blocks of the root memory pool (250) are allocated in the number of memory blocks required. For example, the data hill module (143) can identify that memory blocks of the root memory pool (250) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. However, the present invention is not limited thereto.
  • the data heal module (143) may process a heal request based on whether a memory block of the root memory pool (250) is allocated for the heal request. For example, the data heal module (143) may load a corrupted data chunk stored in storage (180) into a memory block of the root memory pool (250).
  • the data heal module (143) may load at least one data chunk (hereinafter, “associated data chunk”) associated with a corrupted data chunk into a memory block of the root memory pool (250) based on whether a memory block of the root memory pool (250) is allocated for a heal request.
  • the corrupted data chunk and the at least one associated data chunk may be data chunks generated by encoding data of a specified size according to a specified coding technique.
  • the number of corrupted data chunks and the at least one associated data chunk may be N+K.
  • each of the corrupted data chunk and the at least one associated data chunk may be either a data fragment or a parity fragment.
  • the data heal module (143) can repair the damaged data chunk based on loading the damaged data chunk and at least one associated data chunk (via the coding module (150)). For example, the data heal module (143) can decode the damaged data chunk and at least one associated data chunk into original data (via the coding module (150)). For example, the data heal module (143) can generate a repaired data chunk corresponding to the damaged data chunk by encoding the decoded original data (via the coding module (150)).
  • the data heal module (143) may store the recovered data chunk in storage (180).
  • the data heal module (143) may store the recovered data chunk in a memory block of the root memory pool (250) allocated for the heal request, and then transmit the recovered data chunk to be distributed to storage (180).
  • the data heal module (143) may deallocate a memory block of the root memory pool (250) allocated for a heal request based on the completion of recovery of a corrupted data chunk. For example, the data heal module (143) may transmit a signal indicating the completion of recovery of a data chunk to the memory pool management module (160). In one embodiment, the memory pool management module (160) may deallocate a memory block of the root memory pool (250) allocated for a heal request based on the signal. In one embodiment, the deallocated memory block may be reused to process another heal request of the data heal module (143) and/or another user request of the request processing module (147). For example, the size of a memory block allocated to process another heal request and/or another user request may be an integer multiple of the size of the memory block (or the size of the data block) (or the size of the data chunk).
  • the data heal module (143) may update the metadata database (190) (or metadata of the metadata database (190)) based on the completion of the recovery of the corrupted data chunk. For example, the data heal module (143) may update the metadata of the recovered corrupted data chunk based on the completion of the recovery of the corrupted data chunk. For example, the data heal module (143) may update the metadata to indicate that the data chunk is normal.
  • the server (101) may change the disk mode of the storage (180) scheduled for replacement to a read-only mode or an unavailable mode (or a maintenance mode). In one embodiment, the server (101) may not store data in the storage (180) scheduled for replacement based on a request to store data in the storage (180) scheduled for replacement. In one embodiment, the server (101) may record data information in metadata for the data requested to be stored in the storage (180) scheduled for replacement based on a request to store data in the storage (180) scheduled for replacement.
  • the server (101) may perform disk recovery on the storage (180) after the storage (180) has been physically replaced. In one embodiment, the server (101) may perform disk recovery after changing the disk mode of the physically replaced storage (180) to disk recovery mode. In one embodiment, a list of data to be recovered on the physically replaced storage (180) may be recorded in metadata.
  • the disk recovery module (145) can determine whether the storage (180) is replaced. In one embodiment, the disk recovery module (145) can identify that the storage (180) has been replaced based on obtaining a signal indicating that the storage (180) has been replaced. For example, the signal indicating that the storage (180) has been replaced may be a signal generated based on a user input (or an administrator input). For example, the signal indicating that the storage (180) has been replaced may be a signal generated by components of the server (101).
  • the disk recovery module (145) may identify (or generate) a recovery request. For example, the disk recovery module (145) may identify (or generate) a recovery request based on identifying a replacement of the storage (180). For example, the disk recovery module (145) may identify (or generate) a recovery request based on obtaining a signal indicating that the storage (180) is being replaced.
  • the disk recovery module (145) may input (or enqueue) (or push) a recovery request (or identification information of the recovery request) (or a recovery task) (or identification information of the recovery task) into the recovery queue (231) to process a recovery task according to the recovery request.
  • the disk recovery module (145) may input (or enqueue) (or push) a recovery request including information on the number of memory blocks required to process the recovery task into the recovery queue (231).
  • the number of memory blocks required to process the recovery task may be the number of data chunks required for encoding or decoding according to a specified coding technique.
  • the number of memory blocks required to process the recovery task may be N+K.
  • the present invention is not limited thereto.
  • the disk recovery module (145) can identify the processing order of recovery requests added to the recovery queue (231). In one embodiment, the disk recovery module (145) can identify the processing order of recovery requests based on the input order (or first-in, first-out) of the recovery requests. In one embodiment, the disk recovery module (145) can identify that a memory block of the recovery memory pool (230) for processing the recovery request is allocated based on the input order (or first-in, first-out) of the recovery requests. In one embodiment, the disk recovery module (145) can identify that as many memory blocks of the recovery memory pool (230) as the number of required memory blocks are allocated. For example, the disk recovery module (145) may identify that memory blocks of the recovery memory pool (230) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated, but is not limited thereto.
  • the disk recovery module (145) may process a recovery request based on which memory block of the recovery memory pool (230) is allocated for the recovery request. For example, the disk recovery module (145) may load a data chunk stored in another storage into a memory block of the recovery memory pool (230). For example, the disk recovery module (145) may load at least one data chunk (hereinafter, “associated data chunk”) associated with a data chunk stored in a storage prior to the replacement of the storage (180) (hereinafter, “failed data chunk”) from another storage into a memory block of the recovery memory pool (230).
  • the failed data chunk and the at least one associated data chunk may be N+K data chunks generated by encoding data of a specified size according to a specified coding technique.
  • the disk recovery module (145) can recover a failed data chunk based on the loading of at least one associated data chunk. For example, the disk recovery module (145) can decode at least one associated data chunk into original data. For example, the disk recovery module (145) can recover a failed data chunk by encoding the decoded original data.
  • the disk recovery module (145) may store the recovered fault data chunk in the replaced storage (180). For example, the disk recovery module (145) may store the recovered fault data chunk in a memory block of the recovery memory pool (230) allocated for the recovery request, and then transmit the recovered fault data chunk to be distributed to the storage (180).
  • the request processing module (147) may operate in the foreground. In one embodiment, the request processing module (147) may be executed by the processor (120) to process a user request.
  • the request processing module (147) may identify a user request.
  • the request processing module (147) may identify a user request received from the electronic device (103) via the communication circuit (130).
  • the user request may include storing data and/or reading data.
  • storing data may include storing multimedia content (e.g., images, videos).
  • reading data may include streaming multimedia content.
  • the present invention is not limited thereto.
  • the request processing module (147) may input (or enqueue) (or push) a user request (or identification information of the user request) (or a task) (or identification information of the task) into the request queue (240, 270) to process a task according to a user request.
  • the request processing module (147) may input (or enqueue) (or push) a user request including information on the number of memory blocks required to process the task into the request queue (240, 270).
  • the number of memory blocks required to process the task according to the user request may be the number of data chunks required for encoding or decoding according to a specified coding technique.
  • the number of memory blocks required to process the task according to the user request may be N+K.
  • the present invention is not limited thereto.
  • the request processing module (147) may input a user request into one of the request queues (240, 270). For example, the request processing module (147) may identify a request queue into which the user request is to be input based on the number of requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)) of each of the request queues (240, 270). For example, the request processing module (147) may identify a request queue into which the user request is to be input based on the number of requests added to each of the request queues (240, 270). For example, the request processing module (147) may identify a request queue into which the user request is to be input based on an expected waiting time of each of the request queues (240, 270).
  • a higher queue e.g., recovery queue (231) or heal queue (261)
  • the request processing module (147) may identify the request queue with the shortest expected waiting time among the request queues (240, 270) as the request queue into which the user request will be input.
  • the expected waiting time may be a value obtained by multiplying the number of requests to be processed first by the expected processing time of each request.
  • the requests to be processed first may include requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)).
  • the requests to be processed first may include requests added first to each of the request queues (240, 270).
  • the request processing module (147) may identify a request queue into which a user request is to be input based on a processing order (e.g., a round-robin order) among the plurality of request queues (241, 243, 245) (having the same priority).
  • a processing order e.g., a round-robin order
  • the request processing module (147) may identify a request queue into which a user request is to be input based on a processing order (e.g., a round-robin order) among the plurality of request queues (271, 273, 275).
  • a processing order e.g., a round-robin order
  • the present invention is not limited thereto.
  • a user request of the electronic device (103) may be input to a request queue selected from among a plurality of request queues (241, 243, 245) and a pair of request queues (e.g., 241 and 271, 243 and 273, or 245 and 275) from among a plurality of request queues (271, 273, 275).
  • a first request queue pair may include request queues (241 and 271) assigned to a first type of electronic devices.
  • a second request queue pair may include request queues (243 and 273) assigned to a second type of electronic devices.
  • a third request queue pair may include request queues (245 and 275) assigned to a third type of electronic devices.
  • Types may be distinguished by, but are not limited to, regional distinctions, and/or user account tiers (e.g., fee plans).
  • the request processing module (147) can identify the processing order of user requests added to the request queue (240, 270). In one embodiment, the request processing module (147) can identify the processing order of user requests based on the input order (or first-in, first-out) of the user requests.
  • the request processing module (147) can identify that a memory block of the recovery memory pool (230) for processing a user request is allocated based on the input order (or first-in, first-out) of the user requests added to the request queue (240). In one embodiment, the request processing module (147) can identify that a memory block of the recovery memory pool (230) for processing a user request is allocated after all recovery requests of the recovery queue (231) are processed. In one embodiment, the request processing module (147) can identify that as many memory blocks of the recovery memory pool (230) as the number of required memory blocks are allocated.
  • the request processing module (147) may identify that memory blocks of one of the recovery memory pool (230) or the root memory pool (250) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. For example, the request processing module (147) may identify that memory blocks of a memory pool associated with a queue to which a user request has been added are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated.
  • the present invention is not limited thereto.
  • the request processing module (147) may identify that a memory block of the root memory pool (250) for processing a user request is allocated based on the input order (or first-in, first-out) of the user requests added to the request queue (270). In one embodiment, the request processing module (147) may identify that a memory block of the root memory pool (250) for processing a user request is allocated after all recovery requests of the heal queue (261) are processed. In one embodiment, the request processing module (147) may identify that as many memory blocks of the root memory pool (250) as the number of required memory blocks are allocated.
  • the request processing module (147) may process a user request based on whether a memory block of the recovery memory pool (230) or the root memory pool (250) is allocated for the user request.
  • processing of a user request may be described with reference to FIGS. 3A and 3B.
  • the request processing module (147) may deallocate a memory block of the recovery memory pool (230) or the root memory pool (250) allocated for the user request based on the completion of processing the user request.
  • the deallocated memory block may be reused to process a recovery request of the disk recovery module (145), a heal request of the data heal module (143), and/or a user request of the request processing module (147).
  • the deallocated memory block is a memory block of the recovery memory pool (230)
  • the deallocated memory block may be reused to process the recovery request and/or the user request.
  • the deallocated memory block is a memory block of the root memory pool (250)
  • the deallocated memory block may be reused to process the heal request and/or the user request.
  • the server (101) can utilize memory blocks equal to the number of data chunks requested for processing by matching the size of the data chunks with the size of the memory blocks. Accordingly, the server (101) can reduce wasted memory resources.
  • the server (101) can increase the durability of the server (101) by processing system tasks (e.g., recovery, healing, scanning) before tasks according to user requests.
  • the server (101) can process tasks according to user requests in a memory area for processing system tasks (e.g., recovery, healing, scanning), so that the processing capacity of user requests can be adjusted according to the number of system tasks.
  • FIG. 3A illustrates an example of an operation of a server encoding data, according to one embodiment.
  • the request processing module (147) may obtain a user request for storage of data (310) from the electronic device (103) via the communication circuit (130).
  • the request processing module (147) may request the coding module (150) to encode data (310) based on the allocation of the memory area of the memory pool (170).
  • the memory area (320, 330) of the memory pool (170) allocated for encoding data (310) according to a user request may be included in the recovery memory pool (230).
  • the memory area (320, 330) of the memory pool (170) allocated for encoding data (310) may be included in the root memory pool (250).
  • the memory area (320, 330) of the memory pool (170) allocated for encoding data (310) may correspond to the size of N+K memory blocks.
  • the encoder (151) of the coding module (150) may encode data (310) based on a coding technique (e.g., erasure coding technique) in response to a request from the request processing module (147). In one embodiment, the encoder (151) of the coding module (150) may encode data (310) based on a specified code (e.g., RS (Reed-Solomon) code). In one embodiment, the encoder (151) may divide the data (310) into N data pieces (or data chunks) (311, 313, 315), and encode the divided N data pieces (or data chunks) (311, 313, 315) into N+K data pieces (or data chunks) (321, 323, 325, 331, 335) based on a specified code.
  • a coding technique e.g., erasure coding technique
  • the encoder (151) of the coding module (150) may encode data (310) based on a specified code (e.g., RS (Reed-Solomon) code).
  • each of N data fragments (321, 323, 325) may correspond to N data fragments (311, 313, 315), respectively.
  • data fragment (321) may correspond to data fragment (311)
  • data fragment (323) may correspond to data fragment (313)
  • data fragment (325) may correspond to data fragment (315).
  • FIG. 3b illustrates an example of an operation of a server decoding data, according to one embodiment.
  • the request processing module (147) may obtain a user request for storage of data (310) from the electronic device (103) via the communication circuit (130).
  • the request processing module (147) may request the coding module (150) to decode data fragments (321, 323, 325, 331, 335) based on the memory area of the memory pool (170) being allocated.
  • the decoder (155) of the coding module (150) can decode data fragments (321, 323, 325, 331, 335) based on a coding technique (e.g., erasure coding technique) in response to a request from the request processing module (147).
  • the decoder (155) of the coding module (150) can decode data fragments (321, 323, 325, 331, 335) based on a specified code (e.g., RS (Reed-Solomon) code).
  • the decoder (155) can decode N+K data fragments (321, 323, 325, 331, 335) into N data fragments (or data chunks) (311, 313, 315) based on a designated code.
  • the K data fragments can be referred to as parity fragments.
  • the sizes of the data fragments can be the same.
  • the sizes of the data fragments can be between 1 and 5 megabytes.
  • N and K are natural numbers, and K can be less than or equal to N.
  • N can be 6, and K can be 3.
  • the code for the erasure coding technique is not limited to the RS code.
  • the code for erasure coding may include a Hamming code, a Bose-Chaudhuri-Hocquenghem (BCH) code, or a Low-Density Parity Check (LDPC) code.
  • the code for erasure coding may be a code having the properties of a (linear) block code, but is not limited thereto.
  • the decoder (155) can recover (or decode) the remaining data pieces (hereinafter, normal data pieces) in which no error occurred into the original data (or N data pieces (311, 313, 315).
  • the error correction capability (or error detection capability) may vary depending on the code for the erasure coding technique.
  • Figure 4 is a flowchart illustrating the operation of a server according to one embodiment.
  • Figure 4 can be described with reference to Figures 1 through 3b.
  • the operations may be performed sequentially, but are not necessarily performed sequentially.
  • the order of the operations may be changed, and at least two operations may be performed in parallel.
  • the server (101) may allocate memory for the request. For example, the server (101) may allocate at least one memory block from a memory pool associated with a queue corresponding to the request for the request. For example, the server (101) may allocate at least one memory block from a memory pool associated with a queue corresponding to the request for the request based on the arrival of the request's order.
  • the server (101) may allocate memory blocks of the scan memory pool (210) associated with the scan queue (211) for the scan request based on a scan request. For example, the server (101) may allocate memory blocks of the root memory pool (250) associated with the heal queue (261) for the heal request based on a heal request. For example, the server (101) may allocate memory blocks of the recovery memory pool (230) associated with the recovery queue (231) for the recovery request based on a recovery request. For example, the server (101) may allocate memory blocks of the recovery memory pool (230) or the root memory pool (250) associated with the request queues (240, 270) for the user request based on a user request.
  • FIG 5a can be explained with reference to Figures 1 to 3b.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • operations 510 to 540 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).
  • processor e.g., processor (120) of FIG. 1
  • server e.g., server (101) of FIG. 1.
  • the server (101) may identify a user request.
  • the server (101) may identify a user request received from the electronic device (103) via the communication circuit (130).
  • the user request may include storing data and/or reading data.
  • storing data may include storing multimedia content (e.g., images, videos).
  • storing data may include storing personal data of the user (e.g., contacts, text messages, health status, and/or exercise records).
  • storing data may include service log data and/or binary files (e.g., smartphone firmware).
  • reading data may include streaming multimedia content.
  • reading data may include reading (for recovery) personal data of the user, service log data, and/or binary files (e.g., smartphone firmware).
  • the present invention is not limited thereto.
  • the server (101) may determine whether to add a user request to a first request queue.
  • the first request queue may be a request queue (240).
  • the second request queue may be a request queue (270).
  • the server (101) can identify a request queue into which a user request is to be input based on the number of requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)) of each of the request queues (240, 270). For example, the server (101) can identify a request queue into which a user request is to be input based on the number of requests added to each of the request queues (240, 270). For example, the server (101) can identify a request queue into which a user request is to be input based on an expected waiting time of each of the request queues (240, 270). For example, the expected waiting time may be a product of the number of requests to be processed first and the expected processing time of each of the requests.
  • a higher queue e.g., recovery queue (231) or heal queue (261)
  • the server (101) can identify a request queue into which a user request is to be input based on the number of requests added to each of the request queues (240, 270).
  • the server (101) may perform operation 530.
  • the server (101) may perform operation 540.
  • the server (101) may add a user request to a first request queue.
  • the server (101) may input (or enqueue) (or push) a user request (or identification information of the user request) (or a task) (or identification information of the task) to the first request queue to process a task according to the user request.
  • the server (101) may add a user request to a second request queue.
  • the server (101) may input (or enqueue) (or push) a user request (or identification information of the user request) (or a task) (or identification information of the task) to the second request queue to process a task according to the user request.
  • FIG. 5b is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG 5b can be described with reference to Figures 1 to 3b.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • the server (101) can determine whether the processing order of the user requests added to the request queue is correct. In one embodiment, the server (101) can identify the processing order of the user requests based on the input order (or first-in, first-out) of the user requests. In one embodiment, the server (101) can identify the processing order of the user requests based on the input order (or first-in, first-out) of the user requests when there are no tasks in a queue (e.g., recovery queue (231), heal queue (261)) that has priority over the request queue (or when all tasks have been processed).
  • a queue e.g., recovery queue (231), heal queue (261)
  • the server (101) may perform operation 560. In operation 550, based on the arrival of the turn for processing the user request added to the request queue, the server (101) may perform operation 550 again.
  • the server (101) may allocate memory corresponding to a user request. In one embodiment, the server (101) may allocate a memory area of N+K memory blocks corresponding to the sizes of N+K data chunks to process the user request.
  • the server (101) may process a user request based on the allocated memory.
  • the server (101) may encode data according to the user request based on the allocated memory.
  • the server (101) may distribute and store N+K encoded data chunks in the storage (180).
  • the server (101) can decode data according to a user request based on the allocated memory.
  • the server (101) can transmit decoded data from N+K data chunks distributed and stored in the storage (180) to the electronic device (103) through the communication circuit (130).
  • the server (101) may deallocate allocated memory. For example, the server (101) may deallocate allocated memory based on the completion of processing a user request. For example, the server (101) may deallocate allocated memory based on the data according to the user request being encoded and then stored in the storage (180). For example, the server (101) may deallocate allocated memory based on the data according to the user request being decoded and then transmitted to the electronic device (103).
  • FIG. 6A is a flowchart illustrating the operation of a server according to one embodiment.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • operations 610 and 620 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).
  • processor e.g., processor (120) of FIG. 1
  • server e.g., server (101) of FIG. 1.
  • the server (101) may identify a recovery request. For example, the server (101) may identify (or generate) a recovery request based on identifying a replacement of the storage (180). For example, the server (101) may identify (or generate) a recovery request based on obtaining a signal indicating that the storage (180) is being replaced.
  • the server (101) may add a recovery request to the recovery queue.
  • the server (101) may input (or enqueue) (or push) the recovery request (or the identification information of the recovery request) (or the recovery task) (or the identification information of the recovery task) to the recovery queue (231) to process a recovery task according to the recovery request.
  • the server (101) may input (or enqueue) (or push) a recovery request including information on the number of memory blocks required to process the recovery task to the recovery queue (231).
  • Figure 6b is a flowchart illustrating the operation of a server according to one embodiment.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • operations 630 to 660 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).
  • the operations of FIG. 6b may be performed in parallel with the operations of FIG. 6a.
  • the server (101) can determine whether the recovery request added to the recovery queue is in a processing order. In one embodiment, the server (101) can identify the processing order of the recovery request based on the input order (or first-in, first-out) of the recovery request.
  • the server (101) may perform operation 640. In operation 630, based on the arrival of a turn for processing a recovery request added to the recovery queue, the server (101) may perform operation 630 again.
  • the server (101) may allocate memory corresponding to the recovery request. In one embodiment, the server (101) may allocate a memory area of N+K memory blocks corresponding to the sizes of N+K data chunks to process the recovery request.
  • the server (101) may process a recovery request based on allocated memory.
  • the server (101) may load a data chunk stored in another storage into a memory block of the recovery memory pool (230).
  • the server (101) may load an associated data chunk of a failed data chunk stored in a storage before the replacement of the storage (180) from another storage into a memory block of the recovery memory pool (230).
  • the failed data chunk and the associated data chunk may be N+K data chunks generated by encoding data of a specified size according to a specified coding technique.
  • the server (101) can recover a faulty data chunk based on the loading of the associated data chunk. For example, the server (101) can decode the associated data chunk into original data. For example, the server (101) can recover a faulty data chunk by encoding the decoded original data.
  • the server (101) may store the recovered fault data chunk in the replaced storage (180).
  • the server (101) may deallocate allocated memory. For example, the server (101) may deallocate allocated memory based on the completion of processing a recovery request. For example, the server (101) may deallocate allocated memory based on the recovery of a fault data chunk according to a recovery request and its storage (180).
  • the server (101) may generate a recovery request to recover the next failed data chunk stored in the storage prior to replacement of the storage (180). For example, the server (101) may generate a recovery request until all failed data chunks stored in the storage prior to replacement are recovered.
  • this is not a limitation.
  • FIG 7a can be explained with reference to Figures 1 to 3b.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • operations 710 and 720 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).
  • processor e.g., processor (120) of FIG. 1
  • server e.g., server (101) of FIG. 1.
  • the server (101) may identify a scan request. For example, the server (101) may repeatedly identify a scan request. For example, the server (101) may identify a scan event that occurs repeatedly to check the status of all data chunks (or data pieces) (or data blocks) stored in the storage (180) as a scan request.
  • Figure 7b is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG 7b can be described with reference to Figures 1 to 3b.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • operations 730 to 780 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).
  • the operations of FIG. 7b may be performed in parallel with the operations of FIG. 7a.
  • the server (101) can determine whether the scan request added to the scan queue is in the processing order. In one embodiment, the server (101) can identify the processing order of the scan request added to the scan queue (211). In one embodiment, the server (101) can identify the processing order of the scan request based on the input order (or first-in, first-out) of the scan request.
  • the server (101) may perform operation 740. In operation 730, based on the arrival of a turn for processing a scan request added to the scan queue, the server (101) may perform operation 730 again.
  • the server (101) may allocate memory corresponding to the scan request. In one embodiment, the server (101) may allocate a number of memory blocks required to process the scan task for the scan request.
  • the server (101) can identify a data chunk corresponding to a scan request based on allocated memory. In one embodiment, the server (101) can check whether a data chunk stored in a memory block of the scan memory pool (210) is damaged (or hashed). For example, the server (101) can check whether a data chunk is damaged (or hashed) based on a checksum (or hash value) of the data chunk.
  • the server (101) may determine whether a data chunk is corrupted.
  • the server (101) may perform operation 770.
  • the server (101) may perform operation 780.
  • the server (101) may mark a damaged data chunk.
  • the server (101) may record information about a data chunk (or abnormal data chunk) identified as damaged (hereinafter, damaged data chunk) in the metadata DB (190) (or metadata of the metadata DB (190)).
  • the server (101) may write a mark (or a mark) indicating that the data chunk is damaged (hereinafter, damaged mark) in the metadata of the damaged data chunk.
  • the server (101) may deallocate allocated memory. In one embodiment, the server (101) may deallocate a memory block of the scan memory pool (210) allocated for the scan request based on the completion of the verification of whether the data chunk is corrupted (or, integrity).
  • Figure 8a is a flowchart illustrating the operation of a server according to one embodiment.
  • FIG 8a can be explained with reference to Figures 1 to 3b.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • operations 810 to 830 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).
  • processor e.g., processor (120) of FIG. 1
  • server e.g., server (101) of FIG. 1.
  • the server (101) may identify whether a corrupted data chunk exists. For example, the server (101) may repeatedly identify whether a corrupted data chunk exists through the metadata DB (190). For example, the server (101) may identify whether a corrupted data chunk exists based on a notification from the data scan module (141).
  • the server (101) may identify a heal request. For example, the server (101) may identify (or generate) a heal event based on the presence of a corrupted data chunk.
  • the server (101) may add a hill request to the hill queue.
  • the server (101) may input (or enqueue) (or push) a hill request (or identification information of the hill request) (or a hill task) (or identification information of the hill task) into the hill queue (261) to process a hill task according to the hill request.
  • the server (101) may input (or enqueue) (or push) a hill request including information on the number of memory blocks required to process the hill task into the hill queue (261).
  • the server (101) may restore the corrupted data chunk corresponding to the heal request based on the allocated memory.
  • the server (101) may store the recovered data chunks in storage (180).
  • the server (101) may deallocate allocated memory. In one embodiment, the server (101) may deallocate a memory block of the root memory pool (250) allocated for the heal request based on the completion of the recovery of the damaged data chunk.
  • each operation may be performed sequentially, but is not necessarily performed sequentially.
  • the order of each operation may be changed, and at least two operations may be performed in parallel.
  • the server (101) may identify the scan queue (211) as the queue corresponding to the request based on the request being a scan request. For example, the server (101) may identify the recovery queue (231) as the queue corresponding to the request based on the request being a recovery request. For example, the server (101) may identify the heal queue (261) as the queue corresponding to the request based on the request being a heal request.
  • the server (101) can input (or enqueue) (or push) a hill request (or identification information of the hill request) (or a hill task) (or identification information of the hill task) into the hill queue (261).
  • the server (101) can input (or enqueue) (or push) a hill request including information on the number of memory blocks required to process the hill task into the hill queue (261).
  • the server (101) can input (or enqueue) (or push) a user request (or identification information of the user request) (or a task according to the user request) (or identification information of the task according to the user request) into the request queue (240, 270).
  • the server (101) can input (or enqueue) (or push) a user request including information on the number of memory blocks required to process a task according to the user request into the request queue (240, 270).
  • Figure 10 is a block diagram of a server according to one embodiment.
  • the server (101) may be connected to the metadata database (190) via a network.
  • the fact that the server (101) is connected to the metadata database (190) via a network may include that the metadata database (190) is a separate host device for storing metadata.
  • the server (101) may store N+K data chunks generated by encoding data according to a user request in different multiple storages (1010, 1030, 1050).
  • each of the multiple storages (1010, 1030, 1050) may store only one data chunk among the N+K data chunks.
  • the server (101) can provide storage services (or restore original data) through data chunks stored in other storages, even when some of the multiple storages (1010, 1030, 1050) are in an unavailable state.
  • an electronic device (1101) may communicate with an electronic device (1102) via a first network (1198) (e.g., a short-range wireless communication network), or may communicate with at least one of an electronic device (1104) or a server (1108) via a second network (1199) (e.g., a long-range wireless communication network).
  • the electronic device (1101) may communicate with the electronic device (1104) via the server (1108).
  • the electronic device (1101) may include a processor (1120), a memory (1130), an input module (1150), an audio output module (1155), a display module (1160), an audio module (1170), a sensor module (1176), an interface (1177), a connection terminal (1178), a haptic module (1179), a camera module (1180), a power management module (1188), a battery (1189), a communication module (1190), a subscriber identification module (1196), or an antenna module (1197).
  • the electronic device (1101) may omit at least one of these components (e.g., the connection terminal (1178)), or may have one or more other components added.
  • some of these components e.g., sensor module (1176), camera module (1180), or antenna module (1197) may be integrated into a single component (e.g., display module (1160)).
  • the processor (1120) may, for example, execute software (e.g., a program (1140)) to control at least one other component (e.g., a hardware or software component) of the electronic device (1101) connected to the processor (1120) and perform various data processing or operations.
  • the processor (1120) may store commands or data received from other components (e.g., a sensor module (1176) or a communication module (1190)) in a volatile memory (1132), process the commands or data stored in the volatile memory (1132), and store result data in a non-volatile memory (1134).
  • the processor (1120) may include a main processor (1121) (e.g., a central processing unit or an application processor) or an auxiliary processor (1123) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (1121).
  • a main processor (1121) e.g., a central processing unit or an application processor
  • an auxiliary processor (1123) e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor
  • the auxiliary processor (1123) may be configured to use less power than the main processor (1121) or to be specialized for a given function.
  • the auxiliary processor (1123) may be implemented separately from the main processor (1121) or as a part thereof.
  • the auxiliary processor (1123) may control at least a portion of functions or states associated with at least one component (e.g., a display module (1160), a sensor module (1176), or a communication module (1190)) of the electronic device (1101), for example, on behalf of the main processor (1121) while the main processor (1121) is in an inactive (e.g., sleep) state, or together with the main processor (1121) while the main processor (1121) is in an active (e.g., application execution) state.
  • the auxiliary processor (1123) e.g., an image signal processor or a communication processor
  • the auxiliary processor (1123) may include a hardware structure specialized for processing artificial intelligence models.
  • the artificial intelligence models may be generated through machine learning. This learning can be performed, for example, in the electronic device (1101) itself where the artificial intelligence model is executed, or can be performed through a separate server (e.g., server (1108)).
  • the learning algorithm can include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above.
  • the artificial intelligence model can include a plurality of artificial neural network layers.
  • the artificial neural network can be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above.
  • the artificial intelligence model can additionally or alternatively include a software structure.
  • the memory (1130) can store various data used by at least one component (e.g., the processor (1120) or the sensor module (1176)) of the electronic device (1101).
  • the data can include, for example, software (e.g., the program (1140)) and input data or output data for commands related thereto.
  • the memory (1130) can include a volatile memory (1132) or a non-volatile memory (1134).
  • the program (1140) may be stored as software in memory (1130) and may include, for example, an operating system (1142), middleware (1144), or an application (1146).
  • the input module (1150) can receive commands or data to be used in a component of the electronic device (1101) (e.g., a processor (1120)) from an external source (e.g., a user) of the electronic device (1101).
  • the input module (1150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
  • the audio output module (1155) can output audio signals to the outside of the electronic device (1101).
  • the audio output module (1155) can include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes, such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. In one embodiment, the receiver can be implemented separately from the speaker or as part of the speaker.
  • the display module (1160) can visually provide information to an external party (e.g., a user) of the electronic device (1101).
  • the display module (1160) may include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device.
  • the display module (1160) may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module (1170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (1170) can acquire sound through the input module (1150), output sound through the sound output module (1155), or an external electronic device (e.g., electronic device (1102)) (e.g., speaker or headphone) directly or wirelessly connected to the electronic device (1101).
  • an external electronic device e.g., electronic device (1102)
  • speaker or headphone directly or wirelessly connected to the electronic device (1101).
  • the sensor module (1176) can detect the operating status (e.g., power or temperature) of the electronic device (1101) or the external environmental status (e.g., user status) and generate an electrical signal or data value corresponding to the detected status.
  • the sensor module (1176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface (1177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (1101) with an external electronic device (e.g., the electronic device (1102)).
  • the interface (1177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal (1178) may include a connector through which the electronic device (1101) may be physically connected to an external electronic device (e.g., the electronic device (1102)).
  • the connection terminal (1178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
  • the haptic module (1179) can convert electrical signals into mechanical stimuli (e.g., vibration or movement) or electrical stimuli that a user can perceive through tactile or kinesthetic sensations.
  • the haptic module (1179) may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module (1180) can capture still images and videos.
  • the camera module (1180) may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module (1188) can manage the power supplied to the electronic device (1101).
  • the power management module (1188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • a battery (1189) may power at least one component of the electronic device (1101).
  • the battery (1189) may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module (1190) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (1101) and an external electronic device (e.g., electronic device (1102), electronic device (1104), or server (1108)), and the performance of communication through the established communication channel.
  • the communication module (1190) may operate independently from the processor (1120) (e.g., application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module (1190) may include a wireless communication module (1192) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (1194) (e.g., a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module (1192) e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module e.g., a local area network (LAN) communication module, or a power line communication module.
  • a corresponding communication module can communicate with an external electronic device (1104) via a first network (1198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (1199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)).
  • a first network e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network (1199) e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)
  • a first network e.g.
  • the wireless communication module (1192) can verify or authenticate the electronic device (1101) within a communication network such as the first network (1198) or the second network (1199) by using subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (1196).
  • subscriber information e.g., an international mobile subscriber identity (IMSI)
  • IMSI international mobile subscriber identity
  • the wireless communication module (1192) can support 5G networks and next-generation communication technologies following the 4G network, such as NR access technology (new radio access technology).
  • the NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency communications
  • the wireless communication module (1192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate.
  • a high-frequency band e.g., mmWave band
  • the wireless communication module (1192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module (1192) may support various requirements specified in the electronic device (1101), an external electronic device (e.g., the electronic device (1104)), or a network system (e.g., the second network (1199)).
  • the wireless communication module (1192) can support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 664 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 6 ms or less for round trip) for URLLC realization.
  • a peak data rate e.g., 20 Gbps or more
  • a loss coverage e.g., 664 dB or less
  • U-plane latency e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 6 ms or less for round trip
  • the antenna module (1197) can transmit or receive signals or power to or from an external device (e.g., an external electronic device).
  • the antenna module (1197) may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB).
  • the antenna module (1197) may include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (1198) or the second network (1199), may be selected from the plurality of antennas by, for example, the communication module (1190). A signal or power may be transmitted or received between the communication module (1190) and an external electronic device via the selected at least one antenna.
  • another component e.g., a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module (1197) may form a mmWave antenna module.
  • the mmWave antenna module may include a printed circuit board, an RFIC disposed on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) disposed on or adjacent a second side (e.g., a top side or a side side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band.
  • a first side e.g., a bottom side
  • a plurality of antennas e.g., an array antenna
  • At least some of the above components can be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).
  • peripheral devices e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).
  • commands or data may be transmitted or received between the electronic device (1101) and an external electronic device (1104) via a server (1108) connected to a second network (1199).
  • Each of the external electronic devices (1102 or 1104) may be the same or a different type of device as the electronic device (1101).
  • all or part of the operations executed in the electronic device (1101) may be executed in one or more of the external electronic devices (1102, 1104, or 1108).
  • the electronic device (1101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform the function or at least a part of the service.
  • the above instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to obtain each of the n data blocks and the k parity blocks stored in different storage servers (101) through the communication circuit (130) based on obtaining the user request for reading the data.
  • the plurality of system tasks may include a scan task, a recovery task, and a heal task.
  • Each of the plurality of memory pools (210, 230, 250) may be a memory pool for one of the scan task, the recovery task, or the heal task.
  • the memory pool for the recovery task and the memory pool for the heal task may be memory pools for processing the user request.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a memory pool with the shortest waiting time, determined based on pending tasks among the memory pools for processing the user request, as the first memory pool (230, 250).
  • the memory pool for the above scan operation and the memory pool for the above recovery operation may have fixed-size capacities.
  • the memory pool for the above heal operation may have variable-size capacities.
  • the above abnormal data chunk and the plurality of associated data chunks may be generated by encoding data based on an erasure coding technique.
  • the number of the above abnormal data chunk and the plurality of associated data chunks may be n + k.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to deallocate the first memory blocks based on completion of processing of the data.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the deallocated first memory blocks to process another task.
  • the size of the memory block allocated to process the other task may be an integer multiple of the specified size.
  • the method may be performed in an electronic device (103) including a memory (110), in which a plurality of memory pools (210, 230, 250) are set for processing a plurality of system tasks, respectively, and each of the plurality of memory pools (210, 230, 250) is divided into memory blocks of a specified size.
  • the method may include an operation of obtaining a user request for processing data of a size of n data blocks from the electronic device (103) through a communication circuit (130).
  • the method may include an operation of identifying a first memory pool (230, 250) for processing the user request among the plurality of memory pools (210, 230, 250).
  • the method may include an operation of allocating first memory blocks of the first memory pool (230, 250) to process the user request based on the processing of all first system tasks waiting in the first system task queue (231, 261) for the first memory pool (230, 250).
  • the size of each of the first memory blocks may correspond to the size of each of the n data blocks and k parity blocks.
  • Each of the data blocks may have the same size as each of the parity blocks.
  • the method may include an operation of processing the data based on the allocation of the first memory blocks to process the user request.
  • the method may include an operation of generating the k parity blocks for the n data blocks by encoding the data based on an erasure coding technique, based on obtaining the user request for storing the data.
  • the method may include an operation of generating the data by decoding the n data blocks and the k parity blocks based on an erasure coding technique, based on obtaining the user request for reading the data.
  • Each of the plurality of memory pools may be a memory pool for one of the scan task, the recovery task, or the heal task.
  • the memory pool for the recovery task and the memory pool for the heal task may be memory pools for processing the user request.
  • the method may include an operation of identifying a memory pool with the shortest waiting time, determined based on waiting tasks among the memory pools for processing the user request, as the first memory pool (230, 250).
  • the method may include an operation of deallocating the first memory blocks based on the completion of processing of the data.
  • the method may include an operation of allocating the deallocated first memory blocks to process another task.
  • the size of the memory blocks allocated to process the other task may be an integer multiple of the specified size.
  • a non-transitory computer readable storage medium can store a program including instructions.
  • the instructions when executed by at least one processor (120) of an electronic device (103) including a memory (110), wherein a plurality of memory pools (210, 230, 250) are set for processing a plurality of system tasks, respectively, and each of the plurality of memory pools (210, 230, 250) is divided into memory blocks of a specified size, can cause the electronic device (103) to obtain a user request for processing data of a size of n data blocks from the electronic device (103) through a communication circuit (130).
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to identify a first memory pool (230, 250) among the plurality of memory pools (210, 230, 250) for processing the user request.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to allocate first memory blocks of the first memory pool (230, 250) to process the user request based on all first system tasks waiting in a first system task queue (231, 261) for the first memory pool (230, 250) being processed.
  • the size of each of the first memory blocks may correspond to the size of each of the n data blocks and k parity blocks. Each of the data blocks may have the same size as each of the parity blocks.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to process the data based on which the first memory blocks are allocated to process the user request.
  • the server (101) may include: a communication circuit (130); at least one processor (120) including a processing circuit; and at least one memory (110) including circuitry and located external to the at least one processor (120) and the communication circuit (130) and temporarily storing instructions while being used by the at least one processor (120).
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive user data from an electronic device (103) via the communication circuit (130).
  • the instructions, when individually or collectively executed by the at least one processor (120) may cause the server (101) to allocate a plurality of memory blocks of the at least one memory for encoding the user data.
  • the plurality of memory blocks may have a predefined and identical fixed size prior to receiving the user data.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to: divide the user data into data blocks, wherein each of the data blocks may have the fixed size, in accordance with encoding the user data.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate parity blocks for repairing at least one error block among the data blocks. Each of the parity blocks may have the fixed size.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the data blocks and the parity blocks in the plurality of memory blocks allocated for encoding the user data.
  • the above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit the data blocks and the parity blocks to the storage devices via the communication circuit (130) so as to be distributed among the storage devices.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a request related to the user data.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to enqueue the request in a user task queue for the at least one memory.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify whether a system task queue for the at least one memory is empty based on the request being enqueued.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the plurality of memory blocks to encode the user data based on the system task queue being empty.
  • the above instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a user task queue among the plurality of user task queues based on waiting times when the request is enqueued in the plurality of user task queues.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify an order of the requests enqueued in the user task queue based on a round-robin technique among the plurality of user task queues.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the plurality of memory blocks for encoding the user data in response to identifying the order of the requests.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify the user task queue corresponding to the system task queue among the plurality of system task queues based on waiting times of the plurality of system tasks enqueued in the plurality of system queues.
  • the plurality of system task queues may be predetermined for different system tasks, respectively.
  • the system tasks of the plurality of system task queues may be allocated to different memory areas, each of which includes different memory blocks having the fixed size.
  • At least one memory pool for the plurality of system task queues may include memory blocks having the same fixed size.
  • a first memory pool for a first system task queue for recovering blocks stored in at least one failed storage device among the storage devices may have a fixed capacity among the capacities of the at least one memory.
  • a second memory pool for a second system task queue for recovering error blocks stored in at least one of the storage devices may have a variable capacity among the capacities of the at least one memory.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive, from the electronic device (103) via the communication circuit (130), another request related to the data blocks and the parity blocks distributed across the storage devices.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of other memory blocks of the at least one memory for decoding the data blocks and the parity blocks.
  • the plurality of other memory blocks may be distinct from the plurality of memory blocks.
  • the plurality of other memory blocks may have the same fixed size, which is predefined prior to receiving the user data.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate the user data by decoding the data blocks and the parity blocks.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the generated user data in the plurality of other memory blocks.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit the generated user data stored in the plurality of other memory blocks to the electronic device (103) via the communication circuit (130).
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify other requests related to the data blocks and the parity blocks distributed across the storage devices.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate at least one other memory block of the at least one memory to repair the at least one error block.
  • the at least one error block may be a block in which at least one bit of the data blocks and the parity blocks is corrupted.
  • At least one of the at least one other memory block may be distinct from the plurality of memory blocks.
  • the at least one other memory block may have the fixed size.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to recover the at least one error block by error correction of the at least one error block using the data blocks and the parity blocks.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit, via the communication circuit (130), to at least one of the storage devices, at least one block recovered from the at least one error block.
  • the fixed size of each of the plurality of memory blocks may be 1 megabyte or more.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive other user data from the electronic device (103) via the communication circuit (130).
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of other memory blocks of the at least one memory for encoding the other user data.
  • the plurality of other memory blocks may have the same fixed size, which is predefined prior to receiving the user data.
  • the instructions, when individually or collectively executed by the at least one processor (120) may cause the server (101) to: divide the other user data into other data blocks, as the other user data is encoded. Each of the other data blocks may have the fixed size.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate other parity blocks for repairing at least one error block among the other data blocks. Each of the other parity blocks may have the fixed size.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the other data blocks and the other parity blocks in the plurality of other memory blocks allocated for encoding the other user data.
  • the instructions, when individually or collectively executed by the at least one processor (120) may cause the server (101) to transmit the other data blocks and the other parity blocks to the storage devices via the communication circuit (130) so as to be distributed among the storage devices.
  • the plurality of memory blocks may be predefined within a first memory area and a second memory area of the at least one memory.
  • the second memory area may have a plurality of memory blocks of various sizes allocated for requests unrelated to a user task for the user data and a system task for recovering the at least one error block.
  • the server (101) may include: a communication circuit (130); at least one processor (120) including a processing circuit; and at least one memory (110) including circuitry and located external to the at least one processor (120) and the communication circuit (130) and temporarily storing instructions while being used by the at least one processor (120).
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive a request related to user data from an electronic device (103) via the communication circuit (130).
  • the instructions, when individually or collectively executed by the at least one processor (120) may cause the server (101) to identify the user data encoded into data blocks and parity blocks. The data blocks may be separated from the user data by the server.
  • the parity blocks may be generated by the server to repair at least one error block of the data block.
  • the data blocks and the parity blocks may have the same fixed size.
  • the instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of memory blocks of the at least one memory for decoding the data blocks and the parity blocks.
  • the plurality of memory blocks may have the fixed size predefined before receiving the request.
  • the instructions, when individually or collectively executed by the at least one processor (120) may cause the server (101) to generate the user data by decoding the data blocks and the parity blocks.
  • the instructions, when individually or collectively executed by the at least one processor (120) may cause the server (101) to store the generated user data in the plurality of memory blocks.
  • the above instructions, when executed individually or collectively by the at least one processor (120), may cause the server (101) to transmit the generated user data stored in the plurality of memory blocks to the electronic device (103) via the communication circuit (130).
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to deallocate the plurality of memory blocks allocated for decoding the data blocks and the parity blocks based on the user data being transmitted to the electronic device (103).
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a request to process at least another block stored in the storage devices.
  • the at least another block may have the fixed size.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to, in response to identifying the request, allocate at least one memory block of the deallocated plurality of memory blocks to process the at least another block.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to enqueue the request in a user task queue for the at least one memory.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify whether a system task queue for the at least one memory is empty based on the request being enqueued.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the plurality of memory blocks for decoding the data blocks and the parity blocks based on the system task queue being empty.
  • the above instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a user task queue among the plurality of user task queues based on waiting times when the request is enqueued in the plurality of user task queues.
  • the instructions when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify the user task queue corresponding to the system task queue among the plurality of system task queues based on waiting times of the plurality of system tasks enqueued in the plurality of system queues.
  • the plurality of system task queues may be predetermined for different system tasks, respectively.
  • the system tasks of the plurality of system task queues may be allocated to different memory areas, each of which includes different memory blocks having the fixed size.
  • At least one memory pool for the plurality of system task queues may include memory blocks having the same fixed size.
  • a first memory pool for a first system task queue for recovering blocks stored in at least one failed storage device among the storage devices may have a fixed capacity among the capacities of the at least one memory.
  • a second memory pool for a second system task queue for recovering error blocks stored in at least one of the storage devices may have a variable capacity among the capacities of the at least one memory.
  • the fixed size of each of the plurality of memory blocks may be 1 megabyte or more.
  • the plurality of memory blocks may be predefined within a first memory area and a second memory area of the at least one memory.
  • the second memory area may have a plurality of memory blocks of various sizes allocated for requests unrelated to a user task for the user data and a system task for recovering the at least one error block.
  • Electronic devices may take various forms. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to the embodiments of this document are not limited to the aforementioned devices.
  • first,” “second,” or “first” or “second” may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order).
  • a component e.g., a first component
  • another component e.g., a second component
  • functionally e.g., a third component
  • Various embodiments of the present document may be implemented as software (e.g., a program (1240)) including one or more instructions stored in a storage medium (e.g., an internal memory (1236) or an external memory (1238)) readable by a machine (e.g., an electronic device (1201)).
  • a processor e.g., a processor (1220) of the machine (e.g., an electronic device (1201)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the machine-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.
  • the method according to various embodiments disclosed in the present document may be provided as included in a computer program product.
  • the computer program product may be traded as a product between a seller and a buyer.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., by download or upload) through an application store (e.g., Play Store TM ) or directly between two user devices (e.g., smart phones).
  • an application store e.g., Play Store TM
  • at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.
  • each component e.g., a module or a program of the above-described components may include one or more entities, and some of the entities may be separated and arranged in other components.
  • one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added.
  • a plurality of components e.g., a module or a program
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration.
  • the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Retry When Errors Occur (AREA)

Abstract

A server is disclosed. The server may include a memory in which a plurality of memory pools for processing a plurality of system tasks, respectively, are configured, wherein each of the plurality of memory pools is divided into memory blocks having a specified size. The server may obtain a user request for processing data having a size of N data blocks from an electronic device through a communication circuit. The server may identify a first memory pool for processing the user request among the plurality of memory pools. The server may allocate first memory blocks of the first memory pool to process the user request, on the basis that all first system tasks waiting in a first system task queue for the first memory pool are processed. The server may process the data on the basis of the allocation of the first memory blocks to process the user request.

Description

메모리 풀을 관리하는 서버, 방법, 및 비-일시적 컴퓨터 판독 가능 기록 매체Server, method, and non-transitory computer-readable recording medium for managing a memory pool

아래의 설명들은, 메모리 풀을 관리하는 서버, 방법, 및 비-일시적 컴퓨터 판독 가능 기록 매체에 관한 것이다.The following descriptions relate to a server, a method, and a non-transitory computer-readable recording medium for managing a memory pool.

서버는 스토리지 서비스를 제공할 수 있다. 서버는 스토리지 서비스를 위해, 스토리지를 다양한 저장 방식으로 관리할 수 있다. 예를 들면, 저장 방식은, 블록 방식, 파일 방식, 또는 오브젝트 방식이 있다. A server can provide storage services. For storage services, the server can manage storage in various storage methods. For example, storage methods include block, file, or object methods.

또한, 서버는 사용자의 데이터의 보호 및 복구를 위해 데이터의 원본과 데이터의 복사본을 서로 다른 스토리지들에 분산 저장할 수 있고, 안정적인 서비스를 제공하기 위해, 트래픽 또는 서비스 요청을 제한할 수 있다.Additionally, the server may store the original and copies of the data in different storages to protect and recover the user's data, and may limit traffic or service requests to provide stable service.

상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.The above information may be provided as background art to aid in understanding the present disclosure. No claim or determination is made as to whether any of the above is applicable as prior art related to the present disclosure.

서버가 개시된다. 상기 서버는, 통신 회로를 포함할 수 있다. 상기 서버는, 처리 회로를 포함하는 적어도 하나의 프로세서를 포함할 수 있다. 상기 서버는, 복수의 시스템 작업들을 각각 처리하기 위한 복수의 메모리 풀들이 설정되고, 인스트럭션들을 저장하고, 하나 이상의 저장 매체들을 포함하는, 메모리를 포함할 수 있다. 상기 복수의 메모리 풀들 각각은, 지정된 크기의 메모리 블록들로 구분될 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 통신 회로를 통해, 전자 장치로부터 n개의 데이터 블록들의 크기의 데이터의 처리를 위한 사용자 요청을 획득하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 복수의 메모리 풀들 중 상기 사용자 요청을 처리하기 위한 제1 메모리 풀을 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 제1 메모리 풀에 대한 제1 시스템 작업 큐에서 대기 중인 제1 시스템 작업이 모두 처리됨에 기반하여, 상기 제1 메모리 풀의 제1 메모리 블록들을 상기 사용자 요청을 처리하기 위해 할당하도록 야기할 수 있다. 상기 제1 메모리 블록들 각각의 크기는, 상기 n개의 데이터 블록들 및 k개의 패리티 블록들 각각의 크기에 대응할 수 있다. 상기 데이터 블록들 각각은 상기 패리티 블록들 각각과 서로 동일한 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 사용자 요청을 처리하기 위해 상기 제1 메모리 블록들이 할당됨에 기반하여, 상기 데이터를 처리하도록 야기할 수 있다. A server is disclosed. The server may include a communication circuit. The server may include at least one processor including a processing circuit. The server may include a memory configured with a plurality of memory pools for processing a plurality of system tasks, storing instructions, and including one or more storage media. Each of the plurality of memory pools may be divided into memory blocks of a specified size. The instructions, when individually or collectively executed by the at least one processor, may cause the server to obtain a user request for processing data of a size of n data blocks from an electronic device via the communication circuit. The instructions, when individually or collectively executed by the at least one processor, may cause the server to identify a first memory pool among the plurality of memory pools for processing the user request. The instructions, when individually or collectively executed by the at least one processor, may cause the server to allocate first memory blocks of the first memory pool to process the user request based on all first system tasks waiting in a first system task queue for the first memory pool being processed. The size of each of the first memory blocks may correspond to the size of each of the n data blocks and k parity blocks. Each of the data blocks may have the same size as each of the parity blocks. The instructions, when individually or collectively executed by the at least one processor, may cause the server to process the data based on the allocation of the first memory blocks to process the user request.

방법이 개시된다. 상기 방법은, 복수의 시스템 작업들을 각각 처리하기 위한 복수의 메모리 풀들이 설정되고, 상기 복수의 메모리 풀들 각각은, 지정된 크기의 메모리 블록들로 구분되는, 메모리를 포함하는 전자 장치에서 수행될 수 있다. 상기 방법은, 통신 회로를 통해, 전자 장치로부터 n개의 데이터 블록들의 크기의 데이터의 처리를 위한 사용자 요청을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 메모리 풀들 중 상기 사용자 요청을 처리하기 위한 제1 메모리 풀을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 메모리 풀에 대한 제1 시스템 작업 큐에서 대기 중인 제1 시스템 작업이 모두 처리됨에 기반하여, 상기 제1 메모리 풀의 제1 메모리 블록들을 상기 사용자 요청을 처리하기 위해 할당하는 동작을 포함할 수 있다. 상기 제1 메모리 블록들 각각의 크기는, 상기 n개의 데이터 블록들 및 k개의 패리티 블록들 각각의 크기에 대응할 수 있다. 상기 데이터 블록들 각각은 상기 패리티 블록들 각각과 서로 동일한 크기를 가질 수 있다. 상기 방법은, 상기 사용자 요청을 처리하기 위해 상기 제1 메모리 블록들이 할당됨에 기반하여, 상기 데이터를 처리하는 동작을 포함할 수 있다. A method is disclosed. The method can be performed in an electronic device including a memory, wherein a plurality of memory pools are set for processing a plurality of system tasks, respectively, and each of the plurality of memory pools is divided into memory blocks of a specified size. The method can include an operation of obtaining a user request for processing data of a size of n data blocks from the electronic device through a communication circuit. The method can include an operation of identifying a first memory pool for processing the user request among the plurality of memory pools. The method can include an operation of allocating first memory blocks of the first memory pool to process the user request based on processing all first system tasks waiting in a first system task queue for the first memory pool. The size of each of the first memory blocks can correspond to the size of each of the n data blocks and k parity blocks. Each of the data blocks can have the same size as each of the parity blocks. The method can include an operation of processing the data based on the allocation of the first memory blocks to process the user request.

비-일시적 컴퓨터 판독 가능 기록 매체(non-transitory computer readable storage medium)가 개시된다. 상기 비-일시적 컴퓨터 판독 가능 기록 매체는, 인스트럭션들을 포함하는 프로그램을 저장할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 복수의 시스템 작업들을 각각 처리하기 위한 복수의 메모리 풀들이 설정되고, 상기 복수의 메모리 풀들 각각은, 지정된 크기의 메모리 블록들로 구분되는, 메모리를 포함하는 전자 장치의 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 통신 회로를 통해, 전자 장치로부터 n개의 데이터 블록들의 크기의 데이터의 처리를 위한 사용자 요청을 획득하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 상기 복수의 메모리 풀들 중 상기 사용자 요청을 처리하기 위한 제1 메모리 풀을 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 상기 제1 메모리 풀에 대한 제1 시스템 작업 큐에서 대기 중인 제1 시스템 작업이 모두 처리됨에 기반하여, 상기 제1 메모리 풀의 제1 메모리 블록들을 상기 사용자 요청을 처리하기 위해 할당하도록 야기할 수 있다. 상기 제1 메모리 블록들 각각의 크기는, 상기 n개의 데이터 블록들 및 k개의 패리티 블록들 각각의 크기에 대응할 수 있다. 상기 데이터 블록들 각각은 상기 패리티 블록들 각각과 서로 동일한 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 상기 사용자 요청을 처리하기 위해 상기 제1 메모리 블록들이 할당됨에 기반하여, 상기 데이터를 처리하도록 야기할 수 있다. A non-transitory computer-readable storage medium is disclosed. The non-transitory computer-readable storage medium can store a program including instructions. The instructions, when individually or collectively executed by at least one processor of an electronic device including a memory, wherein a plurality of memory pools are set for processing a plurality of system tasks, respectively, and each of the plurality of memory pools is divided into memory blocks of a specified size, can cause the electronic device to obtain a user request for processing data of a size of n data blocks from the electronic device through a communication circuit. The instructions, when individually or collectively executed by the at least one processor, can cause the electronic device to identify a first memory pool among the plurality of memory pools for processing the user request. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to allocate first memory blocks of the first memory pool to process the user request based on all first system tasks waiting in a first system task queue for the first memory pool being processed. A size of each of the first memory blocks may correspond to a size of each of the n data blocks and k parity blocks. Each of the data blocks may have the same size as each of the parity blocks. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to process the data based on the allocation of the first memory blocks to process the user request.

서버가 개시된다. 상기 서버는, 통신 회로, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 회로를 포함하고, 상기 적어도 하나의 프로세서 및 상기 통신 회로 외부에 위치하고, 상기 적어도 하나의 프로세서에 의해 이용되는 동안 일시적으로 인스트럭션들을 저장하는, 적어도 하나의 메모리를 포함할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 통신 회로를 통해, 전자 장치로부터 사용자 데이터를 수신하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 사용자 데이터의 인코딩을 위해, 상기 적어도 하나의 메모리의 복수의 메모리 블록들을 할당하도록 야기할 수 있다. 상기 복수의 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 동일한 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 사용자 데이터를 인코딩함에 따라: 상기 사용자 데이터를 데이터 블록들로 나누도록 야기할 수 있다. 상기 데이터 블록들 각각은 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 데이터 블록 중 적어도 하나의 오류 블록을 복구하기 위한 패리티 블록들을 생성하도록 야기할 수 있다. 상기 패리티 블록들 각각은 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 데이터 블록들 및 상기 패리티 블록들을 상기 사용자 데이터를 인코딩하기 위해 할당된 상기 복수의 메모리 블록들에 저장하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 통신 회로를 통해, 스토리지 장치들에게, 상기 스토리지 장치들에 분산되도록, 상기 데이터 블록들 및 상기 패리티 블록들을 송신하도록 야기할 수 있다.A server is disclosed. The server may include communication circuitry, at least one processor including processing circuitry, and at least one memory, which may be external to the at least one processor and the communication circuitry and which temporarily stores instructions while being used by the at least one processor. The instructions, when individually or collectively executed by the at least one processor, may cause the server to receive user data from an electronic device via the communication circuitry. The instructions, when individually or collectively executed by the at least one processor, may cause the server to allocate a plurality of memory blocks of the at least one memory for encoding the user data. The plurality of memory blocks may have a predefined and identical fixed size prior to receiving the user data. The instructions, when individually or collectively executed by the at least one processor, may cause the server to: divide the user data into data blocks, each of the data blocks having the fixed size, as the server encodes the user data. The instructions, when individually or collectively executed by the at least one processor, may cause the server to generate parity blocks for repairing at least one erroneous block among the data blocks. Each of the parity blocks may have the fixed size. The instructions, when individually or collectively executed by the at least one processor, may cause the server to store the data blocks and the parity blocks in the plurality of memory blocks allocated for encoding the user data. The instructions, when individually or collectively executed by the at least one processor, may cause the server to transmit the data blocks and the parity blocks to storage devices via the communication circuitry, such that they are distributed among the storage devices.

서버가 개시된다. 상기 서버는, 통신 회로, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 회로를 포함하고, 상기 적어도 하나의 프로세서 및 상기 통신 회로 외부에 위치하고, 상기 적어도 하나의 프로세서에 의해 이용되는 동안 일시적으로 인스트럭션들을 저장하는, 적어도 하나의 메모리를 포함할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 통신 회로를 통해, 전자 장치로부터 사용자 데이터와 관련된 요청을 수신하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 데이터 블록들과 패리티 블록들로 인코딩된 상기 사용자 데이터를 식별하도록 야기할 수 있다. 상기 데이터 블록들은, 상기 서버에 의해, 상기 사용자 데이터로부터 나뉠 수 있다. 상기 패리티 블록들은, 상기 서버에 의해, 상기 데이터 블록의 적어도 하나의 오류 블록을 복구하기 위해 생성될 수 있다. 상기 데이터 블록들과 상기 패리티 블록들은 동일한 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 데이터 블록들 및 상기 패리티 블록들의 디코딩을 위해, 상기 적어도 하나의 메모리의 복수의 메모리 블록들을 할당하도록 야기할 수 있다. 상기 복수의 메모리 블록들은 상기 요청을 수신하기 전에 사전 정의된 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩함에 따라, 상기 사용자 데이터를 생성하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 생성된 사용자 데이터를 상기 복수의 메모리 블록들에 저장하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 서버가, 상기 통신 회로를 통해, 상기 전자 장치에게, 상기 복수의 메모리 블록들에 저장된 상기 생성된 사용자 데이터를 송신하도록 야기할 수 있다.A server is disclosed. The server may include communication circuitry, at least one processor including processing circuitry, and at least one memory, which is external to the at least one processor and the communication circuitry and temporarily stores instructions while being used by the at least one processor. The instructions, when individually or collectively executed by the at least one processor, may cause the server to receive a request related to user data from an electronic device via the communication circuitry. The instructions, when individually or collectively executed by the at least one processor, may cause the server to identify the user data encoded into data blocks and parity blocks. The data blocks may be divided by the server from the user data. The parity blocks may be generated by the server to repair at least one error block of the data block. The data blocks and the parity blocks may have the same fixed size. The instructions, when individually or collectively executed by the at least one processor, may cause the server to allocate a plurality of memory blocks of the at least one memory for decoding the data blocks and the parity blocks. The plurality of memory blocks may have the fixed size predefined before receiving the request. The instructions, when individually or collectively executed by the at least one processor, may cause the server to generate the user data by decoding the data blocks and the parity blocks. The instructions, when individually or collectively executed by the at least one processor, may cause the server to store the generated user data in the plurality of memory blocks. The instructions, when individually or collectively executed by the at least one processor, may cause the server to transmit the generated user data stored in the plurality of memory blocks to the electronic device via the communication circuit.

도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

도 1은 일 실시 예에 따른, 서버의 블록도이다.FIG. 1 is a block diagram of a server according to one embodiment.

도 2a는, 일 실시 예에 따른, 메모리 풀에 대한 큐들의 일 예를 도시한다.FIG. 2a illustrates an example of queues for a memory pool, according to one embodiment.

도 2b는, 일 실시 예에 따른, 메모리 풀에 대한 큐들의 블록도이다. FIG. 2b is a block diagram of queues for a memory pool, according to one embodiment.

도 3a는, 일 실시 예에 따른, 서버가 데이터를 인코딩하는 동작의 일 예를 도시한다.FIG. 3A illustrates an example of an operation of a server encoding data, according to one embodiment.

도 3b는, 일 실시 예에 따른, 서버가 데이터를 디코딩하는 동작의 일 예를 도시한다.FIG. 3b illustrates an example of an operation of a server decoding data, according to one embodiment.

도 4는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 4 is a flowchart illustrating the operation of a server according to one embodiment.

도 5a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 5A is a flowchart illustrating the operation of a server according to one embodiment.

도 5b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 5b is a flowchart illustrating the operation of a server according to one embodiment.

도 6a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 6A is a flowchart illustrating the operation of a server according to one embodiment.

도 6b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 6b is a flowchart illustrating the operation of a server according to one embodiment.

도 7a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 7a is a flowchart illustrating the operation of a server according to one embodiment.

도 7b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 7b is a flowchart illustrating the operation of a server according to one embodiment.

도 8a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 8a is a flowchart illustrating the operation of a server according to one embodiment.

도 8b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 8b is a flowchart illustrating the operation of a server according to one embodiment.

도 9a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 9A is a flowchart illustrating the operation of a server according to one embodiment.

도 9b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 9b is a flowchart illustrating the operation of a server according to one embodiment.

도 10은, 일 실시 예에 따른, 서버의 블록도이다.Figure 10 is a block diagram of a server according to one embodiment.

도 11은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.FIG. 11 is a block diagram of an electronic device within a network environment according to various embodiments.

이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for identical or similar components. Furthermore, in the drawings and related descriptions, descriptions of well-known functions and configurations may be omitted for clarity and conciseness.

도 1은 일 실시 예에 따른, 서버의 블록도이다. 도 2a는, 일 실시 예에 따른, 메모리 풀에 대한 큐들의 일 예를 도시한다. 도 2b는, 일 실시 예에 따른, 메모리 풀에 대한 큐들의 블록도이다.FIG. 1 is a block diagram of a server according to an embodiment. FIG. 2a illustrates an example of queues for a memory pool according to an embodiment. FIG. 2b is a block diagram of queues for a memory pool according to an embodiment.

도 1을 참조하면, 서버(101)는, 메모리(110), 프로세서(120), 및 통신 회로(130)를 포함할 수 있다. Referring to FIG. 1, the server (101) may include a memory (110), a processor (120), and a communication circuit (130).

일 실시 예에서, 메모리(110)는, 도 4 내지 도 9b의 설명 내에서 예시되는 서버(101)의 동작들을 실행하기 위한 인스트럭션들을 (적어도 일시적으로) 저장할 수 있다. 상기 인스트럭션들은, 프로세서(120)에 의해 실행될 수 있다. 상기 인스트럭션들은, 메모리(110) 내에 저장된 하나 이상의 프로그램들 내에 포함될 수 있다. 예를 들면, 메모리(110)는, 도 11의 메모리(1130)의 적어도 일부(또는 비휘발성 메모리(1134)의 적어도 일부)를 포함하거나 도 11의 메모리(1130)의 적어도 일부(또는 비휘발성 메모리(1134)의 적어도 일부)에 대응할 수 있다. 예를 들면, 메모리(110)는, 서버(101) 내의 메인 메모리(예: RAM(random access memory)), 프로세서(120)를 위한 레지스터, 프로세서(120)를 위한 캐시(cache), 통신 회로(130)를 위한 레지스터, 통신 회로(130)를 위한 버퍼(또는 소프트 버퍼), 및/또는 서버(101)의 보조 메모리(예: HDD(hard disk drive), SSD(solid state drive))를 포함할 수 있다. 예를 들면, 메모리(110)는, 단일 칩으로 구현될 수도 있고, 다수의 칩들로 구현될 수도 있다. 예를 들면, 메모리(110)는, 하나의 집적 회로로 구현될 수도 있고, 다수의 집적 회로들로 구현될 수도 있다. 예를 들면, 메모리(110)는, 서버(101) 내에서 분산적으로 배열될 수도 있다. In one embodiment, the memory (110) may (at least temporarily) store instructions for executing operations of the server (101) exemplified in the descriptions of FIGS. 4 to 9B. The instructions may be executed by the processor (120). The instructions may be included in one or more programs stored in the memory (110). For example, the memory (110) may include at least a portion of the memory (1130) of FIG. 11 (or at least a portion of the non-volatile memory (1134)) or may correspond to at least a portion of the memory (1130) of FIG. 11 (or at least a portion of the non-volatile memory (1134)). For example, the memory (110) may include a main memory (e.g., random access memory (RAM)) within the server (101), a register for the processor (120), a cache for the processor (120), a register for the communication circuit (130), a buffer (or soft buffer) for the communication circuit (130), and/or an auxiliary memory (e.g., a hard disk drive (HDD), a solid state drive (SSD)) of the server (101). For example, the memory (110) may be implemented as a single chip or may be implemented as multiple chips. For example, the memory (110) may be implemented as a single integrated circuit or may be implemented as multiple integrated circuits. For example, the memory (110) may be distributedly arranged within the server (101).

일 실시 예에서, 프로세서(120)는, 도 4 내지 도 9b의 설명 내에서 예시되는 서버(101)의 동작들을 실행하기 위해 이용될 수 있다. 예를 들면, 프로세서(120)는, 도 11의 프로세서(1120)의 적어도 일부를 포함하거나 도 11의 프로세서(1120)의 적어도 일부에 대응할 수 있다. 예를 들면, 프로세서(120)는, AP(application processor) 및/또는 CP(communication processor)를 포함하는 하나 이상의 프로세서들을 포함할 수 있다. 예를 들면, 프로세서(120)는 복수의 동작들을 프로세서들 사이에서 분할하여 집합적으로 수행하는 복수의 프로세서들에 대응할 수 있다. 예를 들면, 프로세서(120)는, SoC(system on chip)와 같은 단일 칩으로 구현될 수도 있고, 다수의 칩들로 구현될 수도 있다. 예를 들면, 프로세서(120)는, 하나의 집적 회로(integrated circuit)로 구현될 수도 있고, 다수의 집적 회로들로 구현될 수도 있다. 예를 들면, 프로세서(120)는, 서버(101) 내에서 분산적으로 배열될 수도 있다. In one embodiment, the processor (120) may be used to execute the operations of the server (101) exemplified in the descriptions of FIGS. 4 to 9B. For example, the processor (120) may include at least a portion of the processor (1120) of FIG. 11 or may correspond to at least a portion of the processor (1120) of FIG. 11. For example, the processor (120) may include one or more processors, including an application processor (AP) and/or a communication processor (CP). For example, the processor (120) may correspond to multiple processors that collectively perform multiple operations by dividing them among the processors. For example, the processor (120) may be implemented as a single chip, such as a system on chip (SoC), or may be implemented as multiple chips. For example, the processor (120) may be implemented as a single integrated circuit or may be implemented as multiple integrated circuits. For example, the processor (120) may be distributedly arranged within the server (101).

일 실시 예에서, 통신 회로(130)는, 서버(101)와 다른 전자 장치(예: 전자 장치(103)) 사이의 무선 통신을 지원하기 위해 이용될 수 있다. 예를 들면, 통신 회로(130)는, 도 11의 통신 모듈(1190)(또는 무선 통신 모듈(1192))의 적어도 일부를 포함하거나, 도 11의 통신 모듈(1190)(또는 무선 통신 모듈(1192))의 적어도 일부에 대응할 수 있다. 예를 들면, 통신 회로(130)를 원거리 통신 네트워크 위한 통신 회로를 포함할 수 있다. 예를 들면, 통신 회로(130)는, 통신 링크를 수립하기 위해 이용될 수 있다. 예를 들면, 통신 회로(130)는, 단일 칩으로 구현될 수도 있고, 다수의 칩들로 구현될 수도 있다. 예를 들면, 통신 회로(130)는, 하나의 집적 회로로 구현될 수도 있고, 다수의 집적 회로들로 구현될 수도 있다. 예를 들면, 통신 회로(130)는, 서버(101) 내에서 분산적으로 배열될 수도 있다.In one embodiment, the communication circuit (130) may be used to support wireless communication between the server (101) and another electronic device (e.g., the electronic device (103)). For example, the communication circuit (130) may include at least a portion of the communication module (1190) (or the wireless communication module (1192)) of FIG. 11, or may correspond to at least a portion of the communication module (1190) (or the wireless communication module (1192)) of FIG. 11. For example, the communication circuit (130) may include a communication circuit for a long-distance communication network. For example, the communication circuit (130) may be used to establish a communication link. For example, the communication circuit (130) may be implemented as a single chip or as multiple chips. For example, the communication circuit (130) may be implemented as a single integrated circuit or as multiple integrated circuits. For example, the communication circuit (130) may be distributed within the server (101).

도 1을 참조하면, 메모리(110)는, 데이터 스캔 모듈(141), 데이터 힐 모듈(143), 디스크 리커버리 모듈(145), 요청 처리 모듈(147), 코딩 모듈(150), 메모리 풀 관리 모듈(160), 메모리 풀(170), 스토리지(180), 및 메타 데이터 데이터베이스(database, DB)(190)를 포함할 수 있다.Referring to FIG. 1, the memory (110) may include a data scan module (141), a data heal module (143), a disk recovery module (145), a request processing module (147), a coding module (150), a memory pool management module (160), a memory pool (170), storage (180), and a metadata database (DB) (190).

일 실시 예에서, 데이터 스캔 모듈(141), 데이터 힐 모듈(143), 디스크 리커버리 모듈(145), 요청 처리 모듈(147), 코딩 모듈(150), 및 메모리 풀 관리 모듈(160)은, 도 4 내지 도 9b의 설명 내에서 예시되는 서버(101)의 동작들을 실행하기 위한 인스트럭션들을 포함할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141), 데이터 힐 모듈(143), 디스크 리커버리 모듈(145), 요청 처리 모듈(147), 코딩 모듈(150), 및 메모리 풀 관리 모듈(160)은, 프로세서(120)에 의해 실행될 수 있다. In one embodiment, the data scan module (141), the data heal module (143), the disk recovery module (145), the request processing module (147), the coding module (150), and the memory pool management module (160) may include instructions for executing operations of the server (101) exemplified in the descriptions of FIGS. 4 to 9B. In one embodiment, the data scan module (141), the data heal module (143), the disk recovery module (145), the request processing module (147), the coding module (150), and the memory pool management module (160) may be executed by the processor (120).

일 실시 예에서, 코딩 모듈(150)은, 인코더(151), 및 디코더(155)를 포함할 수 있다. 일 실시 예에서, 인코더(151) 및 디코더(155)는, 동일한 코딩 기법(예: 이레이저 코딩 기법)에 기반하여, 데이터를 처리할 수 있다. 예를 들면, 데이터의 크기는 서로 다를 수 있다. 예를 들면, 한 번에 인코딩되는 데이터의 크기는 서로 다를 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the coding module (150) may include an encoder (151) and a decoder (155). In one embodiment, the encoder (151) and the decoder (155) may process data based on the same coding technique (e.g., erasure coding technique). For example, the sizes of the data may be different. For example, the sizes of data encoded at one time may be different. However, this is not a limitation.

일 실시 예에서, 인코더(151)는, 지정된 코드(예: RS(reed-Solomon) 코드)에 기반하여, 데이터를 인코딩할 수 있다. 예를 들면, 인코더(151)는, 동일한 크기의 N개의 데이터 조각들(또는, 데이터 청크들)을, N+K개의 데이터 조각들(또는, 데이터 청크(data chunk)들)로 인코딩할 수 있다. 일 실시 예에서, K개의 데이터 조각들은, 패리티 조각으로 지칭될 수 있다. 일 실시 예에서, 데이터 조각들의 크기는 서로 동일할 수 있다. 예를 들면, 데이터 조각들의 크기는 1 메가 바이트 이상의 크기(예: 1 내지 5 메가바이트 사이의 크기)를 가질 수 있다. 예를 들면, N, K는 자연수이고, K는 N 이하일 수 있다. 예를 들면, N은 6이고, K는 3일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the encoder (151) may encode data based on a designated code (e.g., RS (Reed-Solomon) code). For example, the encoder (151) may encode N data pieces (or data chunks) of the same size into N+K data pieces (or data chunks). In one embodiment, the K data pieces may be referred to as parity pieces. In one embodiment, the sizes of the data pieces may be the same. For example, the sizes of the data pieces may be 1 megabyte or more (e.g., between 1 and 5 megabytes). For example, N and K are natural numbers, and K may be less than or equal to N. For example, N may be 6, and K may be 3. However, the present invention is not limited thereto.

일 실시 예에서, 디코더(155)는, 지정된 코드(예: RS 코드)에 기반하여, 데이터를 디코딩할 수 있다. 예를 들면, 디코더(155)는, 동일한 크기의 N+K개의 데이터 조각들을 N개의 데이터 조각들로 디코딩할 수 있다. In one embodiment, the decoder (155) can decode data based on a specified code (e.g., an RS code). For example, the decoder (155) can decode N+K data fragments of the same size into N data fragments.

이레이저 코딩 기법을 위한 코드는 RS 코드에 국한되는 것은 아니다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드는 해밍 코드, BCH(Bose-Chaudhuri-Hocquenghem) 코드, 또는 저밀도 패리티 검사(low-density parity check, LDPC) 코드를 포함할 수 있다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드는 (선형) 블록 코드의 성질을 가지는 코드일 수 있다. 하지만 이에 제한되지 않는다. The code for erasure coding is not limited to RS code. Depending on the embodiment, the code for erasure coding may include a Hamming code, a Bose-Chaudhuri-Hocquenghem (BCH) code, or a low-density parity check (LDPC) code. Depending on the embodiment, the code for erasure coding may be a code having the properties of a (linear) block code. However, the present invention is not limited thereto.

일 실시 예에서, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)을 관리할 수 있다. 예를 들면, 메모리 풀 관리 모듈(160)은, 메모리(110)의 전체 용량 중 메모리 풀(170)의 용량을 설정할 수 있다. 예를 들면, 도 2a 및 도 2b를 참조하면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 하나 이상의 풀들(210, 230, 250)을 설정할 수 있다. 예를 들면, 메모리 풀(170)은, 서버(101) 내의 메인 메모리(예: RAM(random access memory))에 대응할 수 있다. 예를 들면, 메모리 풀(170)은, 서버(101) 내의 프로세서(120) 및 통신 회로(130)의 외부에 위치할 수 있다. 예를 들면, 메모리 풀(170)은, 의해 이용되는 동안 일시적으로 인스트럭션들을 일시적으로 저장할 수 있다. 예를 들면, 서버(101) 내의 메인 메모리(예: RAM(random access memory))의 전체 용량 중 메모리 풀(170)의 용량을 제외한 용량들은 가변 크기의 블록들을 가질 수 있다. 예를 들면, 서버(101) 내의 메인 메모리(예: RAM(random access memory))의 전체 용량 중 메모리 풀(170)의 용량을 제외한 용량들은 사용자 요청에 따른 태스크들 및 시스템 태스크들(예: 힐 태스크, 스캔 태스크, 리커버리 태스크) 이외의 다른 태스크들(예: 다른 어플리케이션의 프로세스)을 위해 할당될 수 있다. 다른 태스크들을 위해 할당되는 메모리의 용량은 프로세스마다 가변적으로 설정될 수 있다. In one embodiment, the memory pool management module (160) can manage the memory pool (170). For example, the memory pool management module (160) can set the capacity of the memory pool (170) among the total capacity of the memory (110). For example, referring to FIGS. 2A and 2B, the memory pool management module (160) can set one or more pools (210, 230, 250) in the memory pool (170). For example, the memory pool (170) can correspond to the main memory (e.g., random access memory (RAM)) in the server (101). For example, the memory pool (170) can be located outside the processor (120) and the communication circuit (130) in the server (101). For example, the memory pool (170) can temporarily store instructions while being used. For example, the capacities excluding the capacity of the memory pool (170) from the total capacity of the main memory (e.g., RAM (random access memory)) within the server (101) may have blocks of variable sizes. For example, the capacities excluding the capacity of the memory pool (170) from the total capacity of the main memory (e.g., RAM (random access memory)) within the server (101) may be allocated for tasks other than user-requested tasks and system tasks (e.g., heal tasks, scan tasks, recovery tasks) (e.g., processes of other applications). The capacity of the memory allocated for other tasks may be variably set for each process.

예를 들면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 데이터 스캔 모듈(141)의 태스크를 처리하기 위한 메모리 영역이 할당되는 스캔 메모리 풀(210)을 설정할 수 있다. 예를 들면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 고정된 크기의 메모리 영역이 할당되는 스캔 메모리 풀(210)을 설정할 수 있다. For example, the memory pool management module (160) may set a scan memory pool (210) to which a memory area for processing a task of the data scan module (141) is allocated in the memory pool (170). For example, the memory pool management module (160) may set a scan memory pool (210) to which a memory area of a fixed size is allocated in the memory pool (170).

예를 들면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 디스크 리커버리 모듈(145)의 태스크를 처리하기 위한 메모리 영역이 할당되는 리커버리 메모리 풀(230)을 설정할 수 있다. 예를 들면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 고정된 크기의 메모리 영역이 할당되는 리커버리 모듈(145)을 설정할 수 있다.For example, the memory pool management module (160) can set a recovery memory pool (230) to which a memory area for processing a task of the disk recovery module (145) is allocated in the memory pool (170). For example, the memory pool management module (160) can set a recovery module (145) to which a memory area of a fixed size is allocated in the memory pool (170).

예를 들면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 최상위의 시스템 태스크(예: 루트 큐(251)에 입력되는 태스크)를 처리하기 위한 메모리 영역이 할당되는 루트 메모리 풀(250)을 설정할 수 있다. 예를 들면, 루트 메모리 풀(250)은, 메모리 풀(170)에 데이터 힐 모듈(143)의 태스크를 처리하기 위한 메모리 영역이 할당되는 메모리 풀일 수 있다. 예를 들면, 메모리 풀 관리 모듈(160)은, 메모리 풀(170)에 변동 가능한 크기의 메모리 영역이 할당되는 루트 메모리 풀(250)을 설정할 수 있다. 예를 들면, 힐 태스크의 개수가 많은 경우(또는, 기준 개수 이상인 경우), 메모리 풀 관리 모듈(160)은, 메모리 풀(170)(또는, 루트 메모리 풀(250))의 크기를 증가시킬 수 있다. 예를 들면, 힐 태스크의 개수가 적은 경우(또는, 기준 개수 미만인 경우), 메모리 풀 관리 모듈(160)은, 메모리 풀(170)(또는, 루트 메모리 풀(250))의 크기를 감소시킬 수 있다. 하지만 이에 제한되지 않는다. For example, the memory pool management module (160) can set a root memory pool (250) to which a memory area for processing the top-level system task (e.g., a task input to the root queue (251)) in the memory pool (170) is allocated. For example, the root memory pool (250) can be a memory pool to which a memory area for processing the task of the data hill module (143) is allocated in the memory pool (170). For example, the memory pool management module (160) can set a root memory pool (250) to which a memory area of a variable size is allocated in the memory pool (170). For example, when the number of hill tasks is large (or when it is greater than a reference number), the memory pool management module (160) can increase the size of the memory pool (170) (or the root memory pool (250)). For example, if the number of hill tasks is small (or less than a standard number), the memory pool management module (160) may reduce the size of the memory pool (170) (or the root memory pool (250)). However, this is not limited thereto.

일 실시 예에서, 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 및 루트 메모리 풀(250)의 메모리 블록들은 동일한 크기를 가질 수 있다. 예를 들면, 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 및 루트 메모리 풀(250)의 메모리 블록들 각각은, 데이터 청크(또는, 데이터 조각)(또는, 패리티 조각)와 동일한 크기를 가질 수 있다. 예를 들면, 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 및 루트 메모리 풀(250)의 메모리 블록들 각각은, 사전 정의된 동일한 고정된 크기를 가질 수 있다. 예를 들면, 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 및 루트 메모리 풀(250)의 메모리 블록들 각각은, 서버(101)의 부팅 시 설정될 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may have the same size. For example, each of the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may have the same size as a data chunk (or a data fragment) (or a parity fragment). For example, each of the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may have the same predefined fixed size. For example, each of the memory blocks of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250) may be set when the server (101) boots. However, the present invention is not limited thereto.

일 실시 예에서, 스캔 메모리 풀(210)에는, 스캔 큐(211)가 연결될 수 있다. 일 실시 예에서, 스캔 메모리 풀(210)에 스캔 큐(211)가 연결됨은, 스캔 큐(211)의 적어도 하나의 큐가 스캔 메모리 풀(210)의 메모리 영역을 이용하여 처리됨을 지칭할 수 있다. 일 실시 예에서, 스캔 큐(211)는, 데이터 스캔 모듈(141)의 태스크가 입력(또는, 인큐(enqueue))(또는, 푸시)될 수 있다. 일 실시 예에서, 스캔 큐(211)에 저장된 태스크들은 입력 순서(또는, 선입 선출(first in first out, FIFO) 방식)에 기반하여 출력(또는, 디큐(dequeue))(또는, 팝)(또는, 풀(pull))될 수 있다. In one embodiment, a scan queue (211) may be connected to a scan memory pool (210). In one embodiment, the connection of a scan queue (211) to a scan memory pool (210) may refer to that at least one queue of the scan queue (211) is processed using a memory area of the scan memory pool (210). In one embodiment, a task of a data scan module (141) may be input (or enqueued) (or pushed) to the scan queue (211). In one embodiment, tasks stored in the scan queue (211) may be output (or dequeued) (or popped) (or pulled) based on an input order (or a first in first out (FIFO) method).

일 실시 예에서, 스캔 메모리 풀(210)의 메모리 영역이 스캔 큐(211)에서 출력된 태스크의 처리를 위해 할당될 수 있다. 태스크가 처리 완료됨에 기반하여, 태스크를 위해 할당된 스캔 메모리 풀(210)의 메모리 영역의 할당이 해제될 수 있다. In one embodiment, a memory area of the scan memory pool (210) may be allocated for processing a task output from the scan queue (211). Based on the completion of processing of the task, the memory area of the scan memory pool (210) allocated for the task may be deallocated.

일 실시 예에서, 스캔 메모리 풀(210)에는, 스캔 큐(211) 이외의 다른 큐가 연결되지 않을 수 있다. 일 실시 예에서, 스캔 메모리 풀(210)에는, 스캔 큐(211)의 하위 큐가 포함되지 않을 수 있다. In one embodiment, the scan memory pool (210) may not have any queues other than the scan queue (211) connected to it. In one embodiment, the scan memory pool (210) may not include any subqueues of the scan queue (211).

일 실시 예에서, 리커버리 메모리 풀(230)에는, 리커버리 큐(231)가 연결될 수 있다. 일 실시 예에서, 리커버리 메모리 풀(230)에 리커버리 큐(231)가 연결됨은, 리커버리 큐(231)의 적어도 하나의 큐가 리커버리 메모리 풀(230)의 메모리 영역을 이용하여 처리됨을 지칭할 수 있다. 일 실시 예에서, 리커버리 큐(231)는, 디스크 리커버리 모듈(145)의 태스크가 입력(또는, 인큐)(또는, 푸시)될 수 있다. 일 실시 예에서, 리커버리 큐(231)에 저장된 태스크들은 입력 순서(또는, 선입 선출 방식)에 기반하여 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. In one embodiment, a recovery queue (231) may be connected to the recovery memory pool (230). In one embodiment, the connection of the recovery queue (231) to the recovery memory pool (230) may indicate that at least one queue of the recovery queue (231) is processed using the memory area of the recovery memory pool (230). In one embodiment, the recovery queue (231) may be input (or enqueued) (or pushed) by a task of the disk recovery module (145). In one embodiment, the tasks stored in the recovery queue (231) may be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out).

일 실시 예에서, 리커버리 메모리 풀(230)의 메모리 영역이 리커버리 큐(231)에서 출력된 태스크의 처리를 위해 할당될 수 있다. 태스크가 처리 완료됨에 기반하여, 태스크를 위해 할당된 리커버리 메모리 풀(230)의 메모리 영역의 할당이 해제될 수 있다. In one embodiment, a memory area of the recovery memory pool (230) may be allocated for processing a task output from the recovery queue (231). Based on the completion of processing of the task, the memory area of the recovery memory pool (230) allocated for the task may be deallocated.

일 실시 예에서, 리커버리 메모리 풀(230)에는, 리커버리 큐(231) 이외의 다른 큐가 연결될 수 있다. 일 실시 예에서, 리커버리 메모리 풀(230)에는, 리커버리 큐(231)의 하위 큐가 포함될 수 있다. 예를 들면, 리커버리 메모리 풀(230)에는, 리커버리 큐(231)의 하위 큐로서 리퀘스트 큐(240)가 연결될 수 있다. 일 실시 예에서, 리커버리 메모리 풀(230)에 리퀘스트 큐(240)가 하위 큐로 연결됨은, 리퀘스트 큐(240)의 적어도 하나의 큐가 리커버리 메모리 풀(230)의 메모리 영역을 이용하여 처리됨을 지칭할 수 있다. 일 실시 예에서, 리퀘스트 큐(240)는, 요청 처리 모듈(147)의 태스크가 입력(또는, 인큐)(또는, 푸시)될 수 있다. 일 실시 예에서, 리퀘스트 큐(240)에 저장된 태스크들은 입력 순서(또는, 선입 선출 방식)에 기반하여 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. 일 실시 예에서, 리퀘스트 큐(240)에 저장된 태스크들은 상위 큐인 리커버리 큐(231)에 태스크가 없는 경우에, 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. 일 실시 예에서, 리커버리 메모리 풀(230)의 메모리 영역이 리퀘스트 큐(240)에서 출력된 태스크의 처리를 위해 할당될 수 있다. 태스크가 처리 완료됨에 기반하여, 태스크를 위해 할당된 리퀘스트 큐(240)의 메모리 영역의 할당이 해제될 수 있다. In one embodiment, a queue other than the recovery queue (231) may be connected to the recovery memory pool (230). In one embodiment, the recovery memory pool (230) may include a subqueue of the recovery queue (231). For example, the recovery memory pool (230) may be connected to a request queue (240) as a subqueue of the recovery queue (231). In one embodiment, the connection of the request queue (240) as a subqueue to the recovery memory pool (230) may indicate that at least one queue of the request queue (240) is processed using the memory area of the recovery memory pool (230). In one embodiment, the request queue (240) may be a place where a task of the request processing module (147) may be input (or enqueued) (or pushed). In one embodiment, tasks stored in the request queue (240) may be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out). In one embodiment, tasks stored in the request queue (240) may be output (or dequeued) (or popped) (or pulled) when there are no tasks in the upper queue, the recovery queue (231). In one embodiment, a memory area of the recovery memory pool (230) may be allocated for processing tasks output from the request queue (240). Based on the completion of processing of a task, the memory area of the request queue (240) allocated for the task may be deallocated.

일 실시 예에서, 리퀘스트 큐(240)는 복수의 리퀘스트 큐들(241, 243, 245)을 포함할 수 있다. 일 실시 예에서, 복수의 리퀘스트 큐들(241, 243, 245) 각각에 입력된 태스크들은, 라운드 로빈 방식에 따라 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. 예를 들면, 리퀘스트 큐(241), 리퀘스트 큐(243), 및 리퀘스트 큐(245)의 순서대로 태스크들이 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다.In one embodiment, the request queue (240) may include a plurality of request queues (241, 243, 245). In one embodiment, tasks input to each of the plurality of request queues (241, 243, 245) may be output (or dequeued) (or popped) (or pulled) in a round-robin manner. For example, tasks may be output (or dequeued) (or popped) (or pulled) in the order of the request queue (241), the request queue (243), and the request queue (245).

일 실시 예에서, 루트 메모리 풀(250)에는, 최상위 큐로서, 루트 큐(251)가 연결될 수 있다. 일 실시 예에서, 루트 메모리 풀(250)에는, 차상위 큐로서, 힐 큐(261)가 연결될 수 있다. 일 실시 예에서, 루트 메모리 풀(250)에 루트 큐(251) 및 힐 큐(261)가 연결됨은, 루트 큐(251) 또는 힐 큐(261)의 적어도 하나의 큐가 루트 메모리 풀(250)의 메모리 영역을 이용하여 처리됨을 지칭할 수 있다. In one embodiment, a root queue (251) may be connected to the root memory pool (250) as a top-level queue. In one embodiment, a hill queue (261) may be connected to the root memory pool (250) as a second-level queue. In one embodiment, the connection of the root queue (251) and the hill queue (261) to the root memory pool (250) may indicate that at least one queue of the root queue (251) or the hill queue (261) is processed using a memory area of the root memory pool (250).

일 실시 예에서, 힐 큐(261)는, 데이터 힐 모듈(143)의 태스크가 입력(또는, 인큐)(또는, 푸시)될 수 있다. 일 실시 예에서, 힐 큐(261)에 저장된 태스크들은 입력 순서(또는, 선입 선출 방식)에 기반하여 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. In one embodiment, the hill queue (261) can be input (or enqueued) (or pushed) by tasks of the data hill module (143). In one embodiment, the tasks stored in the hill queue (261) can be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out).

일 실시 예에서, 루트 메모리 풀(250)의 메모리 영역이 힐 큐(261)에서 출력된 태스크의 처리를 위해 할당될 수 있다. 태스크가 처리 완료됨에 기반하여, 태스크를 위해 할당된 루트 메모리 풀(250)의 메모리 영역의 할당이 해제될 수 있다. In one embodiment, a memory area of the root memory pool (250) may be allocated for processing a task output from the heal queue (261). Upon completion of processing of the task, the memory area of the root memory pool (250) allocated for the task may be deallocated.

일 실시 예에서, 루트 메모리 풀(250)에는, 루트 큐(251) 및 힐 큐(261) 이외의 다른 큐가 연결될 수 있다. 일 실시 예에서, 루트 메모리 풀(250)에는, 힐 큐(261)의 하위 큐가 포함될 수 있다. 예를 들면, 루트 메모리 풀(250)에는, 힐 큐(261)의 하위 큐로서 리퀘스트 큐(270)가 연결될 수 있다. 일 실시 예에서, 루트 메모리 풀(250)에 리퀘스트 큐(270)가 하위 큐로 연결됨은, 리퀘스트 큐(270)의 적어도 하나의 큐가 루트 메모리 풀(250)의 메모리 영역을 이용하여 처리됨을 지칭할 수 있다. 일 실시 예에서, 리퀘스트 큐(270)는, 요청 처리 모듈(147)의 태스크가 입력(또는, 인큐)(또는, 푸시)될 수 있다. 일 실시 예에서, 리퀘스트 큐(270)에 저장된 태스크들은 입력 순서(또는, 선입 선출 방식)에 기반하여 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. 일 실시 예에서, 리퀘스트 큐(270)에 저장된 태스크들은 상위 큐인 루트 메모리 풀(250)에 태스크가 없는 경우에, 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. 일 실시 예에서, 루트 메모리 풀(250)의 메모리 영역이 리퀘스트 큐(270)에서 출력된 태스크의 처리를 위해 할당될 수 있다. 태스크가 처리 완료됨에 기반하여, 태스크를 위해 할당된 리퀘스트 큐(270)의 메모리 영역의 할당이 해제될 수 있다. In one embodiment, the root memory pool (250) may be connected to a queue other than the root queue (251) and the hill queue (261). In one embodiment, the root memory pool (250) may include a subqueue of the hill queue (261). For example, the root memory pool (250) may be connected to a request queue (270) as a subqueue of the hill queue (261). In one embodiment, the connection of the request queue (270) as a subqueue to the root memory pool (250) may indicate that at least one queue of the request queue (270) is processed using the memory area of the root memory pool (250). In one embodiment, the request queue (270) may be a place where a task of the request processing module (147) may be input (or enqueued) (or pushed). In one embodiment, tasks stored in the request queue (270) may be output (or dequeued) (or popped) (or pulled) based on the input order (or first-in, first-out). In one embodiment, tasks stored in the request queue (270) may be output (or dequeued) (or popped) (or pulled) when there are no tasks in the upper queue, the root memory pool (250). In one embodiment, a memory area of the root memory pool (250) may be allocated for processing tasks output from the request queue (270). Based on the completion of processing of a task, the memory area of the request queue (270) allocated for the task may be deallocated.

일 실시 예에서, 리퀘스트 큐(270)는 복수의 리퀘스트 큐들(271, 273, 275)을 포함할 수 있다. 일 실시 예에서, 복수의 리퀘스트 큐들(271, 273, 275) 각각에 입력된 태스크들은, 라운드 로빈 방식에 따라 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다. 예를 들면, 리퀘스트 큐(271), 리퀘스트 큐(273), 및 리퀘스트 큐(275)의 순서대로 태스크들이 출력(또는, 디큐)(또는, 팝)(또는, 풀)될 수 있다.In one embodiment, the request queue (270) may include a plurality of request queues (271, 273, 275). In one embodiment, tasks input to each of the plurality of request queues (271, 273, 275) may be output (or dequeued) (or popped) (or pulled) in a round-robin manner. For example, tasks may be output (or dequeued) (or popped) (or pulled) in the order of the request queue (271), the request queue (273), and the request queue (275).

일 실시 예에서, 메모리 풀(170)은, 서버(101)의 메인 메모리(예: RAM, 프로세서(120)를 위한 레지스터, 프로세서(120)를 또는 위한 캐시)(또는, 휘발성 메모리)에서 할당된 메모리일 수 있다. 일 실시 예에서, 스토리지(180)는, 서버(101)의 보조 메모리(예: HDD, SSD)(또는, 비휘발성 메모리)일 수 있다. In one embodiment, the memory pool (170) may be memory allocated from the main memory (e.g., RAM, registers for the processor (120), cache for the processor (120)) (or volatile memory) of the server (101). In one embodiment, the storage (180) may be auxiliary memory (e.g., HDD, SSD) (or non-volatile memory) of the server (101).

일 실시 예에서, 메타 데이터 DB(190)는, 스토리지(180)에 저장된 데이터 청크들의 위치 및/또는 상태를 저장(또는, 관리)할 수 있다. In one embodiment, the metadata DB (190) can store (or manage) the location and/or status of data chunks stored in the storage (180).

이하에서, 서버(101)가 스캔 태스크, 힐 태스크, 리커버리 태스크, 및 사용자 요청에 따른 태스크를 수행하는 동작에 대해 설명한다. Below, the operation of the server (101) performing a scan task, a heal task, a recovery task, and a task according to a user request is described.

스캔 태스크Scan task

일 실시 예에서, 데이터 스캔 모듈(141)은, 백그라운드에서 동작할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141)은, 사용자 요청과 관련없이 프로세서(120)에 의해 실행될 수 있다. In one embodiment, the data scan module (141) may operate in the background. In one embodiment, the data scan module (141) may be executed by the processor (120) regardless of a user request.

일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 요청을 식별할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 반복적으로 스캔 요청을 식별할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 스토리지(180)에 저장된 모든 데이터 청크들(또는, 데이터 조각들)(또는, 데이터 블록들)의 상태를 확인하기 위해 반복적으로 발생하는 스캔 이벤트를 식별할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 모든 데이터 청크들을 순차적으로 확인하기 위해 반복적으로 발생되는 스캔 이벤트를 식별할 수 있다. 일 실시 예에서, 스캔 이벤트가 반복적으로 발생됨은, 스캔 이벤트가 일정한 주기로 반복됨을 나타낼 수 있다. 일 실시 예에서, 스캔 이벤트가 반복적으로 발생됨은, 스캔 이벤트가 불규칙적으로 반복됨을 나타낼 수 있다.In one embodiment, the data scan module (141) can identify a scan request. For example, the data scan module (141) can repeatedly identify a scan request. For example, the data scan module (141) can identify a scan event that occurs repeatedly to check the status of all data chunks (or data pieces) (or data blocks) stored in the storage (180). For example, the data scan module (141) can identify a scan event that occurs repeatedly to sequentially check all data chunks. In one embodiment, the repeated occurrence of a scan event can indicate that the scan event is repeated at a regular cycle. In one embodiment, the repeated occurrence of a scan event can indicate that the scan event is repeated irregularly.

일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 요청에 따른 스캔 태스크를 처리하기 위해, 스캔 요청(또는, 스캔 요청의 식별 정보)(또는, 스캔 태스크)(또는, 스캔 태스크의 식별 정보)를 스캔 큐(211)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 스캔 요청을 스캔 큐(211)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 스캔 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 데이터 스캔 모듈(141)이 동시에 처리 가능한 데이터 청크들의 개수일 수 있다. 예를 들면, 스캔 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 1일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the data scan module (141) may input (or enqueue) (or push) a scan request (or identification information of the scan request) (or a scan task) (or identification information of the scan task) into the scan queue (211) to process a scan task according to the scan request. In one embodiment, the data scan module (141) may input (or enqueue) (or push) a scan request including information on the number of memory blocks required to process the scan task into the scan queue (211). For example, the number of memory blocks required to process the scan task may be the number of data chunks that the data scan module (141) can process simultaneously. For example, the number of memory blocks required to process the scan task may be 1. However, the present invention is not limited thereto.

일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 큐(211)에 추가된 스캔 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 스캔 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 스캔 요청을 처리하기 위한 스캔 메모리 풀(210)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141)은, 필요한 메모리 블록들의 개수만큼의 스캔 메모리 풀(210)의 메모리 블록들이 할당됨을 식별할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 메모리 풀 관리 모듈(160)로부터 메모리 블록들이 할당됨을 나타내는 신호를 수신함에 기반하여, 스캔 메모리 풀(210)의 메모리 블록들이 할당됨을 식별할 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the data scan module (141) can identify the processing order of scan requests added to the scan queue (211). In one embodiment, the data scan module (141) can identify the processing order of scan requests based on the input order (or first-in, first-out) of the scan requests. In one embodiment, the data scan module (141) can identify that memory blocks of the scan memory pool (210) for processing the scan request are allocated based on the input order (or first-in, first-out) of the scan requests. In one embodiment, the data scan module (141) can identify that memory blocks of the scan memory pool (210) are allocated in the number of memory blocks required. For example, the data scan module (141) can identify that memory blocks of the scan memory pool (210) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. However, the present invention is not limited thereto.

일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 메모리 풀(210)의 메모리 블록이 스캔 요청을 위해 할당됨에 기반하여, 스캔 요청을 처리할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 스토리지(180)에 저장된 데이터 청크를 스캔 메모리 풀(210)의 메모리 블록에 로드할 수 있다. In one embodiment, the data scan module (141) may process a scan request based on which memory blocks of the scan memory pool (210) are allocated for the scan request. For example, the data scan module (141) may load a data chunk stored in storage (180) into a memory block of the scan memory pool (210).

일 실시 예에서, 데이터 스캔 모듈(141)은, 스캔 메모리 풀(210)의 메모리 블록에 저장된 데이터 청크의 손상 여부(또는, 무결성)를 확인할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 데이터 청크의 체크섬(또는, 해시 값)에 기반하여, 데이터 청크의 손상 여부(또는, 무결성)를 확인할 수 있다. In one embodiment, the data scan module (141) can check whether a data chunk stored in a memory block of the scan memory pool (210) is damaged (or hashed). For example, the data scan module (141) can check whether a data chunk is damaged (or hashed) based on a checksum (or hash value) of the data chunk.

일 실시 예에서, 데이터 스캔 모듈(141)은, 손상된 것으로 확인되는 데이터 청크(또는, 이상 데이터 청크)(이하, 손상 데이터 청크)에 대한 정보를, 메타 데이터 DB(190)(또는, 메타 데이터 DB(190)의 메타 데이터)에 기록할 수 있다. 일 실시 예에서, 데이터 스캔 모듈(141)은, 손상 데이터 청크의 메타 데이터에 데이터 청크가 손상됨을 나타내는 표시(또는, 마크)(이하, 손상 표시)를 기재할 수 있다. In one embodiment, the data scan module (141) may record information about a data chunk (or abnormal data chunk) that is identified as damaged (hereinafter, damaged data chunk) in the metadata DB (190) (or metadata of the metadata DB (190)). In one embodiment, the data scan module (141) may record a mark (or a symbol) indicating that the data chunk is damaged (hereinafter, damaged mark) in the metadata of the damaged data chunk.

일 실시 예에서, 데이터 스캔 모듈(141)은, 데이터 청크의 손상 여부(또는, 무결성)의 확인이 완료됨에 기반하여, 스캔 요청을 위해 할당된 스캔 메모리 풀(210)의 메모리 블록을 할당 해제할 수 있다. 예를 들면, 데이터 스캔 모듈(141)은, 데이터 청크의 손상 여부(또는, 무결성)의 확인이 완료됨을 나타내는 신호를, 메모리 풀 관리 모듈(160)에 전달할 수 있다. 일 실시 예에서, 메모리 풀 관리 모듈(160)은, 신호에 기반하여, 스캔 요청을 위해 할당된 스캔 메모리 풀(210)의 메모리 블록을 할당 해제할 수 있다. 일 실시 예에서, 할당 해제된 메모리 블록은, 데이터 스캔 모듈(141)의 다른 스캔 요청을 처리하기 위해 다시 이용될 수 있다. 예를 들면, 데이터 스캔 모듈(141)의 다른 스캔 요청을 처리하기 위해 할당되는 메모리 블록의 크기는, 메모리 블록의 크기(또는, 데이터 블록의 크기)(또는, 데이터 청크의 크기)의 정수배일 수 있다. In one embodiment, the data scan module (141) may deallocate a memory block of the scan memory pool (210) allocated for a scan request based on completion of the verification of whether the data chunk is damaged (or has integrity). For example, the data scan module (141) may transmit a signal indicating completion of the verification of whether the data chunk is damaged (or has integrity) to the memory pool management module (160). In one embodiment, the memory pool management module (160) may deallocate a memory block of the scan memory pool (210) allocated for a scan request based on the signal. In one embodiment, the deallocated memory block may be reused to process another scan request of the data scan module (141). For example, the size of the memory block allocated to process another scan request of the data scan module (141) may be an integer multiple of the size of the memory block (or the size of the data block) (or the size of the data chunk).

일 실시 예에서, 데이터 스캔 모듈(141)은, 손상 데이터 청크가 식별됨에 기반하여, 데이터 힐 모듈(143)에게 손상 데이터 청크가 식별됨을 알릴 수 있다. In one embodiment, the data scan module (141) may notify the data heal module (143) that a corrupt data chunk has been identified based on the identification of the corrupt data chunk.

힐 태스크Hill Task

일 실시 예에서, 데이터 힐 모듈(143)은, 백그라운드에서 동작할 수 있다. 일 실시 예에서, 데이터 힐 모듈(143)은, 사용자 요청과 관련없이 프로세서(120)에 의해 실행될 수 있다.In one embodiment, the data hill module (143) may operate in the background. In one embodiment, the data hill module (143) may be executed by the processor (120) regardless of a user request.

일 실시 예에서, 데이터 힐 모듈(143)은, 힐 요청을 식별(또는, 생성)할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 반복적으로 메타 데이터 DB(190)를 통해 손상 데이터 청크가 존재하는지를 식별할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 데이터 스캔 모듈(141)로부터의 알림에 기반하여 손상 데이터 청크가 존재하는지를 식별할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 손상 데이터 청크가 존재함에 기반하여, 힐 이벤트를 식별(또는, 생성)할 수 있다. In one embodiment, the data heal module (143) can identify (or generate) a heal request. For example, the data heal module (143) can repeatedly identify whether a corrupted data chunk exists through the metadata DB (190). For example, the data heal module (143) can identify whether a corrupted data chunk exists based on a notification from the data scan module (141). For example, the data heal module (143) can identify (or generate) a heal event based on the presence of a corrupted data chunk.

일 실시 예에서, 데이터 힐 모듈(143)은, 힐 요청에 따른 힐 태스크를 처리하기 위해, 힐 요청(또는, 힐 요청의 식별 정보)(또는, 힐 태스크)(또는, 힐 태스크의 식별 정보)를 힐 큐(261)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 데이터 힐 모듈(143)은, 힐 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 힐 요청을 힐 큐(261)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 힐 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 지정된 코딩 기법에 따라 인코딩 또는 디코딩을 위해 필요한 데이터 청크의 개수일 수 있다. 예를 들면, 힐 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 N+K일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the data hill module (143) may input (or enqueue) (or push) a hill request (or identification information of the hill request) (or a hill task) (or identification information of the hill task) into the hill queue (261) to process a hill task according to the hill request. In one embodiment, the data hill module (143) may input (or enqueue) (or push) a hill request including information on the number of memory blocks required to process the hill task into the hill queue (261). For example, the number of memory blocks required to process the hill task may be the number of data chunks required for encoding or decoding according to a specified coding technique. For example, the number of memory blocks required to process the hill task may be N+K. However, the present invention is not limited thereto.

일 실시 예에서, 데이터 힐 모듈(143)은, 힐 큐(261)에 추가된 힐 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 데이터 힐 모듈(143)은, 힐 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 힐 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 데이터 힐 모듈(143)은, 힐 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 힐 요청을 처리하기 위한 루트 메모리 풀(250)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 데이터 힐 모듈(143)은, 필요한 메모리 블록들의 개수만큼의 루트 메모리 풀(250)의 메모리 블록들이 할당됨을 식별할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 메모리 풀 관리 모듈(160)로부터 메모리 블록들이 할당됨을 나타내는 신호를 수신함에 기반하여, 루트 메모리 풀(250)의 메모리 블록들이 할당됨을 식별할 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the data hill module (143) can identify the processing order of hill requests added to the hill queue (261). In one embodiment, the data hill module (143) can identify the processing order of hill requests based on the input order (or first-in, first-out) of hill requests. In one embodiment, the data hill module (143) can identify that memory blocks of the root memory pool (250) for processing hill requests are allocated based on the input order (or first-in, first-out) of hill requests. In one embodiment, the data hill module (143) can identify that memory blocks of the root memory pool (250) are allocated in the number of memory blocks required. For example, the data hill module (143) can identify that memory blocks of the root memory pool (250) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. However, the present invention is not limited thereto.

일 실시 예에서, 데이터 힐 모듈(143)은, 루트 메모리 풀(250)의 메모리 블록이 힐 요청을 위해 할당됨에 기반하여, 힐 요청을 처리할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 스토리지(180)에 저장된 손상 데이터 청크를 루트 메모리 풀(250)의 메모리 블록에 로드할 수 있다. In one embodiment, the data heal module (143) may process a heal request based on whether a memory block of the root memory pool (250) is allocated for the heal request. For example, the data heal module (143) may load a corrupted data chunk stored in storage (180) into a memory block of the root memory pool (250).

일 실시 예에서, 데이터 힐 모듈(143)은, 루트 메모리 풀(250)의 메모리 블록이 힐 요청을 위해 할당됨에 기반하여, 손상 데이터 청크와 연관된 적어도 하나의 데이터 청크(이하, 연관 데이터 청크)를 루트 메모리 풀(250)의 메모리 블록에 로드할 수 있다. 일 실시 예에서, 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크는, 지정된 크기의 데이터가 지정된 코딩 기법에 따라 인코딩됨으로써 생성된 데이터 청크들일 수 있다. 일 실시 예에서, 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크의 개수는 N+K일 수 있다. 일 실시 예에서, 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크 각각은 데이터 조각 또는 패리티 조각 중 어느 하나일 수 있다. In one embodiment, the data heal module (143) may load at least one data chunk (hereinafter, “associated data chunk”) associated with a corrupted data chunk into a memory block of the root memory pool (250) based on whether a memory block of the root memory pool (250) is allocated for a heal request. In one embodiment, the corrupted data chunk and the at least one associated data chunk may be data chunks generated by encoding data of a specified size according to a specified coding technique. In one embodiment, the number of corrupted data chunks and the at least one associated data chunk may be N+K. In one embodiment, each of the corrupted data chunk and the at least one associated data chunk may be either a data fragment or a parity fragment.

일 실시 예에서, 데이터 힐 모듈(143)은, (코딩 모듈(150)을 통해) 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크가 로드됨에 기반하여, 손상 데이터 청크를 복구할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, (코딩 모듈(150)을 통해) 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크를, 원본 데이터로 디코딩할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, (코딩 모듈(150)을 통해) 디코딩된 원본 데이터를 인코딩함으로써, 손상 데이터 청크에 대응하는 복구된 데이터 청크를 생성할 수 있다. In one embodiment, the data heal module (143) can repair the damaged data chunk based on loading the damaged data chunk and at least one associated data chunk (via the coding module (150)). For example, the data heal module (143) can decode the damaged data chunk and at least one associated data chunk into original data (via the coding module (150)). For example, the data heal module (143) can generate a repaired data chunk corresponding to the damaged data chunk by encoding the decoded original data (via the coding module (150)).

일 실시 예에서, 데이터 힐 모듈(143)은, 복구된 데이터 청크를 스토리지(180)에 저장할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 복구된 데이터 청크를 힐 요청을 위해 할당된 루트 메모리 풀(250)의 메모리 블록에 저장한 후, 복구된 데이터 청크를 스토리지(180)에 분산되도록 송신할 수 있다.In one embodiment, the data heal module (143) may store the recovered data chunk in storage (180). For example, the data heal module (143) may store the recovered data chunk in a memory block of the root memory pool (250) allocated for the heal request, and then transmit the recovered data chunk to be distributed to storage (180).

일 실시 예에서, 데이터 힐 모듈(143)은, 손상 데이터 청크의 복구가 완료됨에 기반하여, 힐 요청을 위해 할당된 루트 메모리 풀(250)의 메모리 블록을 할당 해제할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 데이터 청크의 복구가 완료됨을 나타내는 신호를, 메모리 풀 관리 모듈(160)에 전달할 수 있다. 일 실시 예에서, 메모리 풀 관리 모듈(160)은, 신호에 기반하여, 힐 요청을 위해 할당된 루트 메모리 풀(250)의 메모리 블록을 할당 해제할 수 있다. 일 실시 예에서, 할당 해제된 메모리 블록은, 데이터 힐 모듈(143)의 다른 힐 요청 및/또는 요청 처리 모듈(147)의 다른 사용자 요청을 처리하기 위해 다시 이용될 수 있다. 예를 들면, 다른 힐 요청 및/또는 다른 사용자 요청을 처리하기 위해 할당되는 메모리 블록의 크기는, 메모리 블록의 크기(또는, 데이터 블록의 크기)(또는, 데이터 청크의 크기)의 정수배일 수 있다.In one embodiment, the data heal module (143) may deallocate a memory block of the root memory pool (250) allocated for a heal request based on the completion of recovery of a corrupted data chunk. For example, the data heal module (143) may transmit a signal indicating the completion of recovery of a data chunk to the memory pool management module (160). In one embodiment, the memory pool management module (160) may deallocate a memory block of the root memory pool (250) allocated for a heal request based on the signal. In one embodiment, the deallocated memory block may be reused to process another heal request of the data heal module (143) and/or another user request of the request processing module (147). For example, the size of a memory block allocated to process another heal request and/or another user request may be an integer multiple of the size of the memory block (or the size of the data block) (or the size of the data chunk).

일 실시 예에서, 데이터 힐 모듈(143)은, 손상 데이터 청크의 복구가 완료됨에 기반하여, 메타 데이터 데이터베이스(190)(또는, 메타 데이터 데이터베이스(190)의 메타 데이터)를 갱신할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 손상 데이터 청크의 복구가 완료됨에 기반하여, 복구된 손상 데이터 청크의 메타 데이터를 갱신할 수 있다. 예를 들면, 데이터 힐 모듈(143)은, 데이터 청크가 정상임을 나타내도록 메타 데이터를 갱신할 수 있다.In one embodiment, the data heal module (143) may update the metadata database (190) (or metadata of the metadata database (190)) based on the completion of the recovery of the corrupted data chunk. For example, the data heal module (143) may update the metadata of the recovered corrupted data chunk based on the completion of the recovery of the corrupted data chunk. For example, the data heal module (143) may update the metadata to indicate that the data chunk is normal.

리커버리 태스크Recovery task

일 실시 예에서, 서버(101)는, 교체가 예정된 스토리지(180)의 디스크 모드를 읽기 전용 모드 또는 사용 불가 모드 (또는, 유지 보수 모드)로 변경할 수 있다. 일 실시 예에서, 서버(101)는, 교체가 예정된 스토리지(180)에 대한 데이터의 저장 요청에 기반하여, 교체가 예정된 스토리지(180)에 데이터를 저장하지 않을 수 있다. 일 실시 예에서, 서버(101)는, 교체가 예정된 스토리지(180)에 대한 데이터의 저장 요청에 기반하여, 교체가 예정된 스토리지(180)에 저장 요청된 데이터에 대한 메타 데이터에는 데이터 정보를 기록할 수 있다. In one embodiment, the server (101) may change the disk mode of the storage (180) scheduled for replacement to a read-only mode or an unavailable mode (or a maintenance mode). In one embodiment, the server (101) may not store data in the storage (180) scheduled for replacement based on a request to store data in the storage (180) scheduled for replacement. In one embodiment, the server (101) may record data information in metadata for the data requested to be stored in the storage (180) scheduled for replacement based on a request to store data in the storage (180) scheduled for replacement.

일 실시 예에서, 서버(101)는, 교체가 예정된 스토리지(180)의 디스크 모드가 변경된 후, 스토리지(180)가 물리적으로 교체될 수 있다. In one embodiment, the server (101) may physically replace the storage (180) after the disk mode of the storage (180) scheduled for replacement is changed.

일 실시 예에서, 서버(101)는, 스토리지(180)가 물리적으로 교체된 후 스토리지(180)에 대한 디스크 리커버리를 진행할 수 있다. 일 실시 예에서, 서버(101)는, 물리적으로 교체된 스토리지(180)의 디스크 모드를 디스크 복구 모드로 변경한 후 디스크 리커버리를 진행할 수 있다. 일 실시 예에서, 물리적으로 교체된 스토리지(180)에 복구할 데이터의 목록은 메타 데이터에 기록된 상태일 수 있다. In one embodiment, the server (101) may perform disk recovery on the storage (180) after the storage (180) has been physically replaced. In one embodiment, the server (101) may perform disk recovery after changing the disk mode of the physically replaced storage (180) to disk recovery mode. In one embodiment, a list of data to be recovered on the physically replaced storage (180) may be recorded in metadata.

일 실시 예에서, 디스크 리커버리 모듈(145)은, 스토리지(180)의 교체 여부를 확인할 수 있다. 일 실시 예에서, 디스크 리커버리 모듈(145)은, 스토리지(180)가 교체됨을 나타내는 신호를 획득함에 기반하여, 스토리지(180)가 교체된 것으로 식별할 수 있다. 예를 들면, 스토리지(180)가 교체됨을 나타내는 신호는 사용자 입력(또는, 관리자의 입력)에 기반하여 생성되는 신호일 수 있다. 예를 들면, 스토리지(180)가 교체됨을 나타내는 신호는 서버(101)의 구성 요소들에 의해 생성되는 신호일 수 있다.In one embodiment, the disk recovery module (145) can determine whether the storage (180) is replaced. In one embodiment, the disk recovery module (145) can identify that the storage (180) has been replaced based on obtaining a signal indicating that the storage (180) has been replaced. For example, the signal indicating that the storage (180) has been replaced may be a signal generated based on a user input (or an administrator input). For example, the signal indicating that the storage (180) has been replaced may be a signal generated by components of the server (101).

일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 요청을 식별(또는, 생성)할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 스토리지(180)의 교체를 식별함에 기반하여, 리커버리 요청을 식별(또는, 생성)할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 스토리지(180)가 교체됨을 나타내는 신호를 획득함에 기반하여, 리커버리 요청을 식별(또는, 생성)할 수 있다.In one embodiment, the disk recovery module (145) may identify (or generate) a recovery request. For example, the disk recovery module (145) may identify (or generate) a recovery request based on identifying a replacement of the storage (180). For example, the disk recovery module (145) may identify (or generate) a recovery request based on obtaining a signal indicating that the storage (180) is being replaced.

일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 요청에 따른 리커버리 태스크를 처리하기 위해, 리커버리 요청(또는, 리커버리 요청의 식별 정보)(또는, 리커버리 태스크)(또는, 리커버리 태스크의 식별 정보)를 리커버리 큐(231)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 리커버리 요청을 리커버리 큐(231)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 리커버리 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 지정된 코딩 기법에 따라 인코딩 또는 디코딩을 위해 필요한 데이터 청크의 개수일 수 있다. 예를 들면, 리커버리 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 N+K일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the disk recovery module (145) may input (or enqueue) (or push) a recovery request (or identification information of the recovery request) (or a recovery task) (or identification information of the recovery task) into the recovery queue (231) to process a recovery task according to the recovery request. In one embodiment, the disk recovery module (145) may input (or enqueue) (or push) a recovery request including information on the number of memory blocks required to process the recovery task into the recovery queue (231). For example, the number of memory blocks required to process the recovery task may be the number of data chunks required for encoding or decoding according to a specified coding technique. For example, the number of memory blocks required to process the recovery task may be N+K. However, the present invention is not limited thereto.

일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 큐(231)에 추가된 리커버리 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 리커버리 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 리커버리 요청을 처리하기 위한 리커버리 메모리 풀(230)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 디스크 리커버리 모듈(145)은, 필요한 메모리 블록들의 개수만큼의 리커버리 메모리 풀(230)의 메모리 블록들이 할당됨을 식별할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 메모리 풀 관리 모듈(160)로부터 메모리 블록들이 할당됨을 나타내는 신호를 수신함에 기반하여, 리커버리 메모리 풀(230)의 메모리 블록들이 할당됨을 식별할 수 있다. 하지만 이에 제한되지 않는다.In one embodiment, the disk recovery module (145) can identify the processing order of recovery requests added to the recovery queue (231). In one embodiment, the disk recovery module (145) can identify the processing order of recovery requests based on the input order (or first-in, first-out) of the recovery requests. In one embodiment, the disk recovery module (145) can identify that a memory block of the recovery memory pool (230) for processing the recovery request is allocated based on the input order (or first-in, first-out) of the recovery requests. In one embodiment, the disk recovery module (145) can identify that as many memory blocks of the recovery memory pool (230) as the number of required memory blocks are allocated. For example, the disk recovery module (145) may identify that memory blocks of the recovery memory pool (230) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated, but is not limited thereto.

일 실시 예에서, 디스크 리커버리 모듈(145)은, 리커버리 메모리 풀(230)의 메모리 블록이 리커버리 요청을 위해 할당됨에 기반하여, 리커버리 요청을 처리할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 다른 스토리지에 저장된 데이터 청크를 리커버리 메모리 풀(230)의 메모리 블록에 로드할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 스토리지(180)의 교체 이전의 스토리지에 저장된 데이터 청크(이하, 고장 데이터 청크)에 연관된 적어도 하나의 데이터 청크(이하, 연관 데이터 청크)를 다른 스토리지에서 리커버리 메모리 풀(230)의 메모리 블록으로 로드할 수 있다. 일 실시 예에서, 고장 데이터 청크, 및 적어도 하나의 연관 데이터 청크는, 지정된 크기의 데이터가 지정된 코딩 기법에 따라 인코딩됨으로써 생성되는 N+K개의 데이터 청크들일 수 있다. In one embodiment, the disk recovery module (145) may process a recovery request based on which memory block of the recovery memory pool (230) is allocated for the recovery request. For example, the disk recovery module (145) may load a data chunk stored in another storage into a memory block of the recovery memory pool (230). For example, the disk recovery module (145) may load at least one data chunk (hereinafter, “associated data chunk”) associated with a data chunk stored in a storage prior to the replacement of the storage (180) (hereinafter, “failed data chunk”) from another storage into a memory block of the recovery memory pool (230). In one embodiment, the failed data chunk and the at least one associated data chunk may be N+K data chunks generated by encoding data of a specified size according to a specified coding technique.

일 실시 예에서, 디스크 리커버리 모듈(145)은, 적어도 하나의 연관 데이터 청크가 로드됨에 기반하여, 고장 데이터 청크를 복구할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 적어도 하나의 연관 데이터 청크를, 원본 데이터로 디코딩할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 디코딩된 원본 데이터를 인코딩함으로써, 고장 데이터 청크를 복구할 수 있다. In one embodiment, the disk recovery module (145) can recover a failed data chunk based on the loading of at least one associated data chunk. For example, the disk recovery module (145) can decode at least one associated data chunk into original data. For example, the disk recovery module (145) can recover a failed data chunk by encoding the decoded original data.

일 실시 예에서, 디스크 리커버리 모듈(145)은, 복구된 고장 데이터 청크를 교체된 스토리지(180)에 저장할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 복구된 고장 데이터 청크를 리커버리 요청을 위해 할당된 리커버리 메모리 풀(230)의 메모리 블록에 저장한 후, 복구된 고장 데이터 청크를 스토리지(180)에 분산되도록 송신할 수 있다.In one embodiment, the disk recovery module (145) may store the recovered fault data chunk in the replaced storage (180). For example, the disk recovery module (145) may store the recovered fault data chunk in a memory block of the recovery memory pool (230) allocated for the recovery request, and then transmit the recovered fault data chunk to be distributed to the storage (180).

일 실시 예에서, 디스크 리커버리 모듈(145)은, 데이터 청크의 복구가 완료됨에 기반하여, 리커버리 요청을 위해 할당된 리커버리 메모리 풀(230)의 메모리 블록을 할당 해제할 수 있다. 예를 들면, 디스크 리커버리 모듈(145)은, 데이터 청크의 복구가 완료됨을 나타내는 신호를, 메모리 풀 관리 모듈(160)에 전달할 수 있다. 일 실시 예에서, 메모리 풀 관리 모듈(160)은, 신호에 기반하여, 리커버리 요청을 위해 할당된 리커버리 메모리 풀(230)의 메모리 블록을 할당 해제할 수 있다. 일 실시 예에서, 할당 해제된 메모리 블록은, 디스크 리커버리 모듈(145)의 리커버리 요청 및/또는 요청 처리 모듈(147)의 사용자 요청을 처리하기 위해 다시 이용될 수 있다. 예를 들면, 다른 리커버리 요청 및/또는 다른 사용자 요청을 처리하기 위해 할당되는 메모리 블록의 크기는, 메모리 블록의 크기(또는, 데이터 블록의 크기)(또는, 데이터 청크의 크기)의 정수배일 수 있다.In one embodiment, the disk recovery module (145) may deallocate a memory block of the recovery memory pool (230) allocated for a recovery request based on the completion of recovery of the data chunk. For example, the disk recovery module (145) may transmit a signal indicating that recovery of the data chunk is completed to the memory pool management module (160). In one embodiment, the memory pool management module (160) may deallocate a memory block of the recovery memory pool (230) allocated for a recovery request based on the signal. In one embodiment, the deallocated memory block may be reused to process a recovery request of the disk recovery module (145) and/or a user request of the request processing module (147). For example, the size of a memory block allocated to process another recovery request and/or another user request may be an integer multiple of the size of the memory block (or the size of the data block) (or the size of the data chunk).

사용자 요청에 따른 태스크Tasks based on user requests

일 실시 예에서, 요청 처리 모듈(147)은, 포어라운드에서 동작할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 사용자 요청을 처리하기 위해 프로세서(120)에 의해 실행될 수 있다.In one embodiment, the request processing module (147) may operate in the foreground. In one embodiment, the request processing module (147) may be executed by the processor (120) to process a user request.

일 실시 예에서, 요청 처리 모듈(147)은, 사용자 요청을 식별할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 통신 회로(130)를 통해 전자 장치(103)로부터 수신되는 사용자 요청을 식별할 수 있다. 예를 들면, 사용자 요청은, 데이터의 저장, 및/또는 데이터의 읽기를 포함할 수 있다. 예를 들면, 데이터의 저장은, 멀티미디어 콘텐츠(예: 이미지, 영상)의 저장을 포함할 수 있다. 예를 들면, 데이터의 읽기는, 멀티미디어 콘텐츠의 스트리밍을 포함할 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the request processing module (147) may identify a user request. For example, the request processing module (147) may identify a user request received from the electronic device (103) via the communication circuit (130). For example, the user request may include storing data and/or reading data. For example, storing data may include storing multimedia content (e.g., images, videos). For example, reading data may include streaming multimedia content. However, the present invention is not limited thereto.

일 실시 예에서, 요청 처리 모듈(147)은, 사용자 요청에 따른 태스크를 처리하기 위해, 사용자 요청(또는, 사용자 요청의 식별 정보)(또는, 태스크)(또는, 태스크의 식별 정보)를 리퀘스트 큐(240, 270)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 사용자 요청을 리퀘스트 큐(240, 270)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 사용자 요청에 따른 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 지정된 코딩 기법에 따라 인코딩 또는 디코딩을 위해 필요한 데이터 청크의 개수일 수 있다. 예를 들면, 사용자 요청에 따른 태스크를 처리하기 위해 필요한 메모리 블록들의 개수는 N+K일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the request processing module (147) may input (or enqueue) (or push) a user request (or identification information of the user request) (or a task) (or identification information of the task) into the request queue (240, 270) to process a task according to a user request. In one embodiment, the request processing module (147) may input (or enqueue) (or push) a user request including information on the number of memory blocks required to process the task into the request queue (240, 270). For example, the number of memory blocks required to process the task according to the user request may be the number of data chunks required for encoding or decoding according to a specified coding technique. For example, the number of memory blocks required to process the task according to the user request may be N+K. However, the present invention is not limited thereto.

일 실시 예에서, 요청 처리 모듈(147)은, 리퀘스트 큐들(240, 270) 중 하나의 리퀘스트 큐에 사용자 요청을 입력할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 리퀘스트 큐들(240, 270) 각각의 상위 큐(예: 리커버리 큐(231), 또는 힐 큐(261))에 추가된 요청들의 개수에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 리퀘스트 큐들(240, 270) 각각에 추가된 요청들의 개수에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 리퀘스트 큐들(240, 270) 각각의 예상되는 대기 시간에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 리퀘스트 큐들(240, 270) 각각의 예상되는 대기 시간 중 가장 짧은 대기 시간을 가지는 리퀘스트 큐를 사용자 요청을 입력할 리퀘스트 큐로 식별할 수 있다. 예를 들면, 예상되는 대기 시간은, 먼저 처리되어야 하는 요청들의 개수 및 요청들 각각의 예상 처리 시간을 곱한 값일 수 있다. 먼저 처리되어야 하는 요청들은 상위 큐(예: 리커버리 큐(231), 또는 힐 큐(261))에 추가된 요청들을 포함할 수 있다. 먼저 처리되어야 하는 요청들은 리퀘스트 큐들(240, 270) 각각에 먼저 추가된 요청들을 포함할 수 있다. 실시 예에 따라, 리퀘스트 큐(240)가 복수의 리퀘스트 큐들(241, 243, 245)을 포함하는 경우, 요청 처리 모듈(147)은, (동일한 우선 순위를 가지는) 복수의 리퀘스트 큐들(241, 243, 245) 간의 처리 순서(예: 라운드 로빈 방식에 따른 순서)에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 실시 예에 따라, 리퀘스트 큐(270)가 복수의 리퀘스트 큐들(271, 273, 275)을 포함하는 경우, 요청 처리 모듈(147)은, 복수의 리퀘스트 큐들(271, 273, 275) 간의 처리 순서(예: 라운드 로빈 방식에 따른 순서)에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the request processing module (147) may input a user request into one of the request queues (240, 270). For example, the request processing module (147) may identify a request queue into which the user request is to be input based on the number of requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)) of each of the request queues (240, 270). For example, the request processing module (147) may identify a request queue into which the user request is to be input based on the number of requests added to each of the request queues (240, 270). For example, the request processing module (147) may identify a request queue into which the user request is to be input based on an expected waiting time of each of the request queues (240, 270). For example, the request processing module (147) may identify the request queue with the shortest expected waiting time among the request queues (240, 270) as the request queue into which the user request will be input. For example, the expected waiting time may be a value obtained by multiplying the number of requests to be processed first by the expected processing time of each request. The requests to be processed first may include requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)). The requests to be processed first may include requests added first to each of the request queues (240, 270). According to an embodiment, when the request queue (240) includes a plurality of request queues (241, 243, 245), the request processing module (147) may identify a request queue into which a user request is to be input based on a processing order (e.g., a round-robin order) among the plurality of request queues (241, 243, 245) (having the same priority). According to an embodiment, when the request queue (270) includes a plurality of request queues (271, 273, 275), the request processing module (147) may identify a request queue into which a user request is to be input based on a processing order (e.g., a round-robin order) among the plurality of request queues (271, 273, 275). However, the present invention is not limited thereto.

일 실시 예에서, 전자 장치(103)의 사용자 요청은 복수의 리퀘스트 큐들(241, 243, 245) 및 복수의 리퀘스트 큐들(271, 273, 275) 중 한 쌍의 리퀘스트 큐들(예: 241 및 271, 243 및 273 또는 245 및 275) 중에서 선택된 리퀘스트 큐에 입력될 수 있다. 예를 들면, 제1 리퀘스트 큐 쌍은, 제1 종류의 전자 장치들에게 할당된 리퀘스트 큐들(241 및 271)을 포함할 수 있다. 예를 들면, 제2 리퀘스트 큐 쌍은, 제2 종류의 전자 장치들에게 할당된 리퀘스트 큐들(243 및 273)을 포함할 수 있다. 예를 들면, 제3 리퀘스트 큐 쌍은, 제3 종류의 전자 장치들에게 할당된 리퀘스트 큐들(245 및 275)을 포함할 수 있다. 종류는, 지역적 구분, 및/또는 사용자 계정의 등급(예: 요금 플랜))에 따라 구분될 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, a user request of the electronic device (103) may be input to a request queue selected from among a plurality of request queues (241, 243, 245) and a pair of request queues (e.g., 241 and 271, 243 and 273, or 245 and 275) from among a plurality of request queues (271, 273, 275). For example, a first request queue pair may include request queues (241 and 271) assigned to a first type of electronic devices. For example, a second request queue pair may include request queues (243 and 273) assigned to a second type of electronic devices. For example, a third request queue pair may include request queues (245 and 275) assigned to a third type of electronic devices. Types may be distinguished by, but are not limited to, regional distinctions, and/or user account tiers (e.g., fee plans).

일 실시 예에서, 요청 처리 모듈(147)은, 리퀘스트 큐(240, 270)에 추가된 사용자 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 사용자 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 사용자 요청의 처리 순서를 식별할 수 있다. In one embodiment, the request processing module (147) can identify the processing order of user requests added to the request queue (240, 270). In one embodiment, the request processing module (147) can identify the processing order of user requests based on the input order (or first-in, first-out) of the user requests.

일 실시 예에서, 요청 처리 모듈(147)은, 리퀘스트 큐(240)에 추가된 사용자 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 사용자 요청을 처리하기 위한 리커버리 메모리 풀(230)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 리커버리 큐(231)의 리커버리 요청이 모두 처리된 후, 사용자 요청을 처리하기 위한 리커버리 메모리 풀(230)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 필요한 메모리 블록들의 개수만큼의 리커버리 메모리 풀(230)의 메모리 블록들이 할당됨을 식별할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 메모리 풀 관리 모듈(160)로부터 메모리 블록들이 할당됨을 나타내는 신호를 수신함에 기반하여, 리커버리 메모리 풀(230), 또는 루트 메모리 풀(250) 중 어느 한 메모리 풀의 메모리 블록들이 할당됨을 식별할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 메모리 풀 관리 모듈(160)로부터 메모리 블록들이 할당됨을 나타내는 신호를 수신함에 기반하여, 사용자 요청이 추가된 큐에 연관된 메모리 풀의 메모리 블록들이 할당됨을 식별할 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the request processing module (147) can identify that a memory block of the recovery memory pool (230) for processing a user request is allocated based on the input order (or first-in, first-out) of the user requests added to the request queue (240). In one embodiment, the request processing module (147) can identify that a memory block of the recovery memory pool (230) for processing a user request is allocated after all recovery requests of the recovery queue (231) are processed. In one embodiment, the request processing module (147) can identify that as many memory blocks of the recovery memory pool (230) as the number of required memory blocks are allocated. For example, the request processing module (147) may identify that memory blocks of one of the recovery memory pool (230) or the root memory pool (250) are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. For example, the request processing module (147) may identify that memory blocks of a memory pool associated with a queue to which a user request has been added are allocated based on receiving a signal from the memory pool management module (160) indicating that memory blocks are allocated. However, the present invention is not limited thereto.

일 실시 예에서, 요청 처리 모듈(147)은, 리퀘스트 큐(270)에 추가된 사용자 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 사용자 요청을 처리하기 위한 루트 메모리 풀(250)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 힐 큐(261)의 리커버리 요청이 모두 처리된 후, 사용자 요청을 처리하기 위한 루트 메모리 풀(250)의 메모리 블록이 할당됨을 식별할 수 있다. 일 실시 예에서, 요청 처리 모듈(147)은, 필요한 메모리 블록들의 개수만큼의 루트 메모리 풀(250)의 메모리 블록들이 할당됨을 식별할 수 있다.In one embodiment, the request processing module (147) may identify that a memory block of the root memory pool (250) for processing a user request is allocated based on the input order (or first-in, first-out) of the user requests added to the request queue (270). In one embodiment, the request processing module (147) may identify that a memory block of the root memory pool (250) for processing a user request is allocated after all recovery requests of the heal queue (261) are processed. In one embodiment, the request processing module (147) may identify that as many memory blocks of the root memory pool (250) as the number of required memory blocks are allocated.

일 실시 예에서, 요청 처리 모듈(147)은, 리커버리 메모리 풀(230) 또는 루트 메모리 풀(250)의 메모리 블록이 사용자 요청을 위해 할당됨에 기반하여, 사용자 요청을 처리할 수 있다. 이하에서, 사용자 요청의 처리는 도 3a 및 도 3b를 참조하여 설명될 수 있다. In one embodiment, the request processing module (147) may process a user request based on whether a memory block of the recovery memory pool (230) or the root memory pool (250) is allocated for the user request. Hereinafter, processing of a user request may be described with reference to FIGS. 3A and 3B.

일 실시 예에서, 요청 처리 모듈(147)은, 사용자 요청을 처리가 완료됨에 기반하여, 사용자 요청을 위해 할당된 리커버리 메모리 풀(230) 또는 루트 메모리 풀(250)의 메모리 블록을 할당 해제할 수 있다. 일 실시 예에서, 할당 해제된 메모리 블록은, 디스크 리커버리 모듈(145)의 리커버리 요청, 데이터 힐 모듈(143)의 힐 요청, 및/또는 요청 처리 모듈(147)의 사용자 요청을 처리하기 위해 다시 이용될 수 있다. 예를 들면, 할당 해제된 메모리 블록이 리커버리 메모리 풀(230)의 메모리 블록인 경우, 할당 해제된 메모리 블록은, 리커버리 요청, 및/또는 사용자 요청을 처리하기 위해 다시 이용될 수 있다. 예를 들면, 할당 해제된 메모리 블록이 루트 메모리 풀(250)의 메모리 블록인 경우, 할당 해제된 메모리 블록은, 힐 요청, 및/또는 사용자 요청을 처리하기 위해 다시 이용될 수 있다.In one embodiment, the request processing module (147) may deallocate a memory block of the recovery memory pool (230) or the root memory pool (250) allocated for the user request based on the completion of processing the user request. In one embodiment, the deallocated memory block may be reused to process a recovery request of the disk recovery module (145), a heal request of the data heal module (143), and/or a user request of the request processing module (147). For example, if the deallocated memory block is a memory block of the recovery memory pool (230), the deallocated memory block may be reused to process the recovery request and/or the user request. For example, if the deallocated memory block is a memory block of the root memory pool (250), the deallocated memory block may be reused to process the heal request and/or the user request.

상술한 바와 같은, 서버(101)는, 이레이저 코딩을 통해, 데이터의 복구(또는, 데이터의 내구성)을 위해 필요한 데이터의 저장 공간을 절약할 수 있다. 예를 들면, 서버(101)는, 이레이저 코딩을 통해 생성되는 패리티만을 추가로 저장함으로써, 데이터의 복사본을 저장할 때보다 적은 저장 공간이 요구될 수 있다. As described above, the server (101) can save data storage space required for data recovery (or data durability) through erasure coding. For example, by additionally storing only the parity generated through erasure coding, the server (101) may require less storage space than when storing copies of data.

상술한 바와 같은, 서버(101)는, 데이터 청크의 크기와 메모리 블록의 크기를 일치시킴으로써, 처리 요청된 데이터 청크의 개수만큼 메모리 블록들을 이용할 수 있다. 이에 따라, 서버(101)는, 낭비되는 메모리 자원을 감소시킬 수 있다. As described above, the server (101) can utilize memory blocks equal to the number of data chunks requested for processing by matching the size of the data chunks with the size of the memory blocks. Accordingly, the server (101) can reduce wasted memory resources.

상술한 바와 같은, 서버(101)는, 시스템의 태스크(예: 리커버리, 힐, 스캔)를 사용자 요청에 따른 태스크보다 먼저 처리함으로써, 서버(101)의 내구성을 높일 수 있다. 또한, 서버(101)는, 시스템의 태스크(예: 리커버리, 힐, 스캔)를 처리하기 위한 메모리 영역에서 사용자 요청에 따른 태스크를 처리함으로써, 시스템의 태스크의 개수에 따라, 사용자 요청의 처리량이 조절될 수 있다. As described above, the server (101) can increase the durability of the server (101) by processing system tasks (e.g., recovery, healing, scanning) before tasks according to user requests. In addition, the server (101) can process tasks according to user requests in a memory area for processing system tasks (e.g., recovery, healing, scanning), so that the processing capacity of user requests can be adjusted according to the number of system tasks.

도 3a는, 일 실시 예에 따른, 서버가 데이터를 인코딩하는 동작의 일 예를 도시한다.FIG. 3A illustrates an example of an operation of a server encoding data, according to one embodiment.

일 실시 예에서, 요청 처리 모듈(147)은 통신 회로(130)를 통해 전자 장치(103)로부터 데이터(310)의 저장을 위한 사용자 요청을 획득할 수 있다. In one embodiment, the request processing module (147) may obtain a user request for storage of data (310) from the electronic device (103) via the communication circuit (130).

일 실시 예에서, 요청 처리 모듈(147)은, 메모리 풀(170)의 메모리 영역이 할당됨에 기반하여, 코딩 모듈(150)에게 데이터(310)의 인코딩을 요청할 수 있다. 예를 들면, 사용자 요청에 따른 데이터(310)의 인코딩을 위해 할당되는 메모리 풀(170)의 메모리 영역(320, 330)은 리커버리 메모리 풀(230)에 포함될 수 있다. 예를 들면, 데이터(310)의 인코딩을 위해 할당되는 메모리 풀(170)의 메모리 영역(320, 330)은 루트 메모리 풀(250)에 포함될 수 있다. 예를 들면, 데이터(310)의 인코딩을 위해 할당되는 메모리 풀(170)의 메모리 영역(320, 330)은 N+K개의 메모리 블록들의 크기에 대응할 수 있다. In one embodiment, the request processing module (147) may request the coding module (150) to encode data (310) based on the allocation of the memory area of the memory pool (170). For example, the memory area (320, 330) of the memory pool (170) allocated for encoding data (310) according to a user request may be included in the recovery memory pool (230). For example, the memory area (320, 330) of the memory pool (170) allocated for encoding data (310) may be included in the root memory pool (250). For example, the memory area (320, 330) of the memory pool (170) allocated for encoding data (310) may correspond to the size of N+K memory blocks.

일 실시 예에서, 코딩 모듈(150)의 인코더(151)는, 요청 처리 모듈(147)로부터의 요청에 응답하여, 코딩 기법(예: 이레이저 코딩 기법)에 기반하여, 데이터(310)를 인코딩할 수 있다. 일 실시 예에서, 코딩 모듈(150)의 인코더(151)는, 지정된 코드(예: RS(reed-Solomon) 코드)에 기반하여, 데이터(310)를 인코딩할 수 있다. 일 실시 예에서, 인코더(151)는, 데이터(310)를 N개의 데이터 조각들(또는, 데이터 청크들)(311, 313, 315)로 분할하고, 분할된 N개의 데이터 조각들(또는, 데이터 청크들)(311, 313, 315)을 지정된 코드에 기반하여 N+K개의 데이터 조각들(또는, 데이터 청크들)(321, 323, 325, 331, 335)로 인코딩할 수 있다. 일 실시 예에서, K개의 데이터 조각들은, 패리티 조각으로 지칭될 수 있다. 일 실시 예에서, 데이터 조각들의 크기는 서로 동일할 수 있다. 예를 들면, 데이터 조각들의 크기는 1 내지 5 메가바이트 사이의 크기를 가질 수 있다. 예를 들면, N, K는 자연수이고, K는 N 이하일 수 있다. 예를 들면, N은 6이고, K는 3일 수 있다. 하지만 이에 제한되지 않는다. 이레이저 코딩 기법을 위한 코드는 RS 코드에 국한되는 것은 아니다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드는 해밍 코드, BCH(Bose-Chaudhuri-Hocquenghem) 코드, 또는 저밀도 패리티 검사(low-density parity check, LDPC) 코드를 포함할 수 있다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드는 (선형) 블록 코드의 성질을 가지는 코드일 수 있다. 하지만 이에 제한되지 않는다.In one embodiment, the encoder (151) of the coding module (150) may encode data (310) based on a coding technique (e.g., erasure coding technique) in response to a request from the request processing module (147). In one embodiment, the encoder (151) of the coding module (150) may encode data (310) based on a specified code (e.g., RS (Reed-Solomon) code). In one embodiment, the encoder (151) may divide the data (310) into N data pieces (or data chunks) (311, 313, 315), and encode the divided N data pieces (or data chunks) (311, 313, 315) into N+K data pieces (or data chunks) (321, 323, 325, 331, 335) based on a specified code. In one embodiment, the K data pieces may be referred to as parity pieces. In one embodiment, the sizes of the data pieces may be the same. For example, the sizes of the data pieces may be between 1 and 5 megabytes. For example, N and K are natural numbers, and K may be less than or equal to N. For example, N may be 6, and K may be 3. However, the present invention is not limited thereto. The code for erasure coding is not limited to RS code. Depending on the embodiment, the code for erasure coding may include a Hamming code, a Bose-Chaudhuri-Hocquenghem (BCH) code, or a low-density parity check (LDPC) code. Depending on the embodiment, the code for erasure coding may be a code having the properties of a (linear) block code. However, the present invention is not limited thereto.

예를 들면, N개의 데이터 조각들(321, 323, 325) 각각은, N개의 데이터 조각들(311, 313, 315)에 각각 대응할 수 있다. 예를 들면, 데이터 조각(321)은, 데이터 조각(311)에 대응하고, 데이터 조각(323)은, 데이터 조각(313)에 대응하고, 데이터 조각(325)은, 데이터 조각(315)에 대응할 수 있다. For example, each of N data fragments (321, 323, 325) may correspond to N data fragments (311, 313, 315), respectively. For example, data fragment (321) may correspond to data fragment (311), data fragment (323) may correspond to data fragment (313), and data fragment (325) may correspond to data fragment (315).

일 실시 예에서, 요청 처리 모듈(147)은, N+K개의 데이터 조각들(321, 323, 325, 331, 335)을 스토리지(180)의 서로 다른 서브 스토리지들(341, 343, 345, 347, 359)에 (분산) 저장할 수 있다. 예를 들면, 요청 처리 모듈(147)은, 데이터 조각(321)을, 서브 스토리지(341)에 저장하고, 데이터 조각(323)을, 서브 스토리지(343)에 저장하고, 데이터 조각(325)을, 서브 스토리지(345)에 저장하고, 데이터 조각(331)을, 서브 스토리지(347)에 저장하고, 데이터 조각(335)을, 서브 스토리지(349)에 저장할 수 있다. 일 실시 예에서, 서브 스토리지들(341, 343, 345, 347, 359)은, 서버(101) 내에서 분산적으로 배열된 스토리지일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the request processing module (147) can (distributely) store N+K data fragments (321, 323, 325, 331, 335) in different sub-storages (341, 343, 345, 347, 359) of the storage (180). For example, the request processing module (147) can store the data fragment (321) in the sub-storage (341), store the data fragment (323) in the sub-storage (343), store the data fragment (325) in the sub-storage (345), store the data fragment (331) in the sub-storage (347), and store the data fragment (335) in the sub-storage (349). In one embodiment, the sub-storages (341, 343, 345, 347, 359) may be storages arranged in a distributed manner within the server (101), but are not limited thereto.

일 실시 예에서, 요청 처리 모듈(147)은, N+K개의 데이터 조각들(321, 323, 325, 331, 335)의 위치 정보를, 메타 데이터 데이터베이스(190)에 저장할 수 있다. In one embodiment, the request processing module (147) may store location information of N+K data pieces (321, 323, 325, 331, 335) in the metadata database (190).

도 3b는, 일 실시 예에 따른, 서버가 데이터를 디코딩하는 동작의 일 예를 도시한다.FIG. 3b illustrates an example of an operation of a server decoding data, according to one embodiment.

일 실시 예에서, 요청 처리 모듈(147)은 통신 회로(130)를 통해 전자 장치(103)로부터 데이터(310)의 저장을 위한 사용자 요청을 획득할 수 있다. In one embodiment, the request processing module (147) may obtain a user request for storage of data (310) from the electronic device (103) via the communication circuit (130).

일 실시 예에서, 요청 처리 모듈(147)은, 메모리 풀(170)의 메모리 영역이 할당됨에 기반하여, 코딩 모듈(150)에게 데이터 조각들(321, 323, 325, 331, 335)의 디코딩을 요청할 수 있다. In one embodiment, the request processing module (147) may request the coding module (150) to decode data fragments (321, 323, 325, 331, 335) based on the memory area of the memory pool (170) being allocated.

일 실시 예에서, 요청 처리 모듈(147)은, 코딩 모듈(150)에게 스토리지(180)의 서로 다른 서브 스토리지들(341, 343, 345, 347, 359)에 (분산) 저장된 N+K개의 데이터 조각들(321, 323, 325, 331, 335)의 디코딩을 요청할 수 있다. 일 실시 예에서, 데이터 조각들(321, 323, 325, 331, 335)의 위치 정보는 메타 데이터 데이터베이스(190)에 저장될 수 있다. In one embodiment, the request processing module (147) may request the coding module (150) to decode N+K data fragments (321, 323, 325, 331, 335) that are (distributedly) stored in different sub-storages (341, 343, 345, 347, 359) of the storage (180). In one embodiment, the location information of the data fragments (321, 323, 325, 331, 335) may be stored in the metadata database (190).

예를 들면, 사용자 요청에 따른 데이터 조각들(321, 323, 325, 331, 335)의 디코딩을 위해 할당되는 메모리 풀(170)의 메모리 영역(320, 330)은 리커버리 메모리 풀(230)에 포함될 수 있다. 예를 들면, 데이터 조각들(321, 323, 325, 331, 335)의 디코딩을 위해 할당되는 메모리 풀(170)의 메모리 영역(320, 330)은 루트 메모리 풀(250)에 포함될 수 있다. 예를 들면, 데이터 조각들(321, 323, 325, 331, 335)의 디코딩을 위해 할당되는 메모리 풀(170)의 메모리 영역(320, 330)의 크기는 N+K개의 메모리 블록들의 크기에 대응할 수 있다. For example, the memory area (320, 330) of the memory pool (170) allocated for decoding data fragments (321, 323, 325, 331, 335) according to a user request may be included in the recovery memory pool (230). For example, the memory area (320, 330) of the memory pool (170) allocated for decoding data fragments (321, 323, 325, 331, 335) may be included in the root memory pool (250). For example, the size of the memory area (320, 330) of the memory pool (170) allocated for decoding data fragments (321, 323, 325, 331, 335) may correspond to the size of N+K memory blocks.

일 실시 예에서, 코딩 모듈(150)의 디코더(155)는, 요청 처리 모듈(147)로부터의 요청에 응답하여, 코딩 기법(예: 이레이저 코딩 기법)에 기반하여, 데이터 조각들(321, 323, 325, 331, 335)을 디코딩할 수 있다. 일 실시 예에서, 코딩 모듈(150)의 디코더(155)는, 지정된 코드(예: RS(reed-Solomon) 코드)에 기반하여, 데이터 조각들(321, 323, 325, 331, 335)을 디코딩할 수 있다. 일 실시 예에서, 디코더(155)는, N+K개의 데이터 조각들(321, 323, 325, 331, 335)을 지정된 코드에 기반하여 N개의 데이터 조각들(또는, 데이터 청크들)(311, 313, 315)로 디코딩할 수 있다. 일 실시 예에서, K개의 데이터 조각들은, 패리티 조각으로 지칭될 수 있다. 일 실시 예에서, 데이터 조각들의 크기는 서로 동일할 수 있다. 예를 들면, 데이터 조각들의 크기는 1 내지 5 메가바이트 사이의 크기를 가질 수 있다. 예를 들면, N, K는 자연수이고, K는 N 이하일 수 있다. 예를 들면, N은 6이고, K는 3일 수 있다. 하지만 이에 제한되지 않는다. 이레이저 코딩 기법을 위한 코드는 RS 코드에 국한되는 것은 아니다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드는 해밍 코드, BCH(Bose-Chaudhuri-Hocquenghem) 코드, 또는 저밀도 패리티 검사(LDPC) 코드를 포함할 수 있다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드는 (선형) 블록 코드의 성질을 가지는 코드일 수 있다. 하지만 이에 제한되지 않는다. In one embodiment, the decoder (155) of the coding module (150) can decode data fragments (321, 323, 325, 331, 335) based on a coding technique (e.g., erasure coding technique) in response to a request from the request processing module (147). In one embodiment, the decoder (155) of the coding module (150) can decode data fragments (321, 323, 325, 331, 335) based on a specified code (e.g., RS (Reed-Solomon) code). In one embodiment, the decoder (155) can decode N+K data fragments (321, 323, 325, 331, 335) into N data fragments (or data chunks) (311, 313, 315) based on a designated code. In one embodiment, the K data fragments can be referred to as parity fragments. In one embodiment, the sizes of the data fragments can be the same. For example, the sizes of the data fragments can be between 1 and 5 megabytes. For example, N and K are natural numbers, and K can be less than or equal to N. For example, N can be 6, and K can be 3. However, the present invention is not limited thereto. The code for the erasure coding technique is not limited to the RS code. According to an embodiment, the code for erasure coding may include a Hamming code, a Bose-Chaudhuri-Hocquenghem (BCH) code, or a Low-Density Parity Check (LDPC) code. According to an embodiment, the code for erasure coding may be a code having the properties of a (linear) block code, but is not limited thereto.

일 실시 예에서, 디코더(155)는, N+K개의 데이터 조각들(321, 323, 325, 331, 335) 중 K개 이하의 데이터 조각들에서 오류가 발생한 경우, 오류가 발생하지 않은 나머지 데이터 조각들(이하, 정상 데이터 조각)을 원본 데이터(또는, N개의 데이터 조각들(311, 313, 315)로 복구(또는, 디코딩)할 수 있다. 하지만 이에 제한되지 않는다. 실시 예에 따라, 이레이저 코딩 기법을 위한 코드에 따라 오류 정정 능력(또는, 오류 검출 능력)이 달라질 수 있다. In one embodiment, when an error occurs in K or fewer data pieces among N+K data pieces (321, 323, 325, 331, 335), the decoder (155) can recover (or decode) the remaining data pieces (hereinafter, normal data pieces) in which no error occurred into the original data (or N data pieces (311, 313, 315). However, the present invention is not limited thereto. Depending on the embodiment, the error correction capability (or error detection capability) may vary depending on the code for the erasure coding technique.

도 4는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 4 is a flowchart illustrating the operation of a server according to one embodiment.

도 4는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다. Figure 4 can be described with reference to Figures 1 through 3b. In the following embodiments, the operations may be performed sequentially, but are not necessarily performed sequentially. For example, the order of the operations may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 410 내지 430은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다.According to one embodiment, operations 410 to 430 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 4를 참조하면, 일 실시 예에서, 동작 410에서, 서버(101)는, 요청을 식별할 수 있다. 일 실시 예에서, 요청은, 사용자 요청, 리커버리 요청, 힐 요청, 또는 스캔 요청일 수 있다. Referring to FIG. 4, in one embodiment, at operation 410, the server (101) may identify a request. In one embodiment, the request may be a user request, a recovery request, a heal request, or a scan request.

예를 들면, 서버(101)는, 스토리지(180)에 저장된 모든 데이터 청크들의 상태를 확인하기 위해 반복적으로 발생하는 스캔 이벤트를 스캔 요청으로 식별할 수 있다. 예를 들면, 서버(101)는, 손상 데이터 청크가 존재함에 기반하여, 힐 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 스토리지(180)가 교체됨에 기반하여, 리커버리 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 통신 회로(130)를 통해 전자 장치(103)로부터 사용자 요청을 획득할 수 있다. For example, the server (101) may identify a scan event that occurs repeatedly to check the status of all data chunks stored in the storage (180) as a scan request. For example, the server (101) may identify a heal request based on the presence of a damaged data chunk. For example, the server (101) may identify a recovery request based on the replacement of the storage (180). For example, the server (101) may obtain a user request from the electronic device (103) via the communication circuit (130).

동작 420에서, 일 실시 예에서, 서버(101)는, 요청에 대한 메모리를 할당할 수 있다. 예를 들면, 서버(101)는, 요청에 대응하는 큐가 연관된 메모리 풀에서 적어도 하나의 메모리 블록들을 요청을 위해 할당할 수 있다. 예를 들면, 서버(101)는, 요청의 순번이 도래함에 기반하여, 요청에 대응하는 큐가 연관된 메모리 풀에서 적어도 하나의 메모리 블록들을 요청을 위해 할당할 수 있다.In operation 420, in one embodiment, the server (101) may allocate memory for the request. For example, the server (101) may allocate at least one memory block from a memory pool associated with a queue corresponding to the request for the request. For example, the server (101) may allocate at least one memory block from a memory pool associated with a queue corresponding to the request for the request based on the arrival of the request's order.

예를 들면, 서버(101)는, 스캔 요청에 기반하여, 스캔 큐(211)에 연관된 스캔 메모리 풀(210)의 메모리 블록들을 스캔 요청을 위해 할당할 수 있다. 예를 들면, 서버(101)는, 힐 요청에 기반하여, 힐 큐(261)에 연관된 루트 메모리 풀(250)의 메모리 블록들을 힐 요청을 위해 할당할 수 있다. 예를 들면, 서버(101)는, 리커버리 요청에 기반하여, 리커버리 큐(231)에 연관된 리커버리 메모리 풀(230)의 메모리 블록들을 리커버리 요청을 위해 할당할 수 있다. 예를 들면, 서버(101)는, 사용자 요청에 기반하여, 리퀘스트 큐들(240, 270)에 연관된 리커버리 메모리 풀(230) 또는 루트 메모리 풀(250)의 메모리 블록들을 사용자 요청을 위해 할당할 수 있다.For example, the server (101) may allocate memory blocks of the scan memory pool (210) associated with the scan queue (211) for the scan request based on a scan request. For example, the server (101) may allocate memory blocks of the root memory pool (250) associated with the heal queue (261) for the heal request based on a heal request. For example, the server (101) may allocate memory blocks of the recovery memory pool (230) associated with the recovery queue (231) for the recovery request based on a recovery request. For example, the server (101) may allocate memory blocks of the recovery memory pool (230) or the root memory pool (250) associated with the request queues (240, 270) for the user request based on a user request.

동작 430에서, 일 실시 예에서, 서버(101)는, 할당된 메모리에 기반하여 요청을 처리할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 요청을 위해 할당된 메모리 블록을 이용하여, 데이터 청크의 손상 여부(또는, 무결성)를 확인할 수 있다. 일 실시 예에서, 서버(101)는, 힐 요청을 위해 할당된 메모리 블록을 이용하여, 손상된 데이터 청크를 복구할 수 있다. 일 실시 예에서, 서버(101)는, 리커버리 요청을 위해 할당된 메모리 블록을 이용하여, 고장 데이터 청크를 복원할 수 있다. 일 실시 예에서, 서버(101)는, 사용자 요청을 위해 할당된 메모리 블록을 이용하여, 데이터를 저장(또는, 인코딩 후 저장) 또는 리드(또는 리드 후 디코딩)할 수 있다. In operation 430, in one embodiment, the server (101) can process the request based on the allocated memory. In one embodiment, the server (101) can use the memory block allocated for the scan request to check whether the data chunk is damaged (or has integrity). In one embodiment, the server (101) can use the memory block allocated for the heal request to repair the damaged data chunk. In one embodiment, the server (101) can use the memory block allocated for the recovery request to restore the faulty data chunk. In one embodiment, the server (101) can use the memory block allocated for the user request to store (or store after encoding) or read (or decode after reading) the data.

도 5a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 5A is a flowchart illustrating the operation of a server according to one embodiment.

도 5a는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 5a can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 510 내지 540은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다.According to one embodiment, operations 510 to 540 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 5a를 참조하면, 일 실시 예에서, 동작 510에서, 서버(101)는, 사용자 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 통신 회로(130)를 통해 전자 장치(103)로부터 수신되는 사용자 요청을 식별할 수 있다. 예를 들면, 사용자 요청은, 데이터의 저장, 및/또는 데이터의 읽기를 포함할 수 있다. 예를 들면, 데이터의 저장은, 멀티미디어 콘텐츠(예: 이미지, 영상)의 저장을 포함할 수 있다. 예를 들면, 데이터의 저장은, 사용자의 개인적인 데이터(예: 연락처, 문자 기록, 건강 상태, 및/또는 운동 기록)의 저장을 포함할 수 있다. 예를 들면, 데이터의 저장은, 서비스 로그 데이터, 및/또는 바이너리 파일(예: 스마트폰 펌웨어)을 포함할 수 있다. 예를 들면, 데이터의 읽기는, 멀티미디어 콘텐츠의 스트리밍을 포함할 수 있다. 예를 들면, 데이터의 읽기는, 사용자의 개인적인 데이터, 서비스 로그 데이터, 및/또는 바이너리 파일(예: 스마트폰 펌웨어)의 (복구를 위한) 읽기를 포함할 수 있다. 하지만 이에 제한되지 않는다.Referring to FIG. 5A, in one embodiment, at operation 510, the server (101) may identify a user request. For example, the server (101) may identify a user request received from the electronic device (103) via the communication circuit (130). For example, the user request may include storing data and/or reading data. For example, storing data may include storing multimedia content (e.g., images, videos). For example, storing data may include storing personal data of the user (e.g., contacts, text messages, health status, and/or exercise records). For example, storing data may include service log data and/or binary files (e.g., smartphone firmware). For example, reading data may include streaming multimedia content. For example, reading data may include reading (for recovery) personal data of the user, service log data, and/or binary files (e.g., smartphone firmware). However, the present invention is not limited thereto.

동작 520에서, 일 실시 예에서, 서버(101)는, 제1 리퀘스트 큐에 사용자 요청을 추가할지를 판별할 수 있다. 예를 들면, 제1 리퀘스트 큐는, 리퀘스트 큐(240)일 수 있다. 예를 들면, 제2 리퀘스트 큐는, 리퀘스트 큐(270)일 수 있다. In operation 520, in one embodiment, the server (101) may determine whether to add a user request to a first request queue. For example, the first request queue may be a request queue (240). For example, the second request queue may be a request queue (270).

예를 들면, 서버(101)는, 리퀘스트 큐들(240, 270) 각각의 상위 큐(예: 리커버리 큐(231), 또는 힐 큐(261))에 추가된 요청들의 개수에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 예를 들면, 서버(101)는, 리퀘스트 큐들(240, 270) 각각에 추가된 요청들의 개수에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 예를 들면, 서버(101)는, 리퀘스트 큐들(240, 270) 각각의 예상되는 대기 시간에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 예를 들면, 예상되는 대기 시간은, 먼저 처리되어야 하는 요청들의 개수 및 요청들 각각의 예상 처리 시간을 곱한 값일 수 있다. 먼저 처리되어야 하는 요청들은 상위 큐(예: 리커버리 큐(231), 또는 힐 큐(261))에 추가된 요청들을 포함할 수 있다. 먼저 처리되어야 하는 요청들은 리퀘스트 큐들(240, 270) 각각에 먼저 추가된 요청들을 포함할 수 있다. 실시 예에 따라, 리퀘스트 큐(240)가 복수의 리퀘스트 큐들(241, 243, 245)을 포함하는 경우, 서버(101)는, 복수의 리퀘스트 큐들(241, 243, 245) 간의 처리 순서(예: 라운드 로빈 방식에 따른 순서)에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 실시 예에 따라, 리퀘스트 큐(270)가 복수의 리퀘스트 큐들(271, 273, 275)을 포함하는 경우, 서버(101)는, 복수의 리퀘스트 큐들(271, 273, 275) 간의 처리 순서(예: 라운드 로빈 방식에 따른 순서)에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. 하지만 이에 제한되지 않는다.For example, the server (101) can identify a request queue into which a user request is to be input based on the number of requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)) of each of the request queues (240, 270). For example, the server (101) can identify a request queue into which a user request is to be input based on the number of requests added to each of the request queues (240, 270). For example, the server (101) can identify a request queue into which a user request is to be input based on an expected waiting time of each of the request queues (240, 270). For example, the expected waiting time may be a product of the number of requests to be processed first and the expected processing time of each of the requests. The requests to be processed first may include requests added to a higher queue (e.g., recovery queue (231) or heal queue (261)). Requests to be processed first may include requests that were first added to each of the request queues (240, 270). According to an embodiment, when the request queue (240) includes a plurality of request queues (241, 243, 245), the server (101) may identify a request queue into which a user request is to be input based on a processing order (e.g., a round-robin order) among the plurality of request queues (241, 243, 245). According to an embodiment, when the request queue (270) includes a plurality of request queues (271, 273, 275), the server (101) may identify a request queue into which a user request is to be input based on a processing order (e.g., a round-robin order) among the plurality of request queues (271, 273, 275). However, the present invention is not limited thereto.

동작 520에서, 제1 리퀘스트 큐에 사용자 요청을 추가하는 것으로 결정함에 기반하여, 서버(101)는 동작 530을 수행할 수 있다. 동작 520에서, 제2 리퀘스트 큐에 사용자 요청을 추가하는 것으로 결정함에 기반하여, 서버(101)는 동작 540을 수행할 수 있다.At operation 520, based on the determination to add the user request to the first request queue, the server (101) may perform operation 530. At operation 520, based on the determination to add the user request to the second request queue, the server (101) may perform operation 540.

동작 530에서, 일 실시 예에서, 서버(101)는, 제1 리퀘스트 큐에 사용자 요청을 추가할 수 있다. 일 실시 예에서, 서버(101)는, 사용자 요청에 따른 태스크를 처리하기 위해, 사용자 요청(또는, 사용자 요청의 식별 정보)(또는, 태스크)(또는, 태스크의 식별 정보)를 제1 리퀘스트 큐에 입력(또는, 인큐)(또는, 푸시)할 수 있다.In operation 530, in one embodiment, the server (101) may add a user request to a first request queue. In one embodiment, the server (101) may input (or enqueue) (or push) a user request (or identification information of the user request) (or a task) (or identification information of the task) to the first request queue to process a task according to the user request.

동작 540에서, 일 실시 예에서, 서버(101)는, 제2 리퀘스트 큐에 사용자 요청을 추가할 수 있다. 일 실시 예에서, 서버(101)는, 사용자 요청에 따른 태스크를 처리하기 위해, 사용자 요청(또는, 사용자 요청의 식별 정보)(또는, 태스크)(또는, 태스크의 식별 정보)를 제2 리퀘스트 큐에 입력(또는, 인큐)(또는, 푸시)할 수 있다.In operation 540, in one embodiment, the server (101) may add a user request to a second request queue. In one embodiment, the server (101) may input (or enqueue) (or push) a user request (or identification information of the user request) (or a task) (or identification information of the task) to the second request queue to process a task according to the user request.

도 5b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 5b is a flowchart illustrating the operation of a server according to one embodiment.

도 5b는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 5b can be described with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 550 내지 580은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다. 일 실시 예에 따르면, 도 5b의 동작들은, 도 5a의 동작들과 병렬적으로 수행될 수 있다. According to one embodiment, operations 550 to 580 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1). According to one embodiment, the operations of FIG. 5b may be performed in parallel with the operations of FIG. 5a.

도 5b를 참조하면, 동작 550에서, 일 실시 예에서, 서버(101)는, 리퀘스트 큐에 추가된 사용자 요청의 처리 순서인지를 판별할 수 있다. 일 실시 예에서, 서버(101)는, 사용자 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 사용자 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 서버(101)는, 리퀘스트 큐보다 우선하는 큐(예: 리커버리 큐(231), 힐 큐(261))의 태스크가 없는 경우(또는, 모두 처리된 경우), 사용자 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 사용자 요청의 처리 순서를 식별할 수 있다.Referring to FIG. 5B, in operation 550, in one embodiment, the server (101) can determine whether the processing order of the user requests added to the request queue is correct. In one embodiment, the server (101) can identify the processing order of the user requests based on the input order (or first-in, first-out) of the user requests. In one embodiment, the server (101) can identify the processing order of the user requests based on the input order (or first-in, first-out) of the user requests when there are no tasks in a queue (e.g., recovery queue (231), heal queue (261)) that has priority over the request queue (or when all tasks have been processed).

동작 550에서, 리퀘스트 큐에 추가된 사용자 요청을 처리하기 위한 순서가 도래함에 기반하여, 서버(101)는 동작 560을 수행할 수 있다. 동작 550에서, 리퀘스트 큐에 추가된 사용자 요청을 처리하기 위한 순서가 도래하지 않음에 기반하여, 서버(101)는 동작 550을 다시 수행할 수 있다.In operation 550, based on the arrival of the turn for processing the user request added to the request queue, the server (101) may perform operation 560. In operation 550, based on the arrival of the turn for processing the user request added to the request queue, the server (101) may perform operation 550 again.

동작 560에서, 일 실시 예에서, 서버(101)는, 사용자 요청에 대응하는 메모리를 할당할 수 있다. 일 실시 예에서, 서버(101)는, N+K개의 데이터 청크들의 크기에 대응하는 N+K개의 메모리 블록들의 메모리 영역을 사용자 요청을 처리하기 위해 할당할 수 있다. In operation 560, in one embodiment, the server (101) may allocate memory corresponding to a user request. In one embodiment, the server (101) may allocate a memory area of N+K memory blocks corresponding to the sizes of N+K data chunks to process the user request.

동작 570에서, 일 실시 예에서, 서버(101)는, 할당된 메모리에 기반하여 사용자 요청을 처리할 수 있다. 예를 들면, 서버(101)는, 할당된 메모리에 기반하여 사용자 요청에 따른 데이터를 인코딩할 수 있다. 예를 들면, 서버(101)는, N+K개의 인코딩된 데이터 청크들을 스토리지(180)에 분산 저장할 수 있다. In operation 570, in one embodiment, the server (101) may process a user request based on the allocated memory. For example, the server (101) may encode data according to the user request based on the allocated memory. For example, the server (101) may distribute and store N+K encoded data chunks in the storage (180).

예를 들면, 서버(101)는, 할당된 메모리에 기반하여 사용자 요청에 따른 데이터를 디코딩할 수 있다. 예를 들면, 서버(101)는, 스토리지(180)에 분산 저장된 N+K개의 데이터 청크들로부터 디코딩된 데이터를 통신 회로(130)를 통해 전자 장치(103)에게 송신할 수 있다. For example, the server (101) can decode data according to a user request based on the allocated memory. For example, the server (101) can transmit decoded data from N+K data chunks distributed and stored in the storage (180) to the electronic device (103) through the communication circuit (130).

동작 580에서, 일 실시 예에서, 서버(101)는, 할당된 메모리를 할당 해제할 수 있다. 예를 들면, 서버(101)는, 사용자 요청이 처리 완료됨에 기반하여, 할당된 메모리를 할당 해제할 수 있다. 예를 들면, 서버(101)는, 사용자 요청에 따른 데이터가 인코딩된 후 스토리지(180)에 저장됨에 기반하여, 할당된 메모리를 할당 해제할 수 있다. 예를 들면, 서버(101)는, 사용자 요청에 따른 데이터가 디코딩된 후 전자 장치(103)에게 송신됨에 기반하여, 할당된 메모리를 할당 해제할 수 있다.In operation 580, in one embodiment, the server (101) may deallocate allocated memory. For example, the server (101) may deallocate allocated memory based on the completion of processing a user request. For example, the server (101) may deallocate allocated memory based on the data according to the user request being encoded and then stored in the storage (180). For example, the server (101) may deallocate allocated memory based on the data according to the user request being decoded and then transmitted to the electronic device (103).

도 6a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 6A is a flowchart illustrating the operation of a server according to one embodiment.

도 6a는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 6a can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 610 및 620은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다. According to one embodiment, operations 610 and 620 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 6a를 참조하면, 일 실시 예에서, 동작 610에서, 서버(101)는, 리커버리 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 스토리지(180)의 교체를 식별함에 기반하여, 리커버리 요청을 식별(또는, 생성)할 수 있다. 예를 들면, 서버(101)는, 스토리지(180)가 교체됨을 나타내는 신호를 획득함에 기반하여, 리커버리 요청을 식별(또는, 생성)할 수 있다.Referring to FIG. 6A, in one embodiment, at operation 610, the server (101) may identify a recovery request. For example, the server (101) may identify (or generate) a recovery request based on identifying a replacement of the storage (180). For example, the server (101) may identify (or generate) a recovery request based on obtaining a signal indicating that the storage (180) is being replaced.

동작 620에서, 일 실시 예에서, 서버(101)는, 리커버리 큐에 리커버리 요청을 추가할 수 있다. 일 실시 예에서, 서버(101)는, 리커버리 요청에 따른 리커버리 태스크를 처리하기 위해, 리커버리 요청(또는, 리커버리 요청의 식별 정보)(또는, 리커버리 태스크)(또는, 리커버리 태스크의 식별 정보)를 리커버리 큐(231)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 서버(101)는, 리커버리 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 리커버리 요청을 리커버리 큐(231)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. In operation 620, in one embodiment, the server (101) may add a recovery request to the recovery queue. In one embodiment, the server (101) may input (or enqueue) (or push) the recovery request (or the identification information of the recovery request) (or the recovery task) (or the identification information of the recovery task) to the recovery queue (231) to process a recovery task according to the recovery request. In one embodiment, the server (101) may input (or enqueue) (or push) a recovery request including information on the number of memory blocks required to process the recovery task to the recovery queue (231).

도 6b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 6b is a flowchart illustrating the operation of a server according to one embodiment.

도 6b는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 6b can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 630 내지 660은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다. 일 실시 예에 따르면, 도 6b의 동작들은, 도 6a의 동작들과 병렬적으로 수행될 수 있다.According to one embodiment, operations 630 to 660 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1). According to one embodiment, the operations of FIG. 6b may be performed in parallel with the operations of FIG. 6a.

도 6b를 참조하면, 동작 630에서, 일 실시 예에서, 서버(101)는, 리커버리 큐에 추가된 리커버리 요청의 처리 순서인지를 판별할 수 있다. 일 실시 예에서, 서버(101)는, 리커버리 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 리커버리 요청의 처리 순서를 식별할 수 있다. Referring to FIG. 6B, in operation 630, in one embodiment, the server (101) can determine whether the recovery request added to the recovery queue is in a processing order. In one embodiment, the server (101) can identify the processing order of the recovery request based on the input order (or first-in, first-out) of the recovery request.

동작 630에서, 일 실시 예에서, 리커버리 큐에 추가된 리커버리 요청을 처리하기 위한 순서가 도래함에 기반하여, 서버(101)는 동작 640을 수행할 수 있다. 동작 630에서, 리커버리 큐에 추가된 리커버리 요청을 처리하기 위한 순서가 도래하지 않음에 기반하여, 서버(101)는 동작 630을 다시 수행할 수 있다.In operation 630, in one embodiment, based on the arrival of a turn for processing a recovery request added to the recovery queue, the server (101) may perform operation 640. In operation 630, based on the arrival of a turn for processing a recovery request added to the recovery queue, the server (101) may perform operation 630 again.

동작 640에서, 일 실시 예에서, 서버(101)는, 리커버리 요청에 대응하는 메모리를 할당할 수 있다. 일 실시 예에서, 서버(101)는, N+K개의 데이터 청크들의 크기에 대응하는 N+K개의 메모리 블록들의 메모리 영역을 리커버리 요청을 처리하기 위해 할당할 수 있다.In operation 640, in one embodiment, the server (101) may allocate memory corresponding to the recovery request. In one embodiment, the server (101) may allocate a memory area of N+K memory blocks corresponding to the sizes of N+K data chunks to process the recovery request.

동작 650에서, 일 실시 예에서, 서버(101)는, 할당된 메모리에 기반하여 리커버리 요청을 처리할 수 있다.In operation 650, in one embodiment, the server (101) may process a recovery request based on allocated memory.

예를 들면, 서버(101)는, 다른 스토리지에 저장된 데이터 청크를 리커버리 메모리 풀(230)의 메모리 블록에 로드할 수 있다. 예를 들면, 서버(101)는, 스토리지(180)의 교체 이전의 스토리지에 저장된 고장 데이터 청크의 연관 데이터 청크를 다른 스토리지에서 리커버리 메모리 풀(230)의 메모리 블록으로 로드할 수 있다. 일 실시 예에서, 고장 데이터 청크, 및 연관 데이터 청크는, 지정된 크기의 데이터가 지정된 코딩 기법에 따라 인코딩됨으로써 생성되는 N+K개의 데이터 청크들일 수 있다. For example, the server (101) may load a data chunk stored in another storage into a memory block of the recovery memory pool (230). For example, the server (101) may load an associated data chunk of a failed data chunk stored in a storage before the replacement of the storage (180) from another storage into a memory block of the recovery memory pool (230). In one embodiment, the failed data chunk and the associated data chunk may be N+K data chunks generated by encoding data of a specified size according to a specified coding technique.

일 실시 예에서, 서버(101)는, 연관 데이터 청크가 로드됨에 기반하여, 고장 데이터 청크를 복구할 수 있다. 예를 들면, 서버(101)는, 연관 데이터 청크를, 원본 데이터로 디코딩할 수 있다. 예를 들면, 서버(101)는, 디코딩된 원본 데이터를 인코딩함으로써, 고장 데이터 청크를 복구할 수 있다. In one embodiment, the server (101) can recover a faulty data chunk based on the loading of the associated data chunk. For example, the server (101) can decode the associated data chunk into original data. For example, the server (101) can recover a faulty data chunk by encoding the decoded original data.

일 실시 예에서, 서버(101)는, 복구된 고장 데이터 청크를 교체된 스토리지(180)에 저장할 수 있다. In one embodiment, the server (101) may store the recovered fault data chunk in the replaced storage (180).

동작 660에서, 일 실시 예에서, 서버(101)는, 할당된 메모리를 할당 해제할 수 있다. 예를 들면, 서버(101)는, 리커버리 요청이 처리 완료됨에 기반하여, 할당된 메모리를 할당 해제할 수 있다. 예를 들면, 서버(101)는, 리커버리 요청에 따른 고장 데이터 청크가 복구된 후 스토리지(180)에 저장됨에 기반하여, 할당된 메모리를 할당 해제할 수 있다. In operation 660, in one embodiment, the server (101) may deallocate allocated memory. For example, the server (101) may deallocate allocated memory based on the completion of processing a recovery request. For example, the server (101) may deallocate allocated memory based on the recovery of a fault data chunk according to a recovery request and its storage (180).

이후, 서버(101)는, 스토리지(180)의 교체 이전의 스토리지에 저장된 다음번 고장 데이터 청크를 복구하기 위해, 리커버리 요청을 생성할 수 있다. 예를 들면, 서버(101)는, 교체 이전의 스토리지에 저장된 모든 고장 데이터 청크들이 복구될 때까지, 리커버리 요청을 생성할 수 있다. 하지만 이에 제한되지 않는다. Thereafter, the server (101) may generate a recovery request to recover the next failed data chunk stored in the storage prior to replacement of the storage (180). For example, the server (101) may generate a recovery request until all failed data chunks stored in the storage prior to replacement are recovered. However, this is not a limitation.

도 7a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 7a is a flowchart illustrating the operation of a server according to one embodiment.

도 7a는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 7a can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 710 및 720은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다.According to one embodiment, operations 710 and 720 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 7a를 참조하면, 일 실시 예에 따르면, 동작 710에서, 서버(101)는, 스캔 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 반복적으로 스캔 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 스토리지(180)에 저장된 모든 데이터 청크들(또는, 데이터 조각들)(또는, 데이터 블록들)의 상태를 확인하기 위해 반복적으로 발생하는 스캔 이벤트를 스캔 요청으로 식별할 수 있다. Referring to FIG. 7A, according to one embodiment, in operation 710, the server (101) may identify a scan request. For example, the server (101) may repeatedly identify a scan request. For example, the server (101) may identify a scan event that occurs repeatedly to check the status of all data chunks (or data pieces) (or data blocks) stored in the storage (180) as a scan request.

동작 720에서, 일 실시 예에서, 서버(101)는, 스캔 큐에 스캔 요청을 추가할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 요청에 따른 스캔 태스크를 처리하기 위해, 스캔 요청(또는, 스캔 요청의 식별 정보)(또는, 스캔 태스크)(또는, 스캔 태스크의 식별 정보)를 스캔 큐(211)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 스캔 요청을 스캔 큐(211)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. In operation 720, in one embodiment, the server (101) may add a scan request to a scan queue. In one embodiment, the server (101) may input (or enqueue) (or push) a scan request (or identification information of the scan request) (or a scan task) (or identification information of the scan task) into the scan queue (211) to process a scan task according to the scan request. In one embodiment, the server (101) may input (or enqueue) (or push) a scan request including information on the number of memory blocks required to process the scan task into the scan queue (211).

도 7b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 7b is a flowchart illustrating the operation of a server according to one embodiment.

도 7b는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 7b can be described with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 730 내지 780은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다. 일 실시 예에 따르면, 도 7b의 동작들은, 도 7a의 동작들과 병렬적으로 수행될 수 있다.According to one embodiment, operations 730 to 780 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1). According to one embodiment, the operations of FIG. 7b may be performed in parallel with the operations of FIG. 7a.

도 7b를 참조하면, 동작 730에서, 일 실시 예에서, 서버(101)는, 스캔 큐에 추가된 스캔 요청의 처리 순서인지를 판별할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 큐(211)에 추가된 스캔 요청의 처리 순서를 식별할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 요청의 입력 순서(또는, 선입 선출 방식)에 기반하여, 스캔 요청의 처리 순서를 식별할 수 있다.Referring to FIG. 7B, in operation 730, in one embodiment, the server (101) can determine whether the scan request added to the scan queue is in the processing order. In one embodiment, the server (101) can identify the processing order of the scan request added to the scan queue (211). In one embodiment, the server (101) can identify the processing order of the scan request based on the input order (or first-in, first-out) of the scan request.

동작 730에서, 스캔 큐에 추가된 스캔 요청을 처리하기 위한 순서가 도래함에 기반하여, 서버(101)는 동작 740을 수행할 수 있다. 동작 730에서, 스캔 큐에 추가된 스캔 요청을 처리하기 위한 순서가 도래하지 않음에 기반하여, 서버(101)는 동작 730을 다시 수행할 수 있다.In operation 730, based on the arrival of a turn for processing a scan request added to the scan queue, the server (101) may perform operation 740. In operation 730, based on the arrival of a turn for processing a scan request added to the scan queue, the server (101) may perform operation 730 again.

동작 740에서, 일 실시 예에서, 서버(101)는, 스캔 요청에 대응하는 메모리를 할당할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 태스크를 처리하기 위해 필요한 개수의 메모리 블록들을 스캔 요청을 위해 할당할 수 있다. In operation 740, in one embodiment, the server (101) may allocate memory corresponding to the scan request. In one embodiment, the server (101) may allocate a number of memory blocks required to process the scan task for the scan request.

동작 750에서, 일 실시 예에서, 서버(101)는, 할당된 메모리에 기반하여 스캔 요청에 대응하는 데이터 청크를 식별할 수 있다. 일 실시 예에서, 서버(101)는, 스캔 메모리 풀(210)의 메모리 블록에 저장된 데이터 청크의 손상 여부(또는, 무결성)를 확인할 수 있다. 예를 들면, 서버(101)는, 데이터 청크의 체크섬(또는, 해시 값)에 기반하여, 데이터 청크의 손상 여부(또는, 무결성)를 확인할 수 있다. In operation 750, in one embodiment, the server (101) can identify a data chunk corresponding to a scan request based on allocated memory. In one embodiment, the server (101) can check whether a data chunk stored in a memory block of the scan memory pool (210) is damaged (or hashed). For example, the server (101) can check whether a data chunk is damaged (or hashed) based on a checksum (or hash value) of the data chunk.

동작 760에서, 일 실시 예에서, 서버(101)는, 데이터 청크가 손상되었는지를 판별할 수 있다. In operation 760, in one embodiment, the server (101) may determine whether a data chunk is corrupted.

동작 760에서, 데이터 청크가 손상됨에 기반하여, 서버(101)는 동작 770을 수행할 수 있다. 동작 760에서, 데이터 청크가 손상되지 않음에 기반하여, 서버(101)는 동작 780을 수행할 수 있다. At operation 760, based on whether the data chunk is damaged, the server (101) may perform operation 770. At operation 760, based on whether the data chunk is not damaged, the server (101) may perform operation 780.

동작 770에서, 일 실시 예에서, 서버(101)는, 손상된 데이터 청크를 마크할 수 있다. 일 실시 예에서, 서버(101)는, 손상된 것으로 확인되는 데이터 청크(또는, 이상 데이터 청크)(이하, 손상 데이터 청크)에 대한 정보를, 메타 데이터 DB(190)(또는, 메타 데이터 DB(190)의 메타 데이터)에 기록할 수 있다. 일 실시 예에서, 서버(101)는, 손상 데이터 청크의 메타 데이터에 데이터 청크가 손상됨을 나타내는 표시(또는, 마크)(이하, 손상 표시)를 기재할 수 있다. In operation 770, in one embodiment, the server (101) may mark a damaged data chunk. In one embodiment, the server (101) may record information about a data chunk (or abnormal data chunk) identified as damaged (hereinafter, damaged data chunk) in the metadata DB (190) (or metadata of the metadata DB (190)). In one embodiment, the server (101) may write a mark (or a mark) indicating that the data chunk is damaged (hereinafter, damaged mark) in the metadata of the damaged data chunk.

동작 780에서, 일 실시 예에서, 서버(101)는, 할당된 메모리를 할당 해제할 수 있다. 일 실시 예에서, 서버(101)는, 데이터 청크의 손상 여부(또는, 무결성)의 확인이 완료됨에 기반하여, 스캔 요청을 위해 할당된 스캔 메모리 풀(210)의 메모리 블록을 할당 해제할 수 있다.In operation 780, in one embodiment, the server (101) may deallocate allocated memory. In one embodiment, the server (101) may deallocate a memory block of the scan memory pool (210) allocated for the scan request based on the completion of the verification of whether the data chunk is corrupted (or, integrity).

도 8a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 8a is a flowchart illustrating the operation of a server according to one embodiment.

도 8a는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 8a can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 810 내지 830은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다.According to one embodiment, operations 810 to 830 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 8a를 참조하면, 일 실시 예에서, 동작 810에서, 서버(101)는, 손상된 데이터 청크가 존재하는지를 식별할 수 있다. 예를 들면, 서버(101)는, 반복적으로 메타 데이터 DB(190)를 통해 손상 데이터 청크가 존재하는지를 식별할 수 있다. 예를 들면, 서버(101)는, 데이터 스캔 모듈(141)로부터의 알림에 기반하여 손상 데이터 청크가 존재하는지를 식별할 수 있다. Referring to FIG. 8A, in one embodiment, at operation 810, the server (101) may identify whether a corrupted data chunk exists. For example, the server (101) may repeatedly identify whether a corrupted data chunk exists through the metadata DB (190). For example, the server (101) may identify whether a corrupted data chunk exists based on a notification from the data scan module (141).

동작 820에서, 일 실시 예에서, 서버(101)는, 힐 요청을 식별할 수 있다. 예를 들면, 서버(101)는, 손상 데이터 청크가 존재함에 기반하여, 힐 이벤트를 식별(또는, 생성)할 수 있다. In operation 820, in one embodiment, the server (101) may identify a heal request. For example, the server (101) may identify (or generate) a heal event based on the presence of a corrupted data chunk.

동작 830에서, 일 실시 예에서, 서버(101)는, 힐 큐에 힐 요청을 추가할 수 있다. 일 실시 예에서, 서버(101)는, 힐 요청에 따른 힐 태스크를 처리하기 위해, 힐 요청(또는, 힐 요청의 식별 정보)(또는, 힐 태스크)(또는, 힐 태스크의 식별 정보)를 힐 큐(261)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 일 실시 예에서, 서버(101)는, 힐 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 힐 요청을 힐 큐(261)에 입력(또는, 인큐)(또는, 푸시)할 수 있다.In operation 830, in one embodiment, the server (101) may add a hill request to the hill queue. In one embodiment, the server (101) may input (or enqueue) (or push) a hill request (or identification information of the hill request) (or a hill task) (or identification information of the hill task) into the hill queue (261) to process a hill task according to the hill request. In one embodiment, the server (101) may input (or enqueue) (or push) a hill request including information on the number of memory blocks required to process the hill task into the hill queue (261).

도 8b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. Figure 8b is a flowchart illustrating the operation of a server according to one embodiment.

도 8b는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 8b can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 840 내지 870은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다. 일 실시 예에 따르면, 도 8b의 동작들은, 도 8a의 동작들과 병렬적으로 수행될 수 있다.According to one embodiment, operations 840 to 870 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1). According to one embodiment, the operations of FIG. 8b may be performed in parallel with the operations of FIG. 8a.

도 8b를 참조하면, 동작 840에서, 일 실시 예에서, 서버(101)는, 힐 큐에 추가된 힐 요청의 처리 순서인지를 판별할 수 있다. Referring to FIG. 8b, in operation 840, in one embodiment, the server (101) can determine whether the processing order of the hill request added to the hill queue is correct.

동작 840에서, 힐 큐에 추가된 힐 요청을 처리하기 위한 순서가 도래함에 기반하여, 서버(101)는 동작 850을 수행할 수 있다. 동작 840에서, 힐 큐에 추가된 힐 요청을 처리하기 위한 순서가 도래하지 않음에 기반하여, 서버(101)는 동작 840을 다시 수행할 수 있다.In operation 840, based on the arrival of a turn for processing a hill request added to the hill queue, the server (101) may perform operation 850. In operation 840, based on the arrival of a turn for processing a hill request added to the hill queue, the server (101) may perform operation 840 again.

동작 850에서, 일 실시 예에서, 서버(101)는, 힐 요청에 대응하는 메모리를 할당할 수 있다. 일 실시 예에서, 서버(101)는, N+K개의 데이터 청크들의 크기에 대응하는 N+K개의 메모리 블록들의 메모리 영역을 힐 요청을 처리하기 위해 할당할 수 있다.In operation 850, in one embodiment, the server (101) may allocate memory corresponding to the hill request. In one embodiment, the server (101) may allocate a memory area of N+K memory blocks corresponding to the sizes of N+K data chunks to process the hill request.

동작 860에서, 일 실시 예에서, 서버(101)는, 할당된 메모리에 기반하여 힐 요청에 대응하는 손상된 데이터 청크를 복원할 수 있다.In operation 860, in one embodiment, the server (101) may restore the corrupted data chunk corresponding to the heal request based on the allocated memory.

예를 들면, 서버(101)는, 스토리지(180)에 저장된 손상 데이터 청크를 루트 메모리 풀(250)의 메모리 블록에 로드할 수 있다. 예를 들면, 서버(101)는, 루트 메모리 풀(250)의 메모리 블록이 힐 요청을 위해 할당됨에 기반하여, 손상 데이터 청크와 연관 데이터 청크를 루트 메모리 풀(250)의 메모리 블록에 로드할 수 있다. 일 실시 예에서, 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크의 개수는 N+K일 수 있다. For example, the server (101) may load the corrupted data chunk stored in the storage (180) into a memory block of the root memory pool (250). For example, the server (101) may load the corrupted data chunk and the associated data chunk into the memory block of the root memory pool (250) based on the memory block of the root memory pool (250) being allocated for a heal request. In one embodiment, the number of corrupted data chunks and at least one associated data chunk may be N+K.

일 실시 예에서, 서버(101)는, 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크가 로드됨에 기반하여, 손상 데이터 청크를 복구할 수 있다. 예를 들면, 서버(101)는, 손상 데이터 청크, 및 적어도 하나의 연관 데이터 청크를, 원본 데이터로 디코딩할 수 있다. 예를 들면, 서버(101)는, 디코딩된 원본 데이터를 인코딩함으로써, 손상 데이터 청크에 대응하는 복구된 데이터 청크를 생성할 수 있다. In one embodiment, the server (101) can repair the damaged data chunk based on the loading of the damaged data chunk and at least one associated data chunk. For example, the server (101) can decode the damaged data chunk and at least one associated data chunk into original data. For example, the server (101) can generate a repaired data chunk corresponding to the damaged data chunk by encoding the decoded original data.

일 실시 예에서, 서버(101)는, 복구된 데이터 청크를 스토리지(180)에 저장할 수 있다. In one embodiment, the server (101) may store the recovered data chunks in storage (180).

동작 870에서, 일 실시 예에서, 서버(101)는, 할당된 메모리를 할당 해제할 수 있다. 일 실시 예에서, 서버(101)는, 손상 데이터 청크의 복구가 완료됨에 기반하여, 힐 요청을 위해 할당된 루트 메모리 풀(250)의 메모리 블록을 할당 해제할 수 있다.In operation 870, in one embodiment, the server (101) may deallocate allocated memory. In one embodiment, the server (101) may deallocate a memory block of the root memory pool (250) allocated for the heal request based on the completion of the recovery of the damaged data chunk.

도 9a는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 9A is a flowchart illustrating the operation of a server according to one embodiment.

도 9a는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 9a can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 910 내지 960은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다.According to one embodiment, operations 910 to 960 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 9a의 동작들은, 메모리 풀(170)의 하위 메모리 풀들 각각에 대하여 수행될 수 있다. 예를 들면, 도 9a의 동작들은, 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 또는 루트 메모리 풀(250) 각각에 대하여 독립적으로(또는, 병렬적으로) 수행될 수 있다. The operations of FIG. 9a may be performed for each of the lower memory pools of the memory pool (170). For example, the operations of FIG. 9a may be performed independently (or in parallel) for each of the scan memory pool (210), the recovery memory pool (230), and the root memory pool (250).

도 9a를 참조하면, 일 실시 예에서, 동작 910에서, 서버(101)는, 메모리 풀의 상태를 식별할 수 있다. 예를 들면, 서버(101)는, 메모리 풀(170)의 메모리 영역이 요청들을 위해 할당되었는지를 식별할 수 있다. 예를 들면, 서버(101)는, 메모리 풀(170)의 지정된 메모리 풀(예: 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 루트 메모리 풀(250))의 메모리 영역이 요청들을 위해 할당되었는지를 식별할 수 있다.Referring to FIG. 9A, in one embodiment, at operation 910, the server (101) may identify the status of a memory pool. For example, the server (101) may identify whether a memory area of the memory pool (170) has been allocated for requests. For example, the server (101) may identify whether a memory area of a designated memory pool (e.g., scan memory pool (210), recovery memory pool (230), root memory pool (250)) of the memory pool (170) has been allocated for requests.

동작 920에서, 일 실시 예에서, 서버(101)는, 가용 메모리가 존재하는지를 판별할 수 있다. 예를 들면, 서버(101)는, 메모리 풀(170)의 메모리 영역 중 요청들을 위해 할당되지 않은 가용 메모리 영역을 식별할 수 있다.In operation 920, in one embodiment, the server (101) may determine whether available memory exists. For example, the server (101) may identify an available memory area that has not been allocated for requests among the memory areas of the memory pool (170).

동작 920에서, 가용 메모리가 존재하는 것으로 판별됨에 기반하여, 서버(101)는, 동작 930을 수행할 수 있다. 동작 920에서, 가용 메모리가 존재하지 않는 것으로 판별됨에 기반하여, 서버(101)는, 동작 910을 다시 수행할 수 있다.At operation 920, based on determining that available memory exists, the server (101) may perform operation 930. At operation 920, based on determining that available memory does not exist, the server (101) may perform operation 910 again.

동작 930에서, 일 실시 예에서, 서버(101)는, 메모리 풀에 연결된 큐를 식별할 수 있다. 예를 들면, 서버(101)는, 지정된 메모리 풀(예: 스캔 메모리 풀(210), 리커버리 메모리 풀(230), 루트 메모리 풀(250))에 연결된 큐(예: 스캔 큐(211), 리커버리 큐(231), 힐 큐(261), 및/또는 리퀘스트 큐(240, 270))를 식별할 수 있다. In operation 930, in one embodiment, the server (101) may identify a queue associated with a memory pool. For example, the server (101) may identify a queue (e.g., a scan queue (211), a recovery queue (231), a heal queue (261), and/or a request queue (240, 270)) associated with a specified memory pool (e.g., a scan memory pool (210), a recovery memory pool (230), a root memory pool (250)).

동작 940에서, 일 실시 예에서, 서버(101)는, 큐에 태스크가 존재하는지를 판별할 수 있다. 예를 들면, 서버(101)는, 지정된 메모리 풀에 직접 연결된 최상위 큐(예: 스캔 큐(211), 리커버리 큐(231), 힐 큐(261))에 태스크가 존재하는지를 판별할 수 있다. In operation 940, in one embodiment, the server (101) may determine whether a task exists in a queue. For example, the server (101) may determine whether a task exists in a top-level queue (e.g., scan queue (211), recovery queue (231), heal queue (261)) directly connected to a specified memory pool.

동작 940에서, 태스크가 존재하는 것으로 판별됨에 기반하여, 서버(101)는, 동작 950을 수행할 수 있다. 동작 940에서, 태스크가 존재하지 않는 것으로 판별됨에 기반하여, 서버(101)는, 동작 960을 수행할 수 있다.At operation 940, based on determining that a task exists, the server (101) may perform operation 950. At operation 940, based on determining that a task does not exist, the server (101) may perform operation 960.

동작 950에서, 일 실시 예에서, 서버(101)는, 태스크를 처리할 수 있다. 일 실시 예에서, 태스크를 처리함은, 태스크의 처리를 위헤 메모리를 할당함을 포함할 수 있다. 일 실시 예에서, 태스크를 처리함은, 할당된 메모리를 통해 태스크와 관련된 작업을 수행함을 포함할 수 있다. 일 실시 예에서, 태스크를 처리함은, 할당된 메모리를 할당 해제함을 포함할 수 있다. 일 실시 예에서, 태스크는, 스캔 태스크, 힐 태스크, 리커버리 태스크, 및/또는 사용자 요청에 따른 태스크를 포함할 수 있다. 일 실시 예에서, 태스크가 사용자 요청에 따른 태스크인 경우, 태스크를 처리함은, 도 5b의 동작 560 내지 동작 580을 수행함을 포함할 수 있다. 일 실시 예에서, 태스크가 리커버리 태스크인 경우, 태스크를 처리함은, 도 6b의 동작 640 내지 동작 660을 수행함을 포함할 수 있다. 일 실시 예에서, 태스크가 스캔 태스크인 경우, 태스크를 처리함은, 도 7b의 동작 740 내지 동작 780을 수행함을 포함할 수 있다. 일 실시 예에서, 태스크가 힐 태스크인 경우, 태스크를 처리함은, 도 8b의 동작 850 내지 동작 870을 수행함을 포함할 수 있다.In operation 950, in one embodiment, the server (101) may process a task. In one embodiment, processing the task may include allocating memory for processing the task. In one embodiment, processing the task may include performing a task related to the task through the allocated memory. In one embodiment, processing the task may include deallocating the allocated memory. In one embodiment, the task may include a scan task, a heal task, a recovery task, and/or a task according to a user request. In one embodiment, if the task is a task according to a user request, processing the task may include performing operations 560 to 580 of FIG. 5B. In one embodiment, if the task is a recovery task, processing the task may include performing operations 640 to 660 of FIG. 6B. In one embodiment, if the task is a scan task, processing the task may include performing operations 740 to 780 of FIG. 7B. In one embodiment, if the task is a hill task, processing the task may include performing operations 850 to 870 of FIG. 8B.

예를 들면, 서버(101)는, 태스크의 처리를 위해 필요한 개수의 메모리 블록들을 태스크를 위해 할당할 수 있다. For example, the server (101) can allocate a number of memory blocks required for processing the task to the task.

동작 960에서, 일 실시 예에서, 서버(101)는, 큐에 연결된 큐가 존재하는지를 판별할 수 있다. 예를 들면, 서버(101)는, 최상위 큐에 연결된 하위 큐가 존재하는지를 판별할 수 있다. 예를 들면, 서버(101)는, 최상위 큐에 연결된 리퀘스트 큐(240, 270)가 존재하는지를 판별할 수 있다. In operation 960, in one embodiment, the server (101) may determine whether a queue connected to the queue exists. For example, the server (101) may determine whether a subqueue connected to the top-level queue exists. For example, the server (101) may determine whether a request queue (240, 270) connected to the top-level queue exists.

동작 960에서, 큐에 연결된 큐가 존재하는 것으로 판별됨에 기반하여, 서버(101)는, 동작 940을 수행할 수 있다. 일 실시 예에서, 동작 960 다음에 수행되는 동작 940에서, 서버(101)는, 서버(101)는, 하위 큐에 태스크가 존재하는지를 판별할 수 있다. 예를 들면, 서버(101)는, 지정된 메모리 풀에 간접 연결된 하위 큐(예: 리퀘스트 큐(240, 270))에 태스크가 존재하는지를 판별할 수 있다. 동작 940에서, 태스크가 존재하는 것으로 판별됨에 기반하여, 서버(101)는, 동작 950에서, 사용자 요청에 따른 태스크를 처리할 수 있다. At operation 960, based on determining that a queue connected to the queue exists, the server (101) may perform operation 940. In one embodiment, at operation 940, which is performed after operation 960, the server (101) may determine whether a task exists in a subqueue. For example, the server (101) may determine whether a task exists in a subqueue (e.g., a request queue (240, 270)) indirectly connected to a designated memory pool. At operation 940, based on determining that a task exists, the server (101) may process a task according to a user request at operation 950.

동작 940에서, 큐에 연결된 큐가 존재하지 않는 것으로 판별됨에 기반하여, 서버(101)는, 동작 910을 수행할 수 있다. At operation 940, based on determining that the queue connected to the queue does not exist, the server (101) may perform operation 910.

도 9b는, 일 실시 예에 따른, 서버의 동작을 예시하는 흐름도이다. FIG. 9b is a flowchart illustrating the operation of a server according to one embodiment.

도 9b는 도 1 내지 도 3b를 참조하여 설명될 수 있다. 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.Figure 9b can be explained with reference to Figures 1 to 3b. In the embodiment, each operation may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

일 실시 예에 따르면, 동작 970 내지 990은 서버(예: 도 1의 서버(101))의 프로세서(예: 도 1의 프로세서(120))에서 수행되는 것으로 이해될 수 있다.According to one embodiment, operations 970 to 990 may be understood to be performed in a processor (e.g., processor (120) of FIG. 1) of a server (e.g., server (101) of FIG. 1).

도 9b의 동작들은, 도 9a의 동작들과 독립적으로(또는, 병렬적으로) 수행될 수 있다. The operations of FIG. 9b can be performed independently (or in parallel) with the operations of FIG. 9a.

도 9b를 참조하면, 일 실시 예에서, 동작 970에서, 서버(101)는, 요청을 식별할 수 있다. 일 실시 예에서, 요청은, 백그라운드 및/또는 포어그라운드에서 동작하는 프로세스에 의해 발생될 수 있다. 예를 들면, 요청은, 전자 장치(103)로부터 수신되는 사용자 요청을 포함할 수 있다. 예를 들면, 사용자 요청은, 데이터의 저장, 및/또는 데이터의 읽기를 포함할 수 있다. 일 실시 예에서, 요청은, 시스템 태스크의 처리를 위한 요청을 포함할 수 있다. 예를 들면, 시스템 태스크의 처리를 위한 요청은, 힐 태스크를 처리하기 위한 힐 요청, 스캔 태스크를 처리하기 위한 스캔 요청, 및/또는 리커버리 태스크를 처리하기 위한 리커버리 요청을 포함할 수 있다. Referring to FIG. 9B, in one embodiment, at operation 970, the server (101) may identify a request. In one embodiment, the request may be generated by a process running in the background and/or foreground. For example, the request may include a user request received from the electronic device (103). For example, the user request may include storing data and/or reading data. In one embodiment, the request may include a request for processing a system task. For example, the request for processing a system task may include a heal request for processing a heal task, a scan request for processing a scan task, and/or a recovery request for processing a recovery task.

일 실시 예에서, 동작 980에서, 서버(101)는, 요청에 상응하는 큐를 식별할 수 있다. In one embodiment, at operation 980, the server (101) may identify a queue corresponding to the request.

예를 들면, 서버(101)는, 요청이 스캔 요청임에 기반하여, 스캔 큐(211)를 요청에 상응하는 큐로 식별할 수 있다. 예를 들면, 서버(101)는, 요청이 리커버리 요청임에 기반하여, 리커버리 큐(231)를 요청에 상응하는 큐로 식별할 수 있다. 예를 들면, 서버(101)는, 요청이 힐 요청임에 기반하여, 힐 큐(261)를 요청에 상응하는 큐로 식별할 수 있다. For example, the server (101) may identify the scan queue (211) as the queue corresponding to the request based on the request being a scan request. For example, the server (101) may identify the recovery queue (231) as the queue corresponding to the request based on the request being a recovery request. For example, the server (101) may identify the heal queue (261) as the queue corresponding to the request based on the request being a heal request.

예를 들면, 서버(101)는, 요청이 사용자 요청임에 기반하여, 리퀘스트 큐(240, 270)를 요청에 상응하는 큐로 식별할 수 있다. 예를 들면, 서버(101)는, 요청이 사용자 요청임에 기반하여, 복수의 리퀘스트 큐들(240, 270) 중 사용자 요청을 추가할 큐를 식별할 수 있다. 예를 들면, 리퀘스트 큐들(240, 270) 각각의 상위 큐(예: 리커버리 큐(231), 또는 힐 큐(261))에 추가된 요청들의 개수에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. For example, the server (101) may identify a request queue (240, 270) as a queue corresponding to the request based on whether the request is a user request. For example, the server (101) may identify a queue to which to add the user request among a plurality of request queues (240, 270) based on whether the request is a user request. For example, the request queue to which to input the user request may be identified based on the number of requests added to a higher queue (e.g., a recovery queue (231) or a heal queue (261)) of each of the request queues (240, 270).

일 실시 예에서, 동작 990에서, 서버(101)는, 식별된 큐에 요청을 추가할 수 있다. In one embodiment, at operation 990, the server (101) may add a request to the identified queue.

예를 들면, 서버(101)는, 스캔 요청(또는, 스캔 요청의 식별 정보)(또는, 스캔 태스크)(또는, 스캔 태스크의 식별 정보)을 스캔 큐(211)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 서버(101)는, 스캔 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 스캔 요청을 스캔 큐(211)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. For example, the server (101) can input (or enqueue) (or push) a scan request (or identification information of the scan request) (or scan task) (or identification information of the scan task) into the scan queue (211). For example, the server (101) can input (or enqueue) (or push) a scan request including information on the number of memory blocks required to process the scan task into the scan queue (211).

예를 들면, 서버(101)는, 리커버리 요청(또는, 리커버리 요청의 식별 정보)(또는, 리커버리 태스크)(또는, 리커버리 태스크의 식별 정보)을 리커버리 큐(231)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 서버(101)는, 리커버리 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 리커버리 요청을 리커버리 큐(231)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. For example, the server (101) can input (or enqueue) (or push) a recovery request (or identification information of the recovery request) (or a recovery task) (or identification information of the recovery task) into the recovery queue (231). For example, the server (101) can input (or enqueue) (or push) a recovery request including information on the number of memory blocks required to process the recovery task into the recovery queue (231).

예를 들면, 서버(101)는, 힐 요청(또는, 힐 요청의 식별 정보)(또는, 힐 태스크)(또는, 힐 태스크의 식별 정보)을 힐 큐(261)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 서버(101)는, 힐 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 힐 요청을 힐 큐(261)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. For example, the server (101) can input (or enqueue) (or push) a hill request (or identification information of the hill request) (or a hill task) (or identification information of the hill task) into the hill queue (261). For example, the server (101) can input (or enqueue) (or push) a hill request including information on the number of memory blocks required to process the hill task into the hill queue (261).

예를 들면, 서버(101)는, 요청이 사용자 요청임에 기반하여, 리퀘스트 큐(240, 270)를 요청에 상응하는 큐로 식별할 수 있다. 예를 들면, 서버(101)는, 요청이 사용자 요청임에 기반하여, 복수의 리퀘스트 큐들(240, 270) 중 사용자 요청을 추가할 큐를 식별할 수 있다. 예를 들면, 리퀘스트 큐들(240, 270) 각각의 상위 큐(예: 리커버리 큐(231), 또는 힐 큐(261))에 추가된 요청들의 개수에 기반하여, 사용자 요청을 입력할 리퀘스트 큐를 식별할 수 있다. For example, the server (101) may identify a request queue (240, 270) as a queue corresponding to the request based on whether the request is a user request. For example, the server (101) may identify a queue to which to add the user request among a plurality of request queues (240, 270) based on whether the request is a user request. For example, the request queue to which to input the user request may be identified based on the number of requests added to a higher queue (e.g., a recovery queue (231) or a heal queue (261)) of each of the request queues (240, 270).

예를 들면, 서버(101)는, 사용자 요청(또는, 사용자 요청의 식별 정보)(또는, 사용자 요청에 따른 태스크)(또는, 사용자 요청에 따른 태스크의 식별 정보)을 리퀘스트 큐(240, 270)에 입력(또는, 인큐)(또는, 푸시)할 수 있다. 예를 들면, 서버(101)는, 사용자 요청에 따른 태스크를 처리하기 위해 필요한 메모리 블록들의 개수에 대한 정보를 포함하는 사용자 요청을 리퀘스트 큐(240, 270)에 입력(또는, 인큐)(또는, 푸시)할 수 있다.For example, the server (101) can input (or enqueue) (or push) a user request (or identification information of the user request) (or a task according to the user request) (or identification information of the task according to the user request) into the request queue (240, 270). For example, the server (101) can input (or enqueue) (or push) a user request including information on the number of memory blocks required to process a task according to the user request into the request queue (240, 270).

도 10은, 일 실시 예에 따른, 서버의 블록도이다.Figure 10 is a block diagram of a server according to one embodiment.

도 10의 서버(101)는, 하나 이상의 구성 요소들이 네트워크를 통해 연결될 수 있다. 예를 들면, 서버(101)는, 네트워크를 통해 연결된 복수의 스토리지들(1010, 1030, 1050)을 스토리지(180)로서 네트워크 연결될 수 있다. 서버(101)가 복수의 스토리지들(1010, 1030, 1050)과 네트워크를 통해 연결됨은, 복수의 스토리지들(1010, 1030, 1050)이 데이터를 분산 저장하기 위한 별도의 호스트 장치임을 포함할 수 있다. The server (101) of FIG. 10 may have one or more components connected via a network. For example, the server (101) may be network-connected to a plurality of storages (1010, 1030, 1050) connected via a network as storage (180). The fact that the server (101) is connected to the plurality of storages (1010, 1030, 1050) via a network may include that the plurality of storages (1010, 1030, 1050) are separate host devices for distributed storage of data.

예를 들면, 서버(101)는, 메타 데이터 데이터베이스(190)와 네트워크를 통해 연결될 수 있다. 서버(101)가 메타 데이터 데이터베이스(190)와 네트워크를 통해 연결됨은, 메타 데이터 데이터베이스(190)가 메타 데이터를 저장하기 위한 별도의 호스트 장치임을 포함할 수 있다. For example, the server (101) may be connected to the metadata database (190) via a network. The fact that the server (101) is connected to the metadata database (190) via a network may include that the metadata database (190) is a separate host device for storing metadata.

일 실시 예에서, 서버(101)는, 사용자 요청에 따른 데이터가 인코딩됨으로써 생성되는 N+K개의 데이터 청크들을 서로 다른 복수의 스토리지들(1010, 1030, 1050)에 각각 저장할 수 있다. 예를 들면, 복수의 스토리지들(1010, 1030, 1050) 각각은, N+K개의 데이터 청크들 중 하나의 데이터 청크만을 저장할 수 있다. In one embodiment, the server (101) may store N+K data chunks generated by encoding data according to a user request in different multiple storages (1010, 1030, 1050). For example, each of the multiple storages (1010, 1030, 1050) may store only one data chunk among the N+K data chunks.

상술한 바와 같은, 서버(101)는, 복수의 스토리지들(1010, 1030, 1050) 중 일부 스토리지가 불능 상태인 경우에도, 다른 스토리지들에 저장된 데이터 청크들을 통해 스토리지 서비스를 제공(또는, 원본 데이터를 복원)할 수 있다. As described above, the server (101) can provide storage services (or restore original data) through data chunks stored in other storages, even when some of the multiple storages (1010, 1030, 1050) are in an unavailable state.

도 11은, 다양한 실시예들에 따른, 네트워크 환경(1100) 내의 전자 장치(1101)의 블록도이다. FIG. 11 is a block diagram of an electronic device (1101) within a network environment (1100), according to various embodiments.

도 11을 참조하면, 네트워크 환경(1100)에서 전자 장치(1101)는 제1 네트워크(1198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1102)와 통신하거나, 또는 제2 네트워크(1199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1104) 또는 서버(1108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1101)는 서버(1108)를 통하여 전자 장치(1104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1101)는 프로세서(1120), 메모리(1130), 입력 모듈(1150), 음향 출력 모듈(1155), 디스플레이 모듈(1160), 오디오 모듈(1170), 센서 모듈(1176), 인터페이스(1177), 연결 단자(1178), 햅틱 모듈(1179), 카메라 모듈(1180), 전력 관리 모듈(1188), 배터리(1189), 통신 모듈(1190), 가입자 식별 모듈(1196), 또는 안테나 모듈(1197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(1178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(1176), 카메라 모듈(1180), 또는 안테나 모듈(1197))은 하나의 구성요소(예: 디스플레이 모듈(1160))로 통합될 수 있다.Referring to FIG. 11, in a network environment (1100), an electronic device (1101) may communicate with an electronic device (1102) via a first network (1198) (e.g., a short-range wireless communication network), or may communicate with at least one of an electronic device (1104) or a server (1108) via a second network (1199) (e.g., a long-range wireless communication network). In one embodiment, the electronic device (1101) may communicate with the electronic device (1104) via the server (1108). According to one embodiment, the electronic device (1101) may include a processor (1120), a memory (1130), an input module (1150), an audio output module (1155), a display module (1160), an audio module (1170), a sensor module (1176), an interface (1177), a connection terminal (1178), a haptic module (1179), a camera module (1180), a power management module (1188), a battery (1189), a communication module (1190), a subscriber identification module (1196), or an antenna module (1197). In some embodiments, the electronic device (1101) may omit at least one of these components (e.g., the connection terminal (1178)), or may have one or more other components added. In some embodiments, some of these components (e.g., sensor module (1176), camera module (1180), or antenna module (1197)) may be integrated into a single component (e.g., display module (1160)).

프로세서(1120)는, 예를 들면, 소프트웨어(예: 프로그램(1140))를 실행하여 프로세서(1120)에 연결된 전자 장치(1101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1120)는 다른 구성요소(예: 센서 모듈(1176) 또는 통신 모듈(1190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1132)에 저장하고, 휘발성 메모리(1132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1120)는 메인 프로세서(1121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(1101)가 메인 프로세서(1121) 및 보조 프로세서(1123)를 포함하는 경우, 보조 프로세서(1123)는 메인 프로세서(1121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1123)는 메인 프로세서(1121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (1120) may, for example, execute software (e.g., a program (1140)) to control at least one other component (e.g., a hardware or software component) of the electronic device (1101) connected to the processor (1120) and perform various data processing or operations. According to one embodiment, as at least a part of the data processing or operations, the processor (1120) may store commands or data received from other components (e.g., a sensor module (1176) or a communication module (1190)) in a volatile memory (1132), process the commands or data stored in the volatile memory (1132), and store result data in a non-volatile memory (1134). According to one embodiment, the processor (1120) may include a main processor (1121) (e.g., a central processing unit or an application processor) or an auxiliary processor (1123) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (1121). For example, when the electronic device (1101) includes the main processor (1121) and the auxiliary processor (1123), the auxiliary processor (1123) may be configured to use less power than the main processor (1121) or to be specialized for a given function. The auxiliary processor (1123) may be implemented separately from the main processor (1121) or as a part thereof.

보조 프로세서(1123)는, 예를 들면, 메인 프로세서(1121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1121)를 대신하여, 또는 메인 프로세서(1121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1121)와 함께, 전자 장치(1101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(1160), 센서 모듈(1176), 또는 통신 모듈(1190))과 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(1180) 또는 통신 모듈(1190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(1123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(1101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(1108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (1123) may control at least a portion of functions or states associated with at least one component (e.g., a display module (1160), a sensor module (1176), or a communication module (1190)) of the electronic device (1101), for example, on behalf of the main processor (1121) while the main processor (1121) is in an inactive (e.g., sleep) state, or together with the main processor (1121) while the main processor (1121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (1123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (1180) or a communication module (1190)). In one embodiment, the auxiliary processor (1123) (e.g., a neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. The artificial intelligence models may be generated through machine learning. This learning can be performed, for example, in the electronic device (1101) itself where the artificial intelligence model is executed, or can be performed through a separate server (e.g., server (1108)). The learning algorithm can include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model can include a plurality of artificial neural network layers. The artificial neural network can be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model can additionally or alternatively include a software structure.

메모리(1130)는, 전자 장치(1101)의 적어도 하나의 구성요소(예: 프로세서(1120) 또는 센서 모듈(1176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1130)는, 휘발성 메모리(1132) 또는 비휘발성 메모리(1134)를 포함할 수 있다. The memory (1130) can store various data used by at least one component (e.g., the processor (1120) or the sensor module (1176)) of the electronic device (1101). The data can include, for example, software (e.g., the program (1140)) and input data or output data for commands related thereto. The memory (1130) can include a volatile memory (1132) or a non-volatile memory (1134).

프로그램(1140)은 메모리(1130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1142), 미들 웨어(1144) 또는 어플리케이션(1146)을 포함할 수 있다. The program (1140) may be stored as software in memory (1130) and may include, for example, an operating system (1142), middleware (1144), or an application (1146).

입력 모듈(1150)은, 전자 장치(1101)의 구성요소(예: 프로세서(1120))에 사용될 명령 또는 데이터를 전자 장치(1101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(1150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module (1150) can receive commands or data to be used in a component of the electronic device (1101) (e.g., a processor (1120)) from an external source (e.g., a user) of the electronic device (1101). The input module (1150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).

음향 출력 모듈(1155)은 음향 신호를 전자 장치(1101)의 외부로 출력할 수 있다. 음향 출력 모듈(1155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (1155) can output audio signals to the outside of the electronic device (1101). The audio output module (1155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes, such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. In one embodiment, the receiver can be implemented separately from the speaker or as part of the speaker.

디스플레이 모듈(1160)은 전자 장치(1101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(1160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(1160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module (1160) can visually provide information to an external party (e.g., a user) of the electronic device (1101). The display module (1160) may include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. In one embodiment, the display module (1160) may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.

오디오 모듈(1170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1170)은, 입력 모듈(1150)을 통해 소리를 획득하거나, 음향 출력 모듈(1155), 또는 전자 장치(1101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (1170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (1170) can acquire sound through the input module (1150), output sound through the sound output module (1155), or an external electronic device (e.g., electronic device (1102)) (e.g., speaker or headphone) directly or wirelessly connected to the electronic device (1101).

센서 모듈(1176)은 전자 장치(1101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(1176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (1176) can detect the operating status (e.g., power or temperature) of the electronic device (1101) or the external environmental status (e.g., user status) and generate an electrical signal or data value corresponding to the detected status. According to one embodiment, the sensor module (1176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(1177)는 전자 장치(1101)가 외부 전자 장치(예: 전자 장치(1102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (1177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (1101) with an external electronic device (e.g., the electronic device (1102)). In one embodiment, the interface (1177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(1178)는, 그를 통해서 전자 장치(1101)가 외부 전자 장치(예: 전자 장치(1102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(1178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (1178) may include a connector through which the electronic device (1101) may be physically connected to an external electronic device (e.g., the electronic device (1102)). In one embodiment, the connection terminal (1178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).

햅틱 모듈(1179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(1179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (1179) can convert electrical signals into mechanical stimuli (e.g., vibration or movement) or electrical stimuli that a user can perceive through tactile or kinesthetic sensations. In one embodiment, the haptic module (1179) may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(1180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (1180) can capture still images and videos. In one embodiment, the camera module (1180) may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(1188)은 전자 장치(1101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(1188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (1188) can manage the power supplied to the electronic device (1101). According to one embodiment, the power management module (1188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(1189)는 전자 장치(1101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(1189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.A battery (1189) may power at least one component of the electronic device (1101). In one embodiment, the battery (1189) may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(1190)은 전자 장치(1101)와 외부 전자 장치(예: 전자 장치(1102), 전자 장치(1104), 또는 서버(1108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1190)은 프로세서(1120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1190)은 무선 통신 모듈(1192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(1198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(1199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(1104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1192)은 가입자 식별 모듈(1196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(1198) 또는 제2 네트워크(1199)와 같은 통신 네트워크 내에서 전자 장치(1101)를 확인 또는 인증할 수 있다. The communication module (1190) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (1101) and an external electronic device (e.g., electronic device (1102), electronic device (1104), or server (1108)), and the performance of communication through the established communication channel. The communication module (1190) may operate independently from the processor (1120) (e.g., application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (1190) may include a wireless communication module (1192) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (1194) (e.g., a local area network (LAN) communication module, or a power line communication module). Among these communication modules, a corresponding communication module can communicate with an external electronic device (1104) via a first network (1198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (1199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules can be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (1192) can verify or authenticate the electronic device (1101) within a communication network such as the first network (1198) or the second network (1199) by using subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (1196).

무선 통신 모듈(1192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(1192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(1192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO(full dimensional MIMO)), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(1192)은 전자 장치(1101), 외부 전자 장치(예: 전자 장치(1104)) 또는 네트워크 시스템(예: 제2 네트워크(1199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(1192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 664dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 6ms 이하)를 지원할 수 있다.The wireless communication module (1192) can support 5G networks and next-generation communication technologies following the 4G network, such as NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)). The wireless communication module (1192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (1192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (1192) may support various requirements specified in the electronic device (1101), an external electronic device (e.g., the electronic device (1104)), or a network system (e.g., the second network (1199)). According to one embodiment, the wireless communication module (1192) can support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 664 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 6 ms or less for round trip) for URLLC realization.

안테나 모듈(1197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(1197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(1197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(1198) 또는 제2 네트워크(1199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(1197)의 일부로 형성될 수 있다. The antenna module (1197) can transmit or receive signals or power to or from an external device (e.g., an external electronic device). In one embodiment, the antenna module (1197) may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). In one embodiment, the antenna module (1197) may include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (1198) or the second network (1199), may be selected from the plurality of antennas by, for example, the communication module (1190). A signal or power may be transmitted or received between the communication module (1190) and an external electronic device via the selected at least one antenna. In some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module (1197).

다양한 실시예에 따르면, 안테나 모듈(1197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (1197) may form a mmWave antenna module. In one embodiment, the mmWave antenna module may include a printed circuit board, an RFIC disposed on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) disposed on or adjacent a second side (e.g., a top side or a side side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components can be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).

일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(1199)에 연결된 서버(1108)를 통해서 전자 장치(1101)와 외부의 전자 장치(1104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(1102, 또는 1104) 각각은 전자 장치(1101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(1102, 1104, 또는 1108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1101)로 전달할 수 있다. 전자 장치(1101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(1101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(1104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(1108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(1104) 또는 서버(1108)는 제2 네트워크(1199) 내에 포함될 수 있다. 전자 장치(1101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device (1101) and an external electronic device (1104) via a server (1108) connected to a second network (1199). Each of the external electronic devices (1102 or 1104) may be the same or a different type of device as the electronic device (1101). According to one embodiment, all or part of the operations executed in the electronic device (1101) may be executed in one or more of the external electronic devices (1102, 1104, or 1108). For example, when the electronic device (1101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (1101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform the function or at least a part of the service. One or more external electronic devices that receive the request may execute at least a portion of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (1101). The electronic device (1101) may process the result as is or additionally and provide it as at least a portion of a response to the request. For this purpose, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used, for example. The electronic device (1101) may provide an ultra-low latency service using distributed computing or mobile edge computing, for example. In another embodiment, the external electronic device (1104) may include an Internet of Things (IoT) device. The server (1108) may be an intelligent server utilizing machine learning and/or a neural network. According to one embodiment, the external electronic device (1104) or the server (1108) may be included in the second network (1199). The electronic device (1101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

상술한 바와 같은, 서버(101)는, 통신 회로(130)를 포함할 수 있다. 상기 서버(101)는, 처리 회로를 포함하는 적어도 하나의 프로세서(120)를 포함할 수 있다. 상기 서버(101)는, 복수의 시스템 작업들을 각각 처리하기 위한 복수의 메모리 풀들(210, 230, 250)이 설정되고, 인스트럭션들을 저장하고, 하나 이상의 저장 매체들을 포함하는, 메모리(110)를 포함할 수 있다. 상기 복수의 메모리 풀들(210, 230, 250) 각각은, 지정된 크기의 메모리 블록들로 구분될 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 n개의 데이터 블록들의 크기의 데이터의 처리를 위한 사용자 요청을 획득하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 복수의 메모리 풀들(210, 230, 250) 중 상기 사용자 요청을 처리하기 위한 제1 메모리 풀(230, 250)을 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 제1 메모리 풀(230, 250)에 대한 제1 시스템 작업 큐(231, 261)에서 대기 중인 제1 시스템 작업이 모두 처리됨에 기반하여, 상기 제1 메모리 풀(230, 250)의 제1 메모리 블록들을 상기 사용자 요청을 처리하기 위해 할당하도록 야기할 수 있다. 상기 제1 메모리 블록들 각각의 크기는, 상기 n개의 데이터 블록들 및 k개의 패리티 블록들 각각의 크기에 대응할 수 있다. 상기 데이터 블록들 각각은 상기 패리티 블록들 각각과 서로 동일한 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 사용자 요청을 처리하기 위해 상기 제1 메모리 블록들이 할당됨에 기반하여, 상기 데이터를 처리하도록 야기할 수 있다. As described above, the server (101) may include a communication circuit (130). The server (101) may include at least one processor (120) including a processing circuit. The server (101) may include a memory (110) in which a plurality of memory pools (210, 230, 250) for processing a plurality of system tasks, respectively, are set, instructions are stored, and one or more storage media are included. Each of the plurality of memory pools (210, 230, 250) may be divided into memory blocks of a specified size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to obtain a user request for processing data of a size of n data blocks from the electronic device (103) through the communication circuit (130). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a first memory pool (230, 250) among the plurality of memory pools (210, 230, 250) for processing the user request. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate first memory blocks of the first memory pool (230, 250) to process the user request based on all first system tasks waiting in a first system task queue (231, 261) for the first memory pool (230, 250) being processed. The size of each of the first memory blocks may correspond to the size of each of the n data blocks and k parity blocks. Each of the above data blocks may have the same size as each of the above parity blocks. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to process the data based on the allocation of the first memory blocks to process the user request.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터의 저장을 위한 상기 사용자 요청을 획득함에 기반하여, 상기 데이터를 이레이저 코딩 기법에 기반하여, 인코딩함으로써, 상기 n개의 데이터 블록들에 대한 상기 k개의 패리티 블록들을 생성하도록 야기할 수 있다. The above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate the k parity blocks for the n data blocks by encoding the data based on an erasure coding technique, based on obtaining the user request for storing the data.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해 상기 n개의 데이터 블록들 및 상기 k개의 패리티 블록들 각각을 서로 다른 복수의 저장 서버(101)들에 저장하도록 야기할 수 있다. The above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to store each of the n data blocks and the k parity blocks in a plurality of different storage servers (101) via the communication circuit (130).

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터의 리드를 위한 상기 사용자 요청을 획득함에 기반하여, 상기 n개의 데이터 블록들 및 상기 k개의 패리티 블록들을 이레이저 코딩 기법에 기반하여, 디코딩함으로써, 상기 데이터를 생성하도록 야기할 수 있다. The above instructions, when executed individually or collectively by the at least one processor (120), may cause the server (101) to generate the data by decoding the n data blocks and the k parity blocks based on an erasure coding technique, based on obtaining the user request for reading the data.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터의 리드를 위한 상기 사용자 요청을 획득함에 기반하여, 상기 통신 회로(130)를 통해 서로 다른 복수의 저장 서버(101)들에 저장된 상기 n개의 데이터 블록들 및 상기 k개의 패리티 블록들 각각을 획득하도록 야기할 수 있다. The above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to obtain each of the n data blocks and the k parity blocks stored in different storage servers (101) through the communication circuit (130) based on obtaining the user request for reading the data.

상기 복수의 시스템 작업들은 스캔 작업, 리커버리 작업, 및 힐 작업을 포함할 수 있다. 상기 복수의 메모리 풀들(210, 230, 250) 각각은, 상기 스캔 작업, 상기 리커버리 작업, 또는 상기 힐 작업 중 하나의 작업을 위한 메모리 풀일 수 있다. 상기 리커버리 작업을 위한 메모리 풀 및 상기 힐 작업을 위한 메모리 풀은, 상기 사용자 요청을 처리하기 위한 메모리 풀들일 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 사용자 요청을 처리하기 위한 상기 메모리 풀들 중 대기 중인 작업들에 기반하여 결정되는 대기 시간이 가장 짧은 메모리 풀을 상기 제1 메모리 풀(230, 250)로 식별하도록 야기할 수 있다. The plurality of system tasks may include a scan task, a recovery task, and a heal task. Each of the plurality of memory pools (210, 230, 250) may be a memory pool for one of the scan task, the recovery task, or the heal task. The memory pool for the recovery task and the memory pool for the heal task may be memory pools for processing the user request. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a memory pool with the shortest waiting time, determined based on pending tasks among the memory pools for processing the user request, as the first memory pool (230, 250).

상기 제1 메모리 풀(230, 250)에 대하여 동일한 우선 순위를 가지는 복수의 큐들은 라운드 로빈 기법에 따라 처리 순서가 결정될 수 있다. For the first memory pool (230, 250), the processing order of multiple queues having the same priority can be determined according to the round robin technique.

상기 스캔 작업을 위한 메모리 풀 및 상기 리커버리 작업을 위한 메모리 풀은 고정된 크기의 용량을 가질 수 있다. 상기 힐 작업을 위한 메모리 풀은 가변 크기의 용량을 가질 수 있다. The memory pool for the above scan operation and the memory pool for the above recovery operation may have fixed-size capacities. The memory pool for the above heal operation may have variable-size capacities.

상기 리커버리 작업은, 서로 다른 복수의 저장 서버(101)들 각각의 스토리지의 이상 여부를 식별하기 위한 작업일 수 있다. 상기 스캔 작업은, 상기 복수의 저장 서버(101)들 각각의 상기 스토리지에 저장된 상기 지정된 크기의 데이터 청크들 각각의 이상 여부를 식별하기 위한 작업일 수 있다. 상기 힐 작업은, 상기 스캔 작업을 통해 이상으로 판별된 이상 데이터 청크 및 상기 이상 데이터 청크와 연관된 복수의 연관 데이터 청크들을 통해, 상기 이상 데이터 청크를 복구하기 위한 작업일 수 있다. The above recovery task may be a task for identifying whether there is an abnormality in the storage of each of the plurality of different storage servers (101). The scan task may be a task for identifying whether there is an abnormality in each of the data chunks of the specified size stored in the storage of each of the plurality of storage servers (101). The heal task may be a task for recovering the abnormal data chunk through the abnormal data chunk determined to be abnormal through the scan task and a plurality of associated data chunks associated with the abnormal data chunk.

상기 이상 데이터 청크 및 상기 복수의 연관 데이터 청크들은, 데이터가 이레이저 코딩 기법에 기반하여 인코딩됨으로써 생성될 수 있다. 상기 이상 데이터 청크 및 상기 복수의 연관 데이터 청크들의 개수는 n + k일 수 있다. The above abnormal data chunk and the plurality of associated data chunks may be generated by encoding data based on an erasure coding technique. The number of the above abnormal data chunk and the plurality of associated data chunks may be n + k.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터의 처리가 완료됨에 기반하여, 상기 제1 메모리 블록들의 할당을 해제하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 할당 해제된 제1 메모리 블록들을, 다른 작업을 처리하기 위해 할당하도록 야기할 수 있다. 상기 다른 작업을 처리하기 위해 할당되는 메모리 블록의 크기는 상기 지정된 크기의 정수배일 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to deallocate the first memory blocks based on completion of processing of the data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the deallocated first memory blocks to process another task. The size of the memory block allocated to process the other task may be an integer multiple of the specified size.

상기 방법은, 복수의 시스템 작업들을 각각 처리하기 위한 복수의 메모리 풀들(210, 230, 250)이 설정되고, 상기 복수의 메모리 풀들(210, 230, 250) 각각은, 지정된 크기의 메모리 블록들로 구분되는, 메모리(110)를 포함하는 전자 장치(103)에서 수행될 수 있다. 상기 방법은, 통신 회로(130)를 통해, 전자 장치(103)로부터 n개의 데이터 블록들의 크기의 데이터의 처리를 위한 사용자 요청을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 메모리 풀들(210, 230, 250) 중 상기 사용자 요청을 처리하기 위한 제1 메모리 풀(230, 250)을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 메모리 풀(230, 250)에 대한 제1 시스템 작업 큐(231, 261)에서 대기 중인 제1 시스템 작업이 모두 처리됨에 기반하여, 상기 제1 메모리 풀(230, 250)의 제1 메모리 블록들을 상기 사용자 요청을 처리하기 위해 할당하는 동작을 포함할 수 있다. 상기 제1 메모리 블록들 각각의 크기는, 상기 n개의 데이터 블록들 및 k개의 패리티 블록들 각각의 크기에 대응할 수 있다. 상기 데이터 블록들 각각은 상기 패리티 블록들 각각과 서로 동일한 크기를 가질 수 있다. 상기 방법은, 상기 사용자 요청을 처리하기 위해 상기 제1 메모리 블록들이 할당됨에 기반하여, 상기 데이터를 처리하는 동작을 포함할 수 있다. The method may be performed in an electronic device (103) including a memory (110), in which a plurality of memory pools (210, 230, 250) are set for processing a plurality of system tasks, respectively, and each of the plurality of memory pools (210, 230, 250) is divided into memory blocks of a specified size. The method may include an operation of obtaining a user request for processing data of a size of n data blocks from the electronic device (103) through a communication circuit (130). The method may include an operation of identifying a first memory pool (230, 250) for processing the user request among the plurality of memory pools (210, 230, 250). The method may include an operation of allocating first memory blocks of the first memory pool (230, 250) to process the user request based on the processing of all first system tasks waiting in the first system task queue (231, 261) for the first memory pool (230, 250). The size of each of the first memory blocks may correspond to the size of each of the n data blocks and k parity blocks. Each of the data blocks may have the same size as each of the parity blocks. The method may include an operation of processing the data based on the allocation of the first memory blocks to process the user request.

상기 방법은, 상기 데이터의 저장을 위한 상기 사용자 요청을 획득함에 기반하여, 상기 데이터를 이레이저 코딩 기법에 기반하여, 인코딩함으로써, 상기 n개의 데이터 블록들에 대한 상기 k개의 패리티 블록들을 생성하는 동작을 포함할 수 있다. The method may include an operation of generating the k parity blocks for the n data blocks by encoding the data based on an erasure coding technique, based on obtaining the user request for storing the data.

상기 방법은, 상기 데이터의 리드를 위한 상기 사용자 요청을 획득함에 기반하여, 상기 n개의 데이터 블록들 및 상기 k개의 패리티 블록들을 이레이저 코딩 기법에 기반하여, 디코딩함으로써, 상기 데이터를 생성하는 동작을 포함할 수 있다. The method may include an operation of generating the data by decoding the n data blocks and the k parity blocks based on an erasure coding technique, based on obtaining the user request for reading the data.

상기 복수의 메모리 풀들(210, 230, 250) 각각은, 상기 스캔 작업, 상기 리커버리 작업, 또는 상기 힐 작업 중 하나의 작업을 위한 메모리 풀일 수 있다. 상기 리커버리 작업을 위한 메모리 풀 및 상기 힐 작업을 위한 메모리 풀은, 상기 사용자 요청을 처리하기 위한 메모리 풀들일 수 있다. 상기 방법은, 상기 사용자 요청을 처리하기 위한 상기 메모리 풀들 중 대기 중인 작업들에 기반하여 결정되는 대기 시간이 가장 짧은 메모리 풀을 상기 제1 메모리 풀(230, 250)로 식별하는 동작을 포함할 수 있다. Each of the plurality of memory pools (210, 230, 250) may be a memory pool for one of the scan task, the recovery task, or the heal task. The memory pool for the recovery task and the memory pool for the heal task may be memory pools for processing the user request. The method may include an operation of identifying a memory pool with the shortest waiting time, determined based on waiting tasks among the memory pools for processing the user request, as the first memory pool (230, 250).

상기 방법은, 상기 데이터의 처리가 완료됨에 기반하여, 상기 제1 메모리 블록들의 할당을 해제하는 동작을 포함할 수 있다. 상기 방법은, 상기 할당 해제된 제1 메모리 블록들을, 다른 작업을 처리하기 위해 할당하는 동작을 포함할 수 있다. 상기 다른 작업을 처리하기 위해 할당되는 메모리 블록의 크기는 상기 지정된 크기의 정수배일 수 있다. The method may include an operation of deallocating the first memory blocks based on the completion of processing of the data. The method may include an operation of allocating the deallocated first memory blocks to process another task. The size of the memory blocks allocated to process the other task may be an integer multiple of the specified size.

상술한 바와 같은, 비-일시적 컴퓨터 판독 가능 기록 매체(non-transitory computer readable storage medium)는, 인스트럭션들을 포함하는 프로그램을 저장할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 복수의 시스템 작업들을 각각 처리하기 위한 복수의 메모리 풀들(210, 230, 250)이 설정되고, 상기 복수의 메모리 풀들(210, 230, 250) 각각은, 지정된 크기의 메모리 블록들로 구분되는, 메모리(110)를 포함하는 전자 장치(103)의 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 전자 장치(103)가, 통신 회로(130)를 통해, 전자 장치(103)로부터 n개의 데이터 블록들의 크기의 데이터의 처리를 위한 사용자 요청을 획득하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 상기 복수의 메모리 풀들(210, 230, 250) 중 상기 사용자 요청을 처리하기 위한 제1 메모리 풀(230, 250)을 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 상기 제1 메모리 풀(230, 250)에 대한 제1 시스템 작업 큐(231, 261)에서 대기 중인 제1 시스템 작업이 모두 처리됨에 기반하여, 상기 제1 메모리 풀(230, 250)의 제1 메모리 블록들을 상기 사용자 요청을 처리하기 위해 할당하도록 야기할 수 있다. 상기 제1 메모리 블록들 각각의 크기는, 상기 n개의 데이터 블록들 및 k개의 패리티 블록들 각각의 크기에 대응할 수 있다. 상기 데이터 블록들 각각은 상기 패리티 블록들 각각과 서로 동일한 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서에 의해 실행될 시, 상기 전자 장치가, 상기 사용자 요청을 처리하기 위해 상기 제1 메모리 블록들이 할당됨에 기반하여, 상기 데이터를 처리하도록 야기할 수 있다. As described above, a non-transitory computer readable storage medium can store a program including instructions. The instructions, when executed by at least one processor (120) of an electronic device (103) including a memory (110), wherein a plurality of memory pools (210, 230, 250) are set for processing a plurality of system tasks, respectively, and each of the plurality of memory pools (210, 230, 250) is divided into memory blocks of a specified size, can cause the electronic device (103) to obtain a user request for processing data of a size of n data blocks from the electronic device (103) through a communication circuit (130). The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to identify a first memory pool (230, 250) among the plurality of memory pools (210, 230, 250) for processing the user request. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to allocate first memory blocks of the first memory pool (230, 250) to process the user request based on all first system tasks waiting in a first system task queue (231, 261) for the first memory pool (230, 250) being processed. The size of each of the first memory blocks may correspond to the size of each of the n data blocks and k parity blocks. Each of the data blocks may have the same size as each of the parity blocks. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to process the data based on which the first memory blocks are allocated to process the user request.

상술한 바와 같은, 서버(101)는, 통신 회로(130); 처리 회로를 포함하는 적어도 하나의 프로세서(120); 및 회로를 포함하고, 상기 적어도 하나의 프로세서(120) 및 상기 통신 회로(130) 외부에 위치하고, 상기 적어도 하나의 프로세서(120)에 의해 이용되는 동안 일시적으로 인스트럭션들을 저장하는, 적어도 하나의 메모리(110)를 포함할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 사용자 데이터를 수신하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 사용자 데이터의 인코딩을 위해, 상기 적어도 하나의 메모리의 복수의 메모리 블록들을 할당하도록 야기할 수 있다. 상기 복수의 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 동일한 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 사용자 데이터를 인코딩함에 따라: 상기 사용자 데이터를 데이터 블록들로 나누도록 야기할 수 있다. 상기 데이터 블록들 각각은 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록 중 적어도 하나의 오류 블록을 복구하기 위한 패리티 블록들을 생성하도록 야기할 수 있다. 상기 패리티 블록들 각각은 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들을 상기 사용자 데이터를 인코딩하기 위해 할당된 상기 복수의 메모리 블록들에 저장하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 스토리지 장치들에게, 상기 스토리지 장치들에 분산되도록, 상기 데이터 블록들 및 상기 패리티 블록들을 송신하도록 야기할 수 있다. As described above, the server (101) may include: a communication circuit (130); at least one processor (120) including a processing circuit; and at least one memory (110) including circuitry and located external to the at least one processor (120) and the communication circuit (130) and temporarily storing instructions while being used by the at least one processor (120). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive user data from an electronic device (103) via the communication circuit (130). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of memory blocks of the at least one memory for encoding the user data. The plurality of memory blocks may have a predefined and identical fixed size prior to receiving the user data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to: divide the user data into data blocks, wherein each of the data blocks may have the fixed size, in accordance with encoding the user data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate parity blocks for repairing at least one error block among the data blocks. Each of the parity blocks may have the fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the data blocks and the parity blocks in the plurality of memory blocks allocated for encoding the user data. The above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit the data blocks and the parity blocks to the storage devices via the communication circuit (130) so as to be distributed among the storage devices.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들이 상기 스토리지 장치들에 송신됨에 기반하여, 상기 사용자 데이터의 인코딩을 위해 할당된 상기 복수의 메모리 블록들을 할당 해제하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 스토리지 장치들에 저장된 적어도 다른 블록을 처리하기 위한 요청을 식별하도록 야기할 수 있다. 상기 적어도 다른 블록은, 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청을 식별함에 응답하여, 상기 적어도 다른 블록을 처리하기 위해, 상기 할당 해제된 복수의 메모리 블록들 중 적어도 하나의 메모리 블록을 할당하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to deallocate the plurality of memory blocks allocated for encoding the user data based on the data blocks and the parity blocks being transmitted to the storage devices. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a request to process at least another block stored in the storage devices. The at least another block may have the fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to, in response to identifying the request, allocate at least one memory block of the deallocated plurality of memory blocks to process the at least another block.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 사용자 데이터와 관련된 요청을 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청을, 상기 적어도 하나의 메모리를 위한 사용자 태스크 큐에 인큐하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청이 인큐됨에 기반하여, 상기 적어도 하나의 메모리에 대한 시스템 태스크 큐가 비어있는지를 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 시스템 태스크 큐가 비어있음에 기반하여, 상기 사용자 데이터를 인코딩하기 위해, 상기 복수의 메모리 블록들을 할당하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a request related to the user data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to enqueue the request in a user task queue for the at least one memory. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify whether a system task queue for the at least one memory is empty based on the request being enqueued. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the plurality of memory blocks to encode the user data based on the system task queue being empty.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청이 복수의 사용자 태스크 큐들에 인큐될 때의 대기 시간들에 기반하여, 상기 복수의 사용자 태스크 큐들 중 상기 사용자 태스크 큐를 식별하도록 야기할 수 있다. The above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a user task queue among the plurality of user task queues based on waiting times when the request is enqueued in the plurality of user task queues.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 복수의 사용자 태스크 큐들 간의 라운드 로빈 기법에 기반한 상기 사용자 태스크 큐에 인큐된 상기 요청의 순서를 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청의 상기 순서를 식별함에 응답하여, 상기 사용자 데이터를 인코딩하기 위해, 상기 복수의 메모리 블록들을 할당하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify an order of the requests enqueued in the user task queue based on a round-robin technique among the plurality of user task queues. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the plurality of memory blocks for encoding the user data in response to identifying the order of the requests.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 복수의 시스템 큐들에 인큐된 복수의 시스템 태스크들의 대기 시간들에 기반하여, 상기 복수의 시스템 태스크 큐들 중 상기 시스템 태스크 큐에 대응하는 상기 사용자 태스크 큐를 식별하도록 야기할 수 있다. 상기 복수의 시스템 태스크 큐들은 각각 서로 다른 시스템 태스크들을 위해 사전 결정될 수 있다. 상기 복수의 시스템 태스크 큐들의 시스템 태스크들은 상기 고정된 크기를 가지는 서로 다른 메모리 블록들을 포함하는 서로 다른 메모리 영역들에 각각 할당될 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify the user task queue corresponding to the system task queue among the plurality of system task queues based on waiting times of the plurality of system tasks enqueued in the plurality of system queues. The plurality of system task queues may be predetermined for different system tasks, respectively. The system tasks of the plurality of system task queues may be allocated to different memory areas, each of which includes different memory blocks having the fixed size.

상기 복수의 시스템 태스크 큐들을 위한 적어도 하나의 메모리의 메모리 풀들은 상기 동일한 고정된 크기를 가지는 메모리 블록들을 포함할 수 있다. 상기 저장 장치들 중 고장난 적어도 하나의 저장 장치에 저장된 블록들을 복구하기 위한 제1 시스템 태스크 큐를 위한 제1 메모리 풀은 상기 적어도 하나의 메모리의 용량 중 고정된 용량을 가질 수 있다. 상기 저장 장치들 중 적어도 하나에 저장된 오류 블록들을 복구하기 위한 제2 시스템 태스크 큐를 위한 제2 메모리 풀은 상기 적어도 하나의 메모리의 용량 중 가변 용량을 가질 수 있다. At least one memory pool for the plurality of system task queues may include memory blocks having the same fixed size. A first memory pool for a first system task queue for recovering blocks stored in at least one failed storage device among the storage devices may have a fixed capacity among the capacities of the at least one memory. A second memory pool for a second system task queue for recovering error blocks stored in at least one of the storage devices may have a variable capacity among the capacities of the at least one memory.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 통신 회로(130)를 통해, 상기 전자 장치(103)로부터, 상기 저장 장치들에 분산된 상기 데이터 블록들 및 상기 패리티 블록들과 관련된 다른 요청을 수신하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들의 디코딩을 위해, 상기 적어도 하나의 메모리의 복수의 다른 메모리 블록들을 할당하도록 야기할 수 있다. 상기 복수의 다른 메모리 블록들은 상기 복수의 메모리 블록들과 구분될 수 있다. 상기 복수의 다른 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 상기 동일한 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩함에 따라, 상기 사용자 데이터를 생성하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 생성된 사용자 데이터를 상기 복수의 다른 메모리 블록들에 저장하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 상기 전자 장치(103)에게, 상기 복수의 다른 메모리 블록들에 저장된 상기 생성된 사용자 데이터를 송신하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive, from the electronic device (103) via the communication circuit (130), another request related to the data blocks and the parity blocks distributed across the storage devices. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of other memory blocks of the at least one memory for decoding the data blocks and the parity blocks. The plurality of other memory blocks may be distinct from the plurality of memory blocks. The plurality of other memory blocks may have the same fixed size, which is predefined prior to receiving the user data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate the user data by decoding the data blocks and the parity blocks. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the generated user data in the plurality of other memory blocks. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit the generated user data stored in the plurality of other memory blocks to the electronic device (103) via the communication circuit (130).

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 저장 장치들에 분산된 상기 데이터 블록들 및 상기 패리티 블록들과 관련된 다른 요청을 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 적어도 하나의 오류 블록을 복구하기 위해, 상기 적어도 하나의 메모리의 적어도 하나의 다른 메모리 블록을 할당하도록 야기할 수 있다. 상기 적어도 하나의 오류 블록은, 상기 데이터 블록들 및 상기 패리티 블록들 중 적어도 하나의 비트가 오염된 블록일 수 있다. 상기 적어도 하나의 다른 메모리 블록의 적어도 하나는, 상기 복수의 메모리 블록들과 구분될 수 있다. 상기 적어도 하나의 다른 메모리 블록은, 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들을 이용하여, 상기 적어도 하나의 오류 블록의 에러 정정에 의해, 상기 적어도 하나의 오류 블록을 복구하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 상기 저장 장치들 중 적어도 하나에, 상기 적어도 하나의 오류 블록으로부터 복구된 적어도 하나의 블록을 송신하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify other requests related to the data blocks and the parity blocks distributed across the storage devices. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate at least one other memory block of the at least one memory to repair the at least one error block. The at least one error block may be a block in which at least one bit of the data blocks and the parity blocks is corrupted. At least one of the at least one other memory block may be distinct from the plurality of memory blocks. The at least one other memory block may have the fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to recover the at least one error block by error correction of the at least one error block using the data blocks and the parity blocks. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit, via the communication circuit (130), to at least one of the storage devices, at least one block recovered from the at least one error block.

상기 복수의 메모리 블록들 각각의 상기 고정된 크기는 1 메가바이트 이상일 수 있다. The fixed size of each of the plurality of memory blocks may be 1 megabyte or more.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 다른 사용자 데이터를 수신하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 다른 사용자 데이터의 인코딩을 위해, 상기 적어도 하나의 메모리의 복수의 다른 메모리 블록들을 할당하도록 야기할 수 있다. 상기 복수의 다른 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 동일한 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 다른 사용자 데이터를 인코딩함에 따라: 상기 다른 사용자 데이터를 다른 데이터 블록들로 나누도록 야기할 수 있다. 상기 다른 데이터 블록들 각각은 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 다른 데이터 블록 중 적어도 하나의 오류 블록을 복구하기 위한 다른 패리티 블록들을 생성하도록 야기할 수 있다. 상기 다른 패리티 블록들 각각은 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 다른 데이터 블록들 및 상기 다른 패리티 블록들을 상기 다른 사용자 데이터를 인코딩하기 위해 할당된 상기 복수의 다른 메모리 블록들에 저장하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 상기 스토리지 장치들에게, 상기 스토리지 장치들에 분산되도록, 상기 다른 데이터 블록들 및 상기 다른 패리티 블록들을 송신하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive other user data from the electronic device (103) via the communication circuit (130). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of other memory blocks of the at least one memory for encoding the other user data. The plurality of other memory blocks may have the same fixed size, which is predefined prior to receiving the user data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to: divide the other user data into other data blocks, as the other user data is encoded. Each of the other data blocks may have the fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate other parity blocks for repairing at least one error block among the other data blocks. Each of the other parity blocks may have the fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the other data blocks and the other parity blocks in the plurality of other memory blocks allocated for encoding the other user data. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to transmit the other data blocks and the other parity blocks to the storage devices via the communication circuit (130) so as to be distributed among the storage devices.

상기 복수의 메모리 블록들은 상기 적어도 하나의 메모리의 제1 메모리 영역 및 제2 메모리 영역 중 상기 제1 메모리 영역 내에 사전 정의될 수 있다. 상기 제2 메모리 영역은 상기 사용자 데이터에 대한 사용자 태스크 및 상기 적어도 하나의 오류 블록을 복구하기 위한 시스템 태스크와 무관한 요청을 위해 할당되는 다양한 크기의 복수의 메모리 블록들을 가질 수 있다. The plurality of memory blocks may be predefined within a first memory area and a second memory area of the at least one memory. The second memory area may have a plurality of memory blocks of various sizes allocated for requests unrelated to a user task for the user data and a system task for recovering the at least one error block.

상술한 바와 같은, 서버(101)는, 통신 회로(130); 처리 회로를 포함하는 적어도 하나의 프로세서(120); 및 회로를 포함하고, 상기 적어도 하나의 프로세서(120) 및 상기 통신 회로(130) 외부에 위치하고, 상기 적어도 하나의 프로세서(120)에 의해 이용되는 동안 일시적으로 인스트럭션들을 저장하는, 적어도 하나의 메모리(110)를 포함할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 사용자 데이터와 관련된 요청을 수신하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 데이터 블록들과 패리티 블록들로 인코딩된 상기 사용자 데이터를 식별하도록 야기할 수 있다. 상기 데이터 블록들은, 상기 서버에 의해, 상기 사용자 데이터로부터 나뉠 수 있다. 상기 패리티 블록들은, 상기 서버에 의해, 상기 데이터 블록의 적어도 하나의 오류 블록을 복구하기 위해 생성될 수 있다. 상기 데이터 블록들과 상기 패리티 블록들은 동일한 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들의 디코딩을 위해, 상기 적어도 하나의 메모리의 복수의 메모리 블록들을 할당하도록 야기할 수 있다. 상기 복수의 메모리 블록들은 상기 요청을 수신하기 전에 사전 정의된 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩함에 따라, 상기 사용자 데이터를 생성하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 생성된 사용자 데이터를 상기 복수의 메모리 블록들에 저장하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 통신 회로(130)를 통해, 상기 전자 장치(103)에게, 상기 복수의 메모리 블록들에 저장된 상기 생성된 사용자 데이터를 송신하도록 야기할 수 있다. As described above, the server (101) may include: a communication circuit (130); at least one processor (120) including a processing circuit; and at least one memory (110) including circuitry and located external to the at least one processor (120) and the communication circuit (130) and temporarily storing instructions while being used by the at least one processor (120). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to receive a request related to user data from an electronic device (103) via the communication circuit (130). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify the user data encoded into data blocks and parity blocks. The data blocks may be separated from the user data by the server. The parity blocks may be generated by the server to repair at least one error block of the data block. The data blocks and the parity blocks may have the same fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate a plurality of memory blocks of the at least one memory for decoding the data blocks and the parity blocks. The plurality of memory blocks may have the fixed size predefined before receiving the request. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to generate the user data by decoding the data blocks and the parity blocks. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to store the generated user data in the plurality of memory blocks. The above instructions, when executed individually or collectively by the at least one processor (120), may cause the server (101) to transmit the generated user data stored in the plurality of memory blocks to the electronic device (103) via the communication circuit (130).

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 사용자 데이터가 상기 전자 장치(103)에 송신됨에 기반하여, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩하기 위해 할당된 상기 복수의 메모리 블록들을 할당 해제하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 스토리지 장치들에 저장된 적어도 다른 블록을 처리하기 위한 요청을 식별하도록 야기할 수 있다. 상기 적어도 다른 블록은, 상기 고정된 크기를 가질 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청을 식별함에 응답하여, 상기 적어도 다른 블록을 처리하기 위해, 상기 할당 해제된 복수의 메모리 블록들 중 적어도 하나의 메모리 블록을 할당하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to deallocate the plurality of memory blocks allocated for decoding the data blocks and the parity blocks based on the user data being transmitted to the electronic device (103). The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a request to process at least another block stored in the storage devices. The at least another block may have the fixed size. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to, in response to identifying the request, allocate at least one memory block of the deallocated plurality of memory blocks to process the at least another block.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청을, 상기 적어도 하나의 메모리를 위한 사용자 태스크 큐에 인큐하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청이 인큐됨에 기반하여, 상기 적어도 하나의 메모리에 대한 시스템 태스크 큐가 비어있는지를 식별하도록 야기할 수 있다. 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 시스템 태스크 큐가 비어있음에 기반하여, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩하기 위해, 상기 복수의 메모리 블록들을 할당하도록 야기할 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to enqueue the request in a user task queue for the at least one memory. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify whether a system task queue for the at least one memory is empty based on the request being enqueued. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to allocate the plurality of memory blocks for decoding the data blocks and the parity blocks based on the system task queue being empty.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 상기 요청이 복수의 사용자 태스크 큐들에 인큐될 때의 대기 시간들에 기반하여, 상기 복수의 사용자 태스크 큐들 중 상기 사용자 태스크 큐를 식별하도록 야기할 수 있다. The above instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify a user task queue among the plurality of user task queues based on waiting times when the request is enqueued in the plurality of user task queues.

상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가, 복수의 시스템 큐들에 인큐된 복수의 시스템 태스크들의 대기 시간들에 기반하여, 상기 복수의 시스템 태스크 큐들 중 상기 시스템 태스크 큐에 대응하는 상기 사용자 태스크 큐를 식별하도록 야기할 수 있다. 상기 복수의 시스템 태스크 큐들은 각각 서로 다른 시스템 태스크들을 위해 사전 결정될 수 있다. 상기 복수의 시스템 태스크 큐들의 시스템 태스크들은 상기 고정된 크기를 가지는 서로 다른 메모리 블록들을 포함하는 서로 다른 메모리 영역들에 각각 할당될 수 있다. The instructions, when individually or collectively executed by the at least one processor (120), may cause the server (101) to identify the user task queue corresponding to the system task queue among the plurality of system task queues based on waiting times of the plurality of system tasks enqueued in the plurality of system queues. The plurality of system task queues may be predetermined for different system tasks, respectively. The system tasks of the plurality of system task queues may be allocated to different memory areas, each of which includes different memory blocks having the fixed size.

상기 복수의 시스템 태스크 큐들을 위한 적어도 하나의 메모리의 메모리 풀들은 상기 동일한 고정된 크기를 가지는 메모리 블록들을 포함할 수 있다. 상기 저장 장치들 중 고장난 적어도 하나의 저장 장치에 저장된 블록들을 복구하기 위한 제1 시스템 태스크 큐를 위한 제1 메모리 풀은 상기 적어도 하나의 메모리의 용량 중 고정된 용량을 가질 수 있다. 상기 저장 장치들 중 적어도 하나에 저장된 오류 블록들을 복구하기 위한 제2 시스템 태스크 큐를 위한 제2 메모리 풀은 상기 적어도 하나의 메모리의 용량 중 가변 용량을 가질 수 있다. At least one memory pool for the plurality of system task queues may include memory blocks having the same fixed size. A first memory pool for a first system task queue for recovering blocks stored in at least one failed storage device among the storage devices may have a fixed capacity among the capacities of the at least one memory. A second memory pool for a second system task queue for recovering error blocks stored in at least one of the storage devices may have a variable capacity among the capacities of the at least one memory.

상기 복수의 메모리 블록들 각각의 상기 고정된 크기는 1 메가바이트 이상일 수 있다. The fixed size of each of the plurality of memory blocks may be 1 megabyte or more.

상기 복수의 메모리 블록들은 상기 적어도 하나의 메모리의 제1 메모리 영역 및 제2 메모리 영역 중 상기 제1 메모리 영역 내에 사전 정의될 수 있다. 상기 제2 메모리 영역은 상기 사용자 데이터에 대한 사용자 태스크 및 상기 적어도 하나의 오류 블록을 복구하기 위한 시스템 태스크와 무관한 요청을 위해 할당되는 다양한 크기의 복수의 메모리 블록들을 가질 수 있다. The plurality of memory blocks may be predefined within a first memory area and a second memory area of the at least one memory. The second memory area may have a plurality of memory blocks of various sizes allocated for requests unrelated to a user task for the user data and a system task for recovering the at least one error block.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to the various embodiments disclosed in this document may take various forms. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to the embodiments of this document are not limited to the aforementioned devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terminology used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase among those phrases, or all possible combinations thereof. Terms such as "first," "second," or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first component) is referred to as "coupled" or "connected" to another component (e.g., a second component), with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit. A module may be an integral component, or a minimum unit or part of such a component that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1201)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1236) 또는 외장 메모리(1238))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1240))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1201))의 프로세서(예: 프로세서(1220))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (1240)) including one or more instructions stored in a storage medium (e.g., an internal memory (1236) or an external memory (1238)) readable by a machine (e.g., an electronic device (1201)). For example, a processor (e.g., a processor (1220)) of the machine (e.g., an electronic device (1201)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded as a product between a seller and a buyer. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., by download or upload) through an application store (e.g., Play Store ) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체들을 포함할 수 있으며, 복수의 개체들 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include one or more entities, and some of the entities may be separated and arranged in other components. According to various embodiments, one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (e.g., a module or a program) may be integrated into a single component. In such a case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. According to various embodiments, the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Claims (15)

서버(101)에 있어서, In server (101), 통신 회로(130);Communication circuit (130); 처리 회로를 포함하는 적어도 하나의 프로세서(120); 및At least one processor (120) comprising a processing circuit; and 회로를 포함하고, 상기 적어도 하나의 프로세서(120) 및 상기 통신 회로(130) 외부에 위치하고, 상기 적어도 하나의 프로세서(120)에 의해 이용되는 동안 일시적으로 인스트럭션들을 저장하는, 적어도 하나의 메모리(110)를 포함하고, A circuit comprising at least one memory (110) located outside the at least one processor (120) and the communication circuit (130), and temporarily storing instructions while being used by the at least one processor (120), 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 사용자 데이터를 수신하고, Through the above communication circuit (130), user data is received from the electronic device (103), 상기 사용자 데이터의 인코딩을 위해, 상기 적어도 하나의 메모리의 복수의 메모리 블록들을 할당하고, 상기 복수의 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 동일한 고정된 크기를 가지고, For encoding the user data, a plurality of memory blocks of the at least one memory are allocated, and the plurality of memory blocks have the same fixed size predefined before receiving the user data, 상기 사용자 데이터를 인코딩함에 따라:As we encode the above user data: 상기 사용자 데이터를 데이터 블록들로 나누고, 상기 데이터 블록들 각각은 상기 고정된 크기를 가지고, Divide the above user data into data blocks, each of the data blocks having the fixed size, 상기 데이터 블록 중 적어도 하나의 오류 블록을 복구하기 위한 패리티 블록들을 생성하고, 상기 패리티 블록들 각각은 상기 고정된 크기를 가지고,Generating parity blocks for recovering at least one error block among the data blocks, each of the parity blocks having the fixed size, 상기 데이터 블록들 및 상기 패리티 블록들을 상기 사용자 데이터를 인코딩하기 위해 할당된 상기 복수의 메모리 블록들에 저장하고, 및storing the data blocks and the parity blocks in the plurality of memory blocks allocated to encode the user data, and 상기 통신 회로(130)를 통해, 스토리지 장치들에게, 상기 스토리지 장치들에 분산되도록, 상기 데이터 블록들 및 상기 패리티 블록들을 송신하도록 야기하는,Causing the storage devices to transmit the data blocks and the parity blocks to the storage devices through the communication circuit (130), so as to be distributed among the storage devices. 서버. Server. 청구항 1에 있어서, In claim 1, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 데이터 블록들 및 상기 패리티 블록들이 상기 스토리지 장치들에 송신됨에 기반하여, 상기 사용자 데이터의 인코딩을 위해 할당된 상기 복수의 메모리 블록들을 할당 해제하고, Based on the data blocks and parity blocks being transmitted to the storage devices, the plurality of memory blocks allocated for encoding the user data are deallocated, 상기 스토리지 장치들에 저장된 적어도 다른 블록을 처리하기 위한 요청을 식별하고, 상기 적어도 다른 블록은, 상기 고정된 크기를 가지고, Identify a request to process at least another block stored in said storage devices, said at least another block having said fixed size, 상기 요청을 식별함에 응답하여, 상기 적어도 다른 블록을 처리하기 위해, 상기 할당 해제된 복수의 메모리 블록들 중 적어도 하나의 메모리 블록을 할당하도록 야기하는, In response to identifying the request, causing at least one memory block among the plurality of memory blocks that have been deallocated to process the at least another block, 서버. Server. 청구항 1 또는 2 중 어느 하나에 있어서, In either claim 1 or 2, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 사용자 데이터와 관련된 요청을 식별하고, Identify requests related to the above user data, 상기 요청을, 상기 적어도 하나의 메모리를 위한 사용자 태스크 큐에 인큐하고, Enqueue the above request into a user task queue for at least one memory, 상기 요청이 인큐됨에 기반하여, 상기 적어도 하나의 메모리에 대한 시스템 태스크 큐가 비어있는지를 식별하고, Based on the enqueuing of the above request, identifying whether the system task queue for the at least one memory is empty, 상기 시스템 태스크 큐가 비어있음에 기반하여, 상기 사용자 데이터를 인코딩하기 위해, 상기 복수의 메모리 블록들을 할당하도록 야기하는,Based on the above system task queue being empty, causing the allocation of the plurality of memory blocks to encode the user data, 서버. Server. 청구항 3에 있어서, In claim 3, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 요청이 복수의 사용자 태스크 큐들에 인큐될 때의 대기 시간들에 기반하여, 상기 복수의 사용자 태스크 큐들 중 상기 사용자 태스크 큐를 식별하도록 야기하는, Causing to identify a user task queue among the plurality of user task queues based on the waiting times when the request is enqueued in the plurality of user task queues; 서버. Server. 청구항 4에 있어서,In claim 4, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 복수의 사용자 태스크 큐들 간의 라운드 로빈 기법에 기반한 상기 사용자 태스크 큐에 인큐된 상기 요청의 순서를 식별하고, Identifying the order of the requests enqueued in the user task queue based on a round robin technique among the plurality of user task queues, 상기 요청의 상기 순서를 식별함에 응답하여, 상기 사용자 데이터를 인코딩하기 위해, 상기 복수의 메모리 블록들을 할당하도록 야기하는,In response to identifying the order of the above requests, causing the allocation of the plurality of memory blocks to encode the user data, 서버. Server. 청구항 3에 있어서,In claim 3, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 복수의 시스템 큐들에 인큐된 복수의 시스템 태스크들의 대기 시간들에 기반하여, 상기 복수의 시스템 태스크 큐들 중 상기 시스템 태스크 큐에 대응하는 상기 사용자 태스크 큐를 식별하도록 야기하고, 상기 복수의 시스템 태스크 큐들은 각각 서로 다른 시스템 태스크들을 위해 사전 결정되고, 상기 복수의 시스템 태스크 큐들의 시스템 태스크들은 상기 고정된 크기를 가지는 서로 다른 메모리 블록들을 포함하는 서로 다른 메모리 영역들에 각각 할당되는Based on the waiting times of a plurality of system tasks enqueued in a plurality of system queues, cause the user task queue corresponding to the system task queue among the plurality of system task queues to be identified, wherein the plurality of system task queues are each predetermined for different system tasks, and the system tasks of the plurality of system task queues are each allocated to different memory areas including different memory blocks having the fixed size. 서버. Server. 청구항 6에 있어서,In claim 6, 상기 복수의 시스템 태스크 큐들을 위한 적어도 하나의 메모리의 메모리 풀들은 상기 동일한 고정된 크기를 가지는 메모리 블록들을 포함하고, At least one memory pool for the plurality of system task queues comprises memory blocks having the same fixed size, 상기 저장 장치들 중 고장난 적어도 하나의 저장 장치에 저장된 블록들을 복구하기 위한 제1 시스템 태스크 큐를 위한 제1 메모리 풀은 상기 적어도 하나의 메모리의 용량 중 고정된 용량을 가지고, A first memory pool for a first system task queue for recovering blocks stored in at least one failed storage device among the above storage devices has a fixed capacity among the capacities of the at least one memory, 상기 저장 장치들 중 적어도 하나에 저장된 오류 블록들을 복구하기 위한 제2 시스템 태스크 큐를 위한 제2 메모리 풀은 상기 적어도 하나의 메모리의 용량 중 가변 용량을 가지는, A second memory pool for a second system task queue for recovering error blocks stored in at least one of the above storage devices has a variable capacity among the capacities of the at least one memory. 서버. Server. 청구항 2 내지 7 중 어느 하나에 있어서,In any one of claims 2 to 7, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 통신 회로(130)를 통해, 상기 전자 장치(103)로부터, 상기 저장 장치들에 분산된 상기 데이터 블록들 및 상기 패리티 블록들과 관련된 다른 요청을 수신하고, Through the communication circuit (130), receiving another request related to the data blocks and the parity blocks distributed to the storage devices from the electronic device (103), 상기 데이터 블록들 및 상기 패리티 블록들의 디코딩을 위해, 상기 적어도 하나의 메모리의 복수의 다른 메모리 블록들을 할당하고, 상기 복수의 다른 메모리 블록들은 상기 복수의 메모리 블록들과 구분되고, 상기 복수의 다른 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 상기 동일한 고정된 크기를 가지고, For decoding the data blocks and the parity blocks, a plurality of different memory blocks of the at least one memory are allocated, the plurality of different memory blocks are distinguished from the plurality of memory blocks, and the plurality of different memory blocks have the same fixed size predefined before receiving the user data. 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩함에 따라, 상기 사용자 데이터를 생성하고, By decoding the above data blocks and the above parity blocks, the user data is generated, 상기 생성된 사용자 데이터를 상기 복수의 다른 메모리 블록들에 저장하고, 및Store the generated user data in the plurality of different memory blocks, and 상기 통신 회로(130)를 통해, 상기 전자 장치(103)에게, 상기 복수의 다른 메모리 블록들에 저장된 상기 생성된 사용자 데이터를 송신하도록 야기하는,Causing the electronic device (103) to transmit the generated user data stored in the plurality of different memory blocks through the communication circuit (130). 서버. Server. 청구항 2 내지 7 중 어느 하나에 있어서,In any one of claims 2 to 7, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 저장 장치들에 분산된 상기 데이터 블록들 및 상기 패리티 블록들과 관련된 다른 요청을 식별하고, Identify other requests related to the data blocks and parity blocks distributed across the storage devices, 상기 적어도 하나의 오류 블록을 복구하기 위해, 상기 적어도 하나의 메모리의 적어도 하나의 다른 메모리 블록을 할당하고, 상기 적어도 하나의 오류 블록은, 상기 데이터 블록들 및 상기 패리티 블록들 중 적어도 하나의 비트가 오염된 블록이고, 상기 적어도 하나의 다른 메모리 블록의 적어도 하나는, 상기 복수의 메모리 블록들과 구분되고, 상기 적어도 하나의 다른 메모리 블록은, 상기 고정된 크기를 가지고, In order to recover the at least one error block, at least one other memory block of the at least one memory is allocated, the at least one error block is a block in which at least one bit of the data blocks and the parity blocks is corrupted, at least one of the at least one other memory block is distinct from the plurality of memory blocks, and the at least one other memory block has the fixed size, 상기 데이터 블록들 및 상기 패리티 블록들을 이용하여, 상기 적어도 하나의 오류 블록의 에러 정정에 의해, 상기 적어도 하나의 오류 블록을 복구하고, Using the data blocks and the parity blocks, recovering the at least one error block by error correction of the at least one error block, 상기 통신 회로(130)를 통해, 상기 저장 장치들 중 적어도 하나에, 상기 적어도 하나의 오류 블록으로부터 복구된 적어도 하나의 블록을 송신하도록 야기하는,Causing, through the communication circuit (130), to transmit at least one block recovered from the at least one error block to at least one of the storage devices. 서버. Server. 청구항 1 내지 9 중 어느 하나에 있어서,In any one of claims 1 to 9, 상기 복수의 메모리 블록들 각각의 상기 고정된 크기는 1 메가바이트 이상인 The fixed size of each of the above plurality of memory blocks is 1 megabyte or more. 서버. Server. 청구항 1 내지 10 중 어느 하나에 있어서,In any one of claims 1 to 10, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 다른 사용자 데이터를 수신하고, Through the above communication circuit (130), other user data is received from the electronic device (103), 상기 다른 사용자 데이터의 인코딩을 위해, 상기 적어도 하나의 메모리의 복수의 다른 메모리 블록들을 할당하고, 상기 복수의 다른 메모리 블록들은 상기 사용자 데이터를 수신하기 전에 사전 정의된 동일한 고정된 크기를 가지고, For encoding the other user data, a plurality of other memory blocks of the at least one memory are allocated, and the plurality of other memory blocks have the same fixed size predefined before receiving the user data, 상기 다른 사용자 데이터를 인코딩함에 따라:As we encode the other user data above: 상기 다른 사용자 데이터를 다른 데이터 블록들로 나누고, 상기 다른 데이터 블록들 각각은 상기 고정된 크기를 가지고, Divide the above different user data into different data blocks, each of the different data blocks having the fixed size, 상기 다른 데이터 블록 중 적어도 하나의 오류 블록을 복구하기 위한 다른 패리티 블록들을 생성하고, 상기 다른 패리티 블록들 각각은 상기 고정된 크기를 가지고,Generating other parity blocks for recovering at least one error block among the other data blocks, each of the other parity blocks having the fixed size, 상기 다른 데이터 블록들 및 상기 다른 패리티 블록들을 상기 다른 사용자 데이터를 인코딩하기 위해 할당된 상기 복수의 다른 메모리 블록들에 저장하고, 및storing said other data blocks and said other parity blocks in said plurality of other memory blocks allocated to encode said other user data, and 상기 통신 회로(130)를 통해, 상기 스토리지 장치들에게, 상기 스토리지 장치들에 분산되도록, 상기 다른 데이터 블록들 및 상기 다른 패리티 블록들을 송신하도록 야기하는, Causing the storage devices to transmit the other data blocks and the other parity blocks to be distributed among the storage devices through the communication circuit (130). 서버. Server. 청구항 1 내지 11 중 어느 하나에 있어서,In any one of claims 1 to 11, 상기 복수의 메모리 블록들은 상기 적어도 하나의 메모리의 제1 메모리 영역 및 제2 메모리 영역 중 상기 제1 메모리 영역 내에 사전 정의되고, The plurality of memory blocks are predefined within the first memory area among the first memory area and the second memory area of the at least one memory, 상기 제2 메모리 영역은 상기 사용자 데이터에 대한 사용자 태스크 및 상기 적어도 하나의 오류 블록을 복구하기 위한 시스템 태스크와 무관한 요청을 위해 할당되는 다양한 크기의 복수의 메모리 블록들을 가지는,The second memory area has a plurality of memory blocks of various sizes allocated for requests unrelated to a user task for the user data and a system task for recovering the at least one error block. 서버. Server. 서버(101)에 있어서, In server (101), 통신 회로(130);Communication circuit (130); 처리 회로를 포함하는 적어도 하나의 프로세서(120); 및At least one processor (120) comprising a processing circuit; and 회로를 포함하고, 상기 적어도 하나의 프로세서(120) 및 상기 통신 회로(130) 외부에 위치하고, 상기 적어도 하나의 프로세서(120)에 의해 이용되는 동안 일시적으로 인스트럭션들을 저장하는, 적어도 하나의 메모리(110)를 포함하고, A circuit comprising at least one memory (110) located outside the at least one processor (120) and the communication circuit (130), and temporarily storing instructions while being used by the at least one processor (120), 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 통신 회로(130)를 통해, 전자 장치(103)로부터 사용자 데이터와 관련된 요청을 수신하고, Through the above communication circuit (130), a request related to user data is received from the electronic device (103), 데이터 블록들과 패리티 블록들로 인코딩된 상기 사용자 데이터를 식별하고, 상기 데이터 블록들은, 상기 서버에 의해, 상기 사용자 데이터로부터 나뉘고, 상기 패리티 블록들은, 상기 서버에 의해, 상기 데이터 블록의 적어도 하나의 오류 블록을 복구하기 위해 생성되고, 상기 데이터 블록들과 상기 패리티 블록들은 동일한 고정된 크기를 가지고, Identifying the user data encoded with data blocks and parity blocks, wherein the data blocks are divided from the user data by the server, and the parity blocks are generated by the server to recover at least one error block of the data block, and wherein the data blocks and the parity blocks have the same fixed size, 상기 데이터 블록들 및 상기 패리티 블록들의 디코딩을 위해, 상기 적어도 하나의 메모리의 복수의 메모리 블록들을 할당하고, 상기 복수의 메모리 블록들은 상기 요청을 수신하기 전에 사전 정의된 상기 고정된 크기를 가지고, For decoding the data blocks and the parity blocks, allocate a plurality of memory blocks of the at least one memory, wherein the plurality of memory blocks have a fixed size predefined before receiving the request, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩함에 따라, 상기 사용자 데이터를 생성하고, By decoding the above data blocks and the above parity blocks, the user data is generated, 상기 생성된 사용자 데이터를 상기 복수의 메모리 블록들에 저장하고, 및Store the generated user data in the plurality of memory blocks, and 상기 통신 회로(130)를 통해, 상기 전자 장치(103)에게, 상기 복수의 메모리 블록들에 저장된 상기 생성된 사용자 데이터를 송신하도록 야기하는,Causing the electronic device (103) to transmit the generated user data stored in the plurality of memory blocks through the communication circuit (130). 서버.Server. 청구항 13에 있어서,In claim 13, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 사용자 데이터가 상기 전자 장치(103)에 송신됨에 기반하여, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩하기 위해 할당된 상기 복수의 메모리 블록들을 할당 해제하고, Based on the user data being transmitted to the electronic device (103), the plurality of memory blocks allocated for decoding the data blocks and the parity blocks are deallocated, 상기 스토리지 장치들에 저장된 적어도 다른 블록을 처리하기 위한 요청을 식별하고, 상기 적어도 다른 블록은, 상기 고정된 크기를 가지고,Identify a request to process at least another block stored in said storage devices, said at least another block having said fixed size, 상기 요청을 식별함에 응답하여, 상기 적어도 다른 블록을 처리하기 위해, 상기 할당 해제된 복수의 메모리 블록들 중 적어도 하나의 메모리 블록을 할당하도록 야기하는, In response to identifying the request, causing at least one memory block among the plurality of memory blocks that have been deallocated to process the at least another block, 서버. Server. 청구항 13 또는 14 중 어느 하나에 있어서,In any one of claims 13 or 14, 상기 인스트럭션들은, 개별적으로 또는 집합적으로, 상기 적어도 하나의 프로세서(120)에 의해 실행될 시, 상기 서버(101)가,The above instructions, when individually or collectively executed by the at least one processor (120), cause the server (101) to: 상기 요청을, 상기 적어도 하나의 메모리를 위한 사용자 태스크 큐에 인큐하고, Enqueue the above request into a user task queue for at least one memory, 상기 요청이 인큐됨에 기반하여, 상기 적어도 하나의 메모리에 대한 시스템 태스크 큐가 비어있는지를 식별하고, Based on the enqueuing of the above request, identifying whether the system task queue for the at least one memory is empty, 상기 시스템 태스크 큐가 비어있음에 기반하여, 상기 데이터 블록들 및 상기 패리티 블록들을 디코딩하기 위해, 상기 복수의 메모리 블록들을 할당하도록 야기하는,Based on the system task queue being empty, causing the allocation of the plurality of memory blocks to decode the data blocks and the parity blocks. 서버. Server.
PCT/KR2024/097073 2024-02-06 2024-12-17 Server and method for managing memory pool, and non-transitory computer-readable recoding medium Pending WO2025170203A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2024-0018154 2024-02-06
KR20240018154 2024-02-06
KR1020240048791A KR20250122359A (en) 2024-02-06 2024-04-11 Server, method, and non-transitory computer readable storage medium for managing memory pool
KR10-2024-0048791 2024-04-11

Publications (1)

Publication Number Publication Date
WO2025170203A1 true WO2025170203A1 (en) 2025-08-14

Family

ID=96700219

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/097073 Pending WO2025170203A1 (en) 2024-02-06 2024-12-17 Server and method for managing memory pool, and non-transitory computer-readable recoding medium

Country Status (1)

Country Link
WO (1) WO2025170203A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0740247A2 (en) * 1995-04-28 1996-10-30 Hewlett-Packard Company Data stream server system
KR20120063926A (en) * 2010-12-08 2012-06-18 한국전자통신연구원 Method of parity updates in asymmetric clustering filesystem
US20140149515A1 (en) * 2010-04-30 2014-05-29 Netapp, Inc. Multi-level parallelism of process execution in a mutual exclusion domain of a processing system
US20170277450A1 (en) * 2016-03-22 2017-09-28 Seagate Technology Llc Lockless parity management in a distributed data storage system
US20180121285A1 (en) * 2016-10-31 2018-05-03 Vivint, Inc. Segmented cloud storage

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0740247A2 (en) * 1995-04-28 1996-10-30 Hewlett-Packard Company Data stream server system
US20140149515A1 (en) * 2010-04-30 2014-05-29 Netapp, Inc. Multi-level parallelism of process execution in a mutual exclusion domain of a processing system
KR20120063926A (en) * 2010-12-08 2012-06-18 한국전자통신연구원 Method of parity updates in asymmetric clustering filesystem
US20170277450A1 (en) * 2016-03-22 2017-09-28 Seagate Technology Llc Lockless parity management in a distributed data storage system
US20180121285A1 (en) * 2016-10-31 2018-05-03 Vivint, Inc. Segmented cloud storage

Similar Documents

Publication Publication Date Title
WO2021025482A1 (en) Electronic device and method for generating attestation certificate based on fused key
WO2021177695A1 (en) Electronic device for providing transaction information and operating method thereof
WO2022031029A1 (en) Electronic device and method, performed by electronic device, for providing application screen on external device display
WO2019168340A1 (en) Electronic device using metal cover as antenna radiator
WO2021201620A1 (en) Electronic device for performing edge computing service and method for the same
WO2022239994A1 (en) Electronic device, and method for updating external electronic device by using same
WO2016013892A1 (en) Device and method for processing image
WO2022025463A1 (en) Electronic device for synchronizing output timing of content output by external devices, and method for operating electronic device
WO2025170203A1 (en) Server and method for managing memory pool, and non-transitory computer-readable recoding medium
WO2022131818A1 (en) Electronic device including structure for removing electrical stress, and printed circuit board
WO2022211286A1 (en) Electronic device, and method for processing received data packet by electronic device
WO2022163897A1 (en) Electronic device and control method therefor
WO2023085853A1 (en) Electronic device for recovering file and operation method of electronic device
WO2025146896A1 (en) Electronic device and method for managing buffer for image frames, and non-transitory computer-readable recording medium
WO2025110443A1 (en) Electronic device, method, and non-transitory computer-readable storage medium for controlling transmission of packet for audio output
WO2024253401A1 (en) Electronic device and method for detecting application excessively using resource of electronic device
WO2025211628A1 (en) Electronic device and operation method thereof
WO2025192910A1 (en) Electronic device for generating policy for blocking messages, operation method thereof, and recording medium
WO2025143501A1 (en) Electronic device and method for outputting media by using configuration information about frame, and storage medium
WO2023096181A1 (en) Electronic device having partial ledger in blockchain network, and operation method therefor
WO2025263932A1 (en) Electronic device, operation method thereof, and storage medium
WO2025239503A1 (en) Electronic device, method, and non-transitory computer-readable storage medium for playing back video content
WO2025110715A1 (en) Keyboard device and electronic device connected to keyboard device
WO2023059012A1 (en) Electronic device for configuring twt parameter on basis of response signal received from external electronic device of another bss, and operation method of electronic device
WO2025018836A1 (en) Electronic device and recent screen display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24924142

Country of ref document: EP

Kind code of ref document: A1