[go: up one dir, main page]

WO2025198384A1 - Electronic device, method, server, and storage medium for performing generative task for language-based command - Google Patents

Electronic device, method, server, and storage medium for performing generative task for language-based command

Info

Publication number
WO2025198384A1
WO2025198384A1 PCT/KR2025/095024 KR2025095024W WO2025198384A1 WO 2025198384 A1 WO2025198384 A1 WO 2025198384A1 KR 2025095024 W KR2025095024 W KR 2025095024W WO 2025198384 A1 WO2025198384 A1 WO 2025198384A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
language
generative
command
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2025/095024
Other languages
French (fr)
Korean (ko)
Inventor
김정민
강주은
김선아
배소운
조은비
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020240070111A external-priority patent/KR20250142162A/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2025198384A1 publication Critical patent/WO2025198384A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks

Definitions

  • the present disclosure relates to an electronic device, method, server, and storage medium for performing a generative operation on language-based commands.
  • Analytical AI analytical AI
  • generative AI models can generate data or content in response to user input and provide this generated content.
  • the quality of the data or content they provide is also improving.
  • the types of generation tasks may include, for example, text generation, image generation, code generation, voice generation, and/or video generation. Users can select an AI model that supports the desired generation task, access the entity providing the service for that AI model, and check the execution results of the AI model.
  • a method for processing a language-based command may include providing a first user interface for inputting a language-based command.
  • the method may include receiving a language-based command input based on the first user interface.
  • the method may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command.
  • the method may include receiving an execution command input based on the second user interface.
  • the method may include providing an execution result based on the first generative AI model in response to the execution command.
  • AI generative artificial intelligence
  • a storage medium storing at least one computer-readable instruction may be provided.
  • the at least one instruction when executed individually or collectively by one or more processors comprising processing circuitry of an electronic device, may cause the electronic device to perform at least one operation.
  • the at least one method may include providing a first user interface for inputting a language-based command.
  • the at least one method may include receiving a language-based command input based on the first user interface.
  • the at least one method may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command.
  • the at least one method may include receiving an execution command input based on the second user interface.
  • the at least one method may include providing an execution result based on the first generative AI model in response to the execution command.
  • AI generative artificial intelligence
  • an electronic device may include one or more processors including processing circuitry.
  • the electronic device may include a memory storing at least one instruction.
  • the at least one instruction when individually or collectively executed by the one or more processors of the electronic device, may cause the electronic device to perform at least one operation.
  • the at least one operation may include providing a first user interface for receiving a language-based command.
  • the at least one operation may include receiving a language-based command input based on the first user interface.
  • the at least one operation may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command.
  • the at least one operation may include receiving an execution command input based on the second user interface.
  • the at least one action may include an action that provides an execution result based on the first generative AI model in response to the execution command.
  • AI generative artificial intelligence
  • a method for processing a language-based command may include receiving a language-based command.
  • the method may include identifying a type of a generation task based on an analysis result of the language-based command.
  • the method may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task.
  • the method may include providing an execution result based on the first generative AI model.
  • AI generative artificial intelligence
  • a storage medium storing at least one computer-readable instruction may be provided.
  • the at least one instruction when executed individually or collectively by one or more processors comprising processing circuitry of an electronic device, may cause the electronic device to perform at least one operation.
  • the at least one operation may include receiving a language-based instruction.
  • the at least one operation may include identifying a type of a generation task based on an analysis result of the language-based instruction.
  • the at least one operation may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of generation task.
  • the at least one method may include providing an execution result based on the first generative AI model.
  • AI generative artificial intelligence
  • an electronic device may include one or more processors including processing circuitry.
  • the electronic device may include a memory storing at least one instruction.
  • the at least one instruction when individually or collectively executed by one or more processors of the electronic device, may cause the electronic device to perform at least one operation.
  • the at least one operation may include receiving a language-based instruction.
  • the at least one operation may include identifying a type of a generation task based on an analysis result of the language-based instruction.
  • the at least one operation may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task.
  • the at least one operation may include providing an execution result based on the first generative AI model.
  • AI generative artificial intelligence
  • FIG. 1A is a diagram illustrating an electronic device and a server according to one embodiment.
  • FIG. 1b is a drawing for explaining an electronic device and a server according to one embodiment.
  • FIG. 1c is a drawing for explaining an electronic device and a server according to one embodiment.
  • FIG. 1D is a drawing for explaining an electronic device and a server according to one embodiment.
  • FIG. 2 is a drawing for explaining an electronic device and a server according to one embodiment.
  • FIG. 3 is a drawing for explaining an operation method of an electronic device and a server according to one embodiment.
  • Figure 4a is an example of various UIs.
  • Figure 4b is an example of various UIs.
  • Figure 4c is an example of various UIs.
  • Figure 4d is an example of various UIs.
  • FIG. 5a is a diagram for explaining an operation method of a server according to one embodiment.
  • FIG. 5b is a diagram for explaining the operation of a module of a server according to one embodiment.
  • FIG. 6a is a diagram for explaining an operation method of a server according to one embodiment.
  • Figure 6b is an example of a UI according to one embodiment.
  • FIG. 7a is a diagram for explaining an operation method of a server according to one embodiment.
  • Figure 7b is an example of a UI according to one embodiment.
  • FIG. 8a is a diagram for explaining an operation method of a server according to one embodiment.
  • Figure 8b is an example of a UI according to one embodiment.
  • FIG. 9a is a diagram for explaining an operation method of a server according to one embodiment.
  • Figure 9b is an example of a UI according to one embodiment.
  • FIG. 10 is a drawing for explaining an operating method of an electronic device according to one embodiment.
  • FIG. 1A is a drawing for explaining an electronic device and a server according to one embodiment.
  • a server (100) can transmit and/or receive data with an electronic device (101).
  • the electronic device (101) is not limited to any device capable of transmitting and receiving data with the server (100), such as a computer or a mobile electronic device (e.g., a smart phone or a tablet PC).
  • the server (100) may include and/or execute a frontend module (111), a prompt processing module (112), an AI model selection module (113), a UI generation module (114), and/or at least one AI model repository (120, 130, 140).
  • At least one module (111, 112, 113, 114) may be executed by, for example, at least one processor included in the server (100), or may be included as at least a part of the processor.
  • At least some of the operations performed by at least one module (111, 112, 113, 114) in the present disclosure may be understood to be performed by, for example, at least one processor included in the server (100) and/or another entity under the control of the processor.
  • the electronic device (101) may provide an execution result of an AI model in conjunction with the server (100), and this may be referred to as a non-standalone type.
  • the electronic device (101) alone may provide an execution result of an AI model, and this may be referred to as a standalone type or an on-device type, which will be described with reference to FIGS. 1c and/or 1d.
  • the server (100) may include a cloud server, an application server, a computing server, a database server, a file server, a game server, a mail server, a proxy server, and a web server, and may be implemented as one or more entities, and there is no limitation on the form of implementation.
  • the front-end module (111) can perform at least one operation for exchanging data with, for example, the electronic device (101).
  • the front-end module (111) can provide data that can configure a UI that can input user input in the electronic device (101).
  • the front-end module (111) can be implemented as a web server, but there is no limitation thereto.
  • the electronic device (101) can access the front-end module (111), for example, based on a URL entered in a web browsing application, or by executing an application, but there is no limitation on the access method.
  • the front-end module (111) can provide processing for a user request to at least one other module.
  • the at least one other module can be referred to as a back-end module.
  • the back-end module can provide a generated result corresponding to an input language-based command to the front-end module (111).
  • the front-end module (111) can provide a generation result corresponding to a language-based command to the electronic device (101).
  • the prompt processing module (112) may process a language-based command received from the electronic device (101) and provide the processing result to the AI model selection module (113).
  • the AI model selection module (113) may select an AI model to perform a generation task corresponding to the language-based command among a plurality of AI models (120A, 120B, ..., 120L, 130A, 130B, ..., 130M, 140A, 140B, ..., 140N).
  • the prompt processing module (112) and the AI model selection module (113) may be implemented as one.
  • the prompt processing module (112) and/or the AI model selection module (113) can identify a type (or, which may be named a category) of a generation task corresponding to a language-based command based on a rule-based approach, such as comparing the parsing result for the language-based command with keywords.
  • the type of generation task may include, but is not limited to, text generation, image generation, code generation, voice generation, and/or video generation.
  • the generative AI model may include, for example, a text generation AI model.
  • the text generation AI model may provide various text-based outputs in response to a user's prompt, such as an essay on a specific topic, a summary of an input paragraph, or an answer to an inquiry.
  • the generative AI model may include, for example, an image generation AI model.
  • the image generation AI model may generate and provide an image corresponding to a prompt input by the user.
  • the generative AI model may include, for example, a code generation AI model.
  • a code-generating AI model can generate and provide executable code in response to a user-entered prompt.
  • Generative AI models may include, for example, a voice-generating AI model.
  • the voice-generating AI model can generate and provide music in response to a user-entered prompt, or generate and provide a voice that mimics a human voice in response to a user-entered prompt.
  • Generative AI models may include, for example, a video-generating AI model.
  • the video-generating AI model can generate and provide a video in response to a user-entered prompt.
  • the prompt processing module (112) and/or the AI model selection module (113) may select at least one AI model corresponding to the type of the identified generation task. For example, the prompt processing module (112) and/or the AI model selection module (113) may determine that “draw” corresponds to a keyword of the category of the image generation task in the parsing result of the language-based command “draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style.” For example, the prompt processing module (112) and/or the AI model selection module (113) may select any one of the image generation AI models (130A, 130B, ..., 130M) stored in a storage (e.g., storage (130)) corresponding to the category of the image generation task.
  • a storage e.g., storage (130)
  • the prompt processing module (112) and/or the AI model selection module (113) may select an image generation AI model based on the analysis result of the language-based command.
  • the prompt processing module (112) and/or the AI model selection module (113) may select an AI model that is confirmed to have relatively good cartoon image generation performance based on the keyword “cartoon style.”
  • the above-described keyword-based category and/or AI model confirmation method is merely exemplary, and that this may also be performed based on NLU (natural language understanding) (or natural language processing, NLP).
  • the server (100) may also confirm the category and/or AI model based on the execution result of, for example, an LLM (large language model) for AI model selection, for example, a sLLM (small LLM).
  • LLM large language model
  • sLLM small LLM
  • the prompt processing module (112) and/or the AI model selection module (113) may confirm an AI model that will perform the generation task directly without performing the process of confirming the category.
  • the category-specific repositories (120, 130, 140) are shown as being separated, this is exemplary and there is no limitation on the management and/or number of repositories.
  • the UI generation module (114) can generate a UI based on the selected AI model. For example, the UI generation module (114) can generate a UI for receiving input values of the selected AI model. Alternatively, the UI generation module (114) can generate a UI that selects and/or reflects at least some of the input values of the selected AI model. For example, the UI generation module (114) can identify parameters that constitute the UI and their corresponding values based on the analysis results of language-based commands. The UI generation module (114) can also generate a UI based on the identified information.
  • FIG. 1b is a drawing for explaining an electronic device and a server according to one embodiment.
  • the server (100) may not store and/or manage AI models.
  • the server (100) may transmit and/or receive data with external AI model providers (121A, 121B, ..., 121L, 131A, 131B, ..., 131M, 141A, 141B, ..., 141N).
  • the server (100) may receive language-based commands from the electronic device (101). Based on the analysis results of the language-based commands, the server (100) may identify a category of a generation task corresponding to the language-based commands and/or an AI model to perform the generation task.
  • the server (100) may identify the second image AI model as an AI model to perform a generation task.
  • the server (100) may request the second image AI model provider (131B) to perform a generation task.
  • the generation task performance request may include at least one piece of information identified based on the UI of the second image AI model, but is not limited thereto.
  • the second image AI model provider (131B) may generate an image in response to the received request and provide the image to the server (100).
  • the server (100) may provide the received image to the electronic device (101).
  • the second image AI model provider (131B) may directly transmit the generated image to the electronic device (101).
  • the server (100) may provide the electronic device (101) with information indicating that the second image AI model is selected, information for executing an application corresponding to the second image AI model, and/or connection information corresponding to the second image AI model provider (121B).
  • the electronic device (101) may directly connect to the second image AI model provider (131B) based on the information received from the server (100).
  • the electronic device (101) may request the second image AI model provider (131B) to perform a generation task.
  • the second image AI model provider (131B) may generate an image in response to the received request and provide the image to the electronic device (101).
  • FIG. 1c is a drawing for explaining an electronic device and a server according to one embodiment.
  • the electronic device (101) can perform AI model selection without being connected to the server (100).
  • the electronic device (101) may include a prompt processing module (112), an AI model selection module (113), and/or a UI generation module (114).
  • at least one module (112, 113, 114) may identify an AI model to perform a generation task based on a language-based command.
  • the electronic device (101) may not store and/or manage the AI model.
  • the electronic device (101) may transmit and/or receive data with external AI model providers (121A, 121B, ..., 121L, 131A, 131B, ..., 131M, 141A, 141B, ..., 141N).
  • the electronic device (101) may identify the second image AI model as an AI model to perform a generation task.
  • the electronic device (101) may request the second image AI model provider (131B) to perform a generation task.
  • the request to perform the generation task may include at least one piece of information identified based on the UI of the second image AI model, but there is no limitation.
  • the second image AI model provider (131B) may generate an image in response to the received request and provide the image to the electronic device (101).
  • the server (100) may provide the received image to the electronic device (101).
  • FIG. 1d is a drawing for explaining an electronic device and a server according to one embodiment.
  • the electronic device (101) can perform AI model selection without being connected to the server (100).
  • the electronic device (101) can include a prompt processing module (112), an AI model selection module (113), and/or a UI generation module (114).
  • the electronic device (101) can store and/or manage a plurality of AI models (120A, 120B, ..., 120L, 130A, 130B, ..., 130M, 140A, 140B, ..., 140N).
  • at least one module (112, 113, 114) can identify an AI model to perform a generation task based on a language-based command.
  • the electronic device (101) can, for example, execute a second image AI model (120B) and provide a result of the generation task.
  • FIG. 2 is a drawing for explaining an electronic device and a server according to one embodiment.
  • the electronic device (101) may include a processor (211), a memory (212), a communication device (213), a display (214), and/or an input device (215).
  • the server (100) may include a processor (221), a memory (222), and/or a communication device (223).
  • at least some of at least one operation performed by the server (100) described in the present disclosure may also be performed by the electronic device (101).
  • the electronic device (101) may perform at least some of the various operations of the present disclosure.
  • the server (100) can perform at least some of the various operations of the present disclosure.
  • the processor (211) and/or the processor (221) may, for example, execute software (e.g., a program) to control at least one other component (e.g., a hardware or software component) of the electronic device (101) and/or the server (100), and may perform various data processing or operations.
  • software e.g., a program
  • at least one other component e.g., a hardware or software component
  • the processor (211) and/or the processor (221) may store instructions or data received from another component (e.g., a communication device (213) and/or a communication device (223)) in the memory (212) and/or the memory (222) (e.g., but not limited to, a volatile memory), process the instructions or data stored in the volatile memory, and store the resulting data in the memory (212) and/or the memory (222) (e.g., but not limited to, a non-volatile memory).
  • the processor (211) and/or the processor (221) may include, but is not limited to, a central processing unit (CPU), a GPU, and/or a neural processing unit (NPU), including circuitry.
  • the memory (212) and/or the memory (222) may store various data used by at least one component of the electronic device (101) and/or the server (100).
  • the data may include, for example, software (e.g., a program) and input data or output data for commands related thereto.
  • the electronic device (101) and/or the server (100) may include volatile memory and/or non-volatile memory.
  • the electronic device (101) and/or the server (100) may include a hard disk, a ROM, a RAM, a cache memory, and/or a register, and the implementation thereof is not limited thereto.
  • Some of the above-described entities may be implemented as a part of the electronic device (101) and/or the server (100), and the implementation form thereof is not limited thereto.
  • the electronic device (101) and/or the server (100) may store at least one generative AI model.
  • the processor (211) and/or the processor (221) may execute instructions in, for example, the memory (212) and/or the memory (222).
  • the memory (212) and/or the memory (222) may store at least one instruction, and the at least one instruction may be executed by the processor (211) and/or the processor (221).
  • the at least one instruction when executed by the processor (211) and/or the processor (221), may cause the electronic device (101) and/or the server (100) to perform at least one operation.
  • at least one instruction may be controlled, and/or various data processing or operations may be performed.
  • the processor (211) and/or the processor (221) may store instructions or data received from other components in at least a part of the memory (212) and/or the memory (222), process the instructions or data stored in the memory (212) and/or the memory (222), and store result data in the memory (212) and/or the memory (222).
  • the fact that one operation is performed by the processor (211) and/or the processor (221) may mean, for example, that the operation is performed by (or under the control of) one entity included in the processor (211) and/or the processor (221) (for example, but not limited to, a main processor).
  • the fact that one operation is performed may mean, for example, that a specific operation is performed by (or under the control of) a plurality of entities (for example, a plurality of processors).
  • performing a plurality of operations may mean that all of the operations are performed by (or under the control of) a single entity (e.g., but not limited to, a main processor).
  • performing a plurality of operations may mean that some of the operations are performed by at least one entity, and some of the operations are performed by at least another entity.
  • at least one instruction causing one or more operations to be performed may be stored in a single memory, or may be stored distributedly in each of a plurality of memories.
  • the communication device (213) and/or the communication device (223) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and the server (100), and the performance of communication through the established communication channel.
  • the communication device (213) and/or the communication device (223) may include one or more communication processors that support direct (e.g., wired) communication or wireless communication, but is not limited thereto.
  • the communication device (213) and/or the communication device (223) may include an Ethernet-based wired communication module (e.g., a local area network (LAN) communication module, or a power line communication module).
  • LAN local area network
  • the communication device (213) and/or the communication device (223) may also include a wireless communication module, but is not limited thereto. At least some of the above components can be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).
  • peripheral devices e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).
  • the display (214) can visually provide information to an external party (e.g., a user) of the electronic device (101).
  • the display (214) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device.
  • the input device (215) can receive input from the user.
  • the display (214) and the input device (215) can be implemented as a touch display.
  • an input/output device based on voice input/output such as a microphone/speaker, may be further included in the electronic device (101).
  • FIG. 3 is a diagram for explaining an operation method of an electronic device and a server according to one embodiment. The embodiment of FIG. 3 will be described with reference to FIGS. 4A to 4D .
  • FIGS. 4A to 4D are examples of various UIs. Meanwhile, as described with reference to FIGS. 1A to 1D , those skilled in the art will understand that at least some of the operations performed by the server (100) may be performed by the electronic device (101), and/or some operations may be omitted.
  • the server (100) may, in operation 301, provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101).
  • the electronic device (101), in operation 303, may perform at least one operation for representing a first UI (410) for inputting a language-based command, for example, as in FIG. 4A, based on the at least one first data.
  • the first UI (410) may include an input window (420) for inputting a language-based command.
  • the input window (420) may include a language-based command, and thus, a user may confirm the language-based command currently input by the user.
  • the input window (420) includes an icon (421) for sending a language-based command, an icon (422) for attaching a file, and/or a placeholder (423) for inducing message input, but this is exemplary and there is no limitation on the implementation of the input window (420).
  • the first UI (410) may include an existing language-based command/response history (411, 412) as a UI corresponding to a text-generating AI model, but this is exemplary.
  • the electronic device (101) and/or the server (100) may provide a UI of a generative AI model other than a text-generating AI model as the first UI.
  • the electronic device (101) and/or the server (100) may provide a UI for selecting an AI model as the first UI.
  • the UI for selecting an AI model may include, for example, an input window (420) as in FIG. 4A, but there is no limitation on its implementation form.
  • the UI (410) may be provided in an auditory manner in addition to a visual expression manner.
  • the electronic device (101) may induce the user to utter a language-based command by outputting a voice such as "How may I help you?"
  • the electronic device (101) may receive a language-based command through the first UI in operation 305.
  • the electronic device (101) may transmit the language-based command to the server (100) in operation 307.
  • the electronic device (101) may additionally display a soft input panel (SIP) and may express a language-based command input through the SIP in the input window (420).
  • the electronic device (101) may express a language-based command corresponding to an input through an accessory (e.g., a keyboard) in the input window (420).
  • the electronic device (101) may express the received language-based command (428) in the input window (420), and there is no limitation on the expression method.
  • the electronic device (101) may transmit a language-based command (428) to the server (100) based on the detection of selection of an icon (421) for transmission.
  • the server (100) may, in operation 309, select an AI model to perform a generation task based on a language-based command.
  • the server (100) may identify the type of generation task based on the analysis results of the language-based command (e.g., rule-based analysis, NLU, and/or LLM, but not limited thereto).
  • the server (100) may identify the type of generation task as image generation based on the analysis results of “Draw a cartoon-style picture of a boy with a lonely face walking down a dark night street.”
  • the server (100) may identify any one of the stored and/or accessible image generation AI models as the AI model to perform the generation task.
  • the server (100) may identify the AI model based on the analysis results of the language-based command. For example, the server (100) may select an AI model with relatively good quality for generating a "cartoon" image based on the analysis results for "draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style", but there is no limitation on the method of confirmation.
  • Table 1 is an example of characteristics of each image generation AI model managed by the server (100) (or electronic device (101)).
  • AI model characteristic makeimageAI A bright-toned comic cartoon AI A serious cartoon japan AI Japanese-style comics drawing AI oil painting
  • each AI model can be set, for example, by an AI model training entity, and/or by an AI model selection entity (e.g., an electronic device (101) and/or a server (100)), but there is no limitation on this, and there is no limitation on the method of setting them.
  • the server (100) can select an AI model to perform a generation task based on the analysis result of “Draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style” and the characteristics of each AI model set as in Table 1, but there is no limitation on this.
  • the server (100) may, in operation 311, configure a second UI (440) based on a selected AI model, for example, as in FIG. 4c.
  • the server (100) may provide at least one second data for representing the second UI (440) to the electronic device (101).
  • the electronic device (101) may, in operation 315, represent the second UI (440) based on the received at least one second data.
  • the second UI (440) may include at least one parameter (440, 445, 450, 455, 460, 465) and corresponding values (442, 446, 461, 456, 461, 466) required by the selected AI model (or received as an input value).
  • the server (100) can set a value (442, 446, 461, 456, 461, 466) corresponding to at least one parameter (440, 445, 450, 455, 460, 465) based on the analysis result of the language-based command and/or set it as a default value.
  • a value corresponding to a parameter (441) of a filter may be set to "cartoon" (442).
  • the server (100) may determine that the value corresponding to the parameter (441) of the filter is the value (442) of "cartoon” based on the analysis result of the language-based command. Accordingly, the server (100) may set the value corresponding to the parameter (441) of the filter of the second UI (440) to "cartoon" (442). If a value corresponding to the parameter of the filter is not determined from the language-based command, the server (100) may set the value corresponding to the parameter of the filter to a default value or a value determined based on the usage history (e.g., a value used in the past).
  • the server (100) may exclude the corresponding parameter from the UI.
  • a function icon (443) for selecting another filter may be further included. When icon (443) is selected, other selectable values may be provided.
  • the value corresponding to the parameter (445) of the prompt can be set to "Draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style" (446).
  • the server (100) can, for example, set a language-based command as the value corresponding to the parameter (445) of the prompt.
  • this is exemplary, and a modified and/or replacement text for the language-based command can also be set as the value corresponding to the parameter (445) of the prompt, which will be described with reference to FIGS. 6A and 6B.
  • the value corresponding to the excluded image parameter (450) can be set to custom (451), the value corresponding to the image size parameter (455) can be set to "1024x1024" (456), the value corresponding to the work speed and quality parameter (460) can be set to "fast”, and the value of the dimming parameter (465) can be set to "dark” (466).
  • the value corresponding to the parameter may be a value set based on the analysis result of the language-based command, a default value, and/or history, but there is no limitation.
  • the second UI may be configured, for example, in response to the selected AI model and/or the identified generation task. For example, in the case of a task generating a summary or translation, a second UI including a relatively large text input/output screen (or window) may be provided. For example, in the case of a task generating a question answer, a second UI including a relatively small question input window may be provided. For example, if an image generation AI model is selected, a second UI may be provided that divides the screen according to the number of images to be output. For example, if a code generation AI model is selected, a second UI may be provided that applies markup, such as line numbers and highlighting, to improve code readability.
  • markup such as line numbers and highlighting
  • the electronic device (101) may obtain an AI model execution command through the second UI (440) in operation 317.
  • the user may check at least one parameter-specific value of the second UI (440) expressed by the electronic device (101).
  • the user may also additionally adjust at least some of the at least one parameter-specific value through the second UI (440).
  • the user may input an AI model execution command through the second UI (440).
  • the electronic device (101) may transmit the AI model execution command to the server (100) in operation 319.
  • the server (100) may obtain an AI model execution result in operation 321.
  • the server (100) may obtain the AI model execution result by inputting an input value composed of parameter-specific values into the AI model. If the server (100) does not store the AI model, it may provide an input value composed of parameter values for the AI model to the AI model provider. The server (100) may also obtain an AI model execution result from the AI model provider. In operation 323, the server (100) may provide at least one third data for expressing the execution result of the AI model to the electronic device (101). In operation 325, the electronic device (101) may provide the AI model execution result. For example, the electronic device (101) may provide an AI model execution result (470) as in FIG. 4d.
  • the AI model execution result (470) may include a generated image (471) and interactive text (472) associated with the generation task, but there is no limitation on the form of implementation.
  • the AI model execution result (470) may include information on which AI model was used.
  • the generated image (471) may be expressed in the format of the first UI (410) that inputs a language-based command, but this is merely exemplary.
  • the server (100) may provide the generated image (471) based on the format of the second UI or another format, and there is no limitation on the method of expression.
  • the user can utilize various generative AI models based on text without having to select a different AI model for each generation task or connect to a specific generation task service provider.
  • at least a portion of the parameter settings of various generative AI models that are difficult for non-experts to access can be automatically generated, thereby improving user accessibility.
  • FIG. 5A is a diagram for explaining an operation method of a server according to one embodiment. The embodiment of FIG. 5A will be explained with reference to FIG. 5B.
  • FIG. 5B is a diagram for explaining the operation of a module of a server according to one embodiment.
  • the server (108), for example, the prompt processing module (112) in FIG. 5B, may perform analysis of a language-based command in operation 501.
  • the prompt processing module (112) may analyze the language-based command based on, but not limited to, rule-based and/or NLU, and may also obtain analysis results for the language-based command using LLM (e.g., sLLM).
  • LLM e.g., sLLM
  • the prompt processing module (112) may provide the analysis results to the AI model selection module (113).
  • the server (108), for example, the AI model selection module (113) may select an AI model based on the analysis results in operation 503.
  • the AI model selection module (113) may select one of a plurality of AI models corresponding to the type of the identified generation task, but this is exemplary.
  • the AI model selection module (113) may also select an AI model to perform the generation task without specifying the type of the generation task.
  • the server (100), for example, the UI generation module (114), can, in operation 505, check at least one parameter of the UI corresponding to the selected AI model.
  • the server (100), for example, the UI generation module (114), can, in operation 507, check at least a portion and a value of at least one parameter based on the language-based command.
  • the server (100), in operation 509, can configure a UI by applying the checked parameters and values.
  • the UI corresponding to the selected AI model can be generated.
  • the parameter extraction module (114b) can extract a value corresponding to at least a portion of at least one parameter corresponding to the AI model based on the analysis result of the language-based command. For example, as described with reference to FIG.
  • a value corresponding to the filter parameter (440) from the "cartoon style" of the language-based command can be set to "cartoon.”
  • the inclusion of the parameter extraction module (114b) in the UI generation module (114) is exemplary, and those skilled in the art will understand that the parameter extraction module (114b) may be included in another module (e.g., the prompt processing module (112) and/or the AI model selection module) or implemented independently from another module.
  • the UI configuration module (114a) may generate a UI based on information about the selected AI model and the parameter extraction results. For example, the UI generation module (114) may exclude parameters that are not confirmed from language-based commands from the UI or set default values.
  • FIG. 6A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 6A will be described with reference to FIG. 6B.
  • FIG. 6B is an example of a UI according to one embodiment.
  • the server (100) may analyze a language-based command in operation 601.
  • the server (100) may select an AI model based on the analysis result of the language-based command in operation 603.
  • the server (100) may change at least a portion of the language-based command in response to the selected AI model in operation 605.
  • the server (100) may identify an image generation AI model as the AI model to perform the generation task based on the analysis of the language-based command.
  • the image generation AI model may request, for example, elements of the prompt, a description of an object included in the image, a description of the background, a description of a scene, a description of a filter, a description of an attribute (e.g., brightness), etc.
  • the server (100) may identify at least one element of the prompt based on the language-based command. For example, the server (100) may identify, from the language-based command, that the description of the object is "a boy with a lonely face.” For example, the server (100) can determine from the language-based command that the description of the background is "the background is a dark night street.” For example, the server (100) can determine from the language-based command that the description of the scene is "the scene description is a boy walking down a street at night.” For example, the server (100) can determine from the language-based command that the description of the filter is "the filter is cartoon-style.” For example, the server (100) can determine from the language-based command that the description of the attribute is "the brightness is set to dark.” In operation 607, the server (100) can configure a UI that includes the changed command.
  • the value (446) corresponding to the prompt parameter (445) of the second UI (440) may be different from "Draw a picture of a boy with a lonely face walking down a dark night street in a cartoon-style" (446) in FIG. 4c.
  • the server (100) can identify a value (446) corresponding to a prompt parameter (445) of the second UI (440) by distinguishing elements of the prompt corresponding to the selected AI model identified as described above, such as a description of an object included in an image, a description of a background, a description of a scene, a description of a filter, and a description of a property (e.g., brightness).
  • a property e.g., brightness
  • FIG. 7A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 7A will be described with reference to FIG. 7B.
  • FIG. 7B is an example of a UI according to one embodiment.
  • the server (100) may, in operation 701, provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101).
  • the electronic device (101) may, in operation 703, perform at least one operation for representing a first UI for inputting a language-based command based on the at least one first data.
  • the electronic device (101) may, in operation 705, receive a language-based command through the first UI.
  • the electronic device (101) may receive a language-based command based on an input through SIP or an input through a connected accessory (e.g., a keyboard), but there is no limitation on the method of receiving the command, and the language-based command may also be received through a voice recognition function.
  • the electronic device (101) may, in operation 707, transmit the language-based command to the server (100).
  • the server (100) may, in operation 709, select an AI model based on a language-based command.
  • the server (100) may analyze the language-based command based on rules and/or NLU, but is not limited thereto, and may also obtain analysis results for the language-based command using LLM (e.g., sLLM).
  • LLM e.g., sLLM
  • the server (100) may select an AI model based on the analysis results. For example, the server (100) may select any one of a plurality of AI models corresponding to the type of the identified generation task, but this is exemplary.
  • the server (100) may also select an AI model to perform the generation task without specifying the type of the generation task.
  • the server (100) may, in operation 711, inquire about whether to use the selected AI model. For example, the server (100) may transmit information about the selected AI model to the electronic device (101).
  • the electronic device (101) may, for example, provide a text (722) inquiring about the results of understanding language-based commands and whether to use the selected AI model, as in FIG. 7B .
  • the electronic device (101) may provide an icon (723) indicating the use of the selected AI model and an icon (724) indicating that the AI model is not to be used.
  • the electronic device (101) can confirm the use of the selected AI model in operation 713.
  • the electronic device (101) can confirm the use of the selected AI model by confirming the selection of the icon (723) as in FIG. 7B, but there is no limitation on the method of confirmation.
  • the electronic device (101) can provide the server (100) with confirmation of the use of the selected AI model in operation 715.
  • the server (100) can obtain an AI model execution result based on the confirmation of the use of the selected AI model in operation 717.
  • the server (100) can obtain the AI model execution result by executing a stored AI model or connecting to a corresponding AI model provider.
  • the server (100) can provide the electronic device (101) with at least one third data for representing the AI model execution result in operation 719.
  • the electronic device (101) can provide the AI model execution result in operation 721.
  • FIG. 8A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 8A will be described with reference to FIG. 8B.
  • FIG. 8B is an example of a UI according to one embodiment.
  • the server (100) may provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101).
  • the electronic device (101) may perform at least one operation for representing a first UI for inputting a language-based command based on the at least one first data.
  • the electronic device (101) may receive a language-based command through the first UI.
  • the electronic device (101) may transmit the language-based command to the server (100).
  • the server (100), in operation 809, can check a list of AI models based on a language-based command.
  • the server (100) can check a list of AI models capable of performing the identified generation task based on the language-based command, or a list of AI models suitable for performing the generation task.
  • the server (100) can check that the type of the generation task is an image generation type, and can check a list of AI models capable of performing image generation.
  • the server (100) can analyze the language-based command based on a rule basis and/or NLU, but is not limited thereto, and can also obtain analysis results for the language-based command using an LLM (e.g., sLLM).
  • LLM e.g., sLLM
  • the server (100) can check a list of AI models corresponding to the type of the identified generation task, but this is exemplary.
  • the server (100) can also check a list of AI models capable of performing the generation task even without the type of the generation task.
  • the server (100) can provide a list of AI models to the electronic device (101) in operation 811.
  • the electronic device (101) may provide a list of received AI models in operation 813.
  • the electronic device (101) may provide a UI (820) including information (822) related to the AI model list.
  • the UI (820) may also include language-based commands (821).
  • the electronic device (101) may confirm a selection of one of the AI model lists in operation 813.
  • the user may input information about one of the selections based on information (822) about the list.
  • the electronic device (101) may provide the selected AI model information to the server (100) in operation 815.
  • the server (100) may obtain an AI model execution result based on the selected AI model information in operation 817.
  • the server (100) may obtain an AI model execution result by executing a stored AI model or by connecting to the corresponding AI model provider.
  • the server (100) may provide at least one third data for representing the AI model execution result to the electronic device (101).
  • the electronic device (101) may provide the AI model execution result.
  • FIG. 9A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 9A will be described with reference to FIG. 9B.
  • FIG. 9B is an example of a UI according to one embodiment.
  • the server (100) may provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101).
  • the electronic device (101) may perform at least one operation for representing a first UI for inputting a language-based command based on the at least one first data.
  • the electronic device (101) may receive a language-based command through the first UI.
  • the electronic device (101) may transmit the language-based command to the server (100).
  • the server (100) may select an AI model based on a language-based command in operation 909.
  • the server (100) may analyze the language-based command based on, but is not limited to, rule-based and/or NLU, and may also obtain analysis results for the language-based command using LLM (e.g., sLLM).
  • LLM e.g., sLLM
  • the server (100) may select an AI model based on the analysis results. For example, the server (100) may select any one of a plurality of AI models corresponding to the type of the identified generation task, but this is exemplary.
  • the server (100) may also select an AI model to perform the generation task without specifying the type of the generation task.
  • the server (100) may obtain an AI model execution result in operation 911.
  • the server (100) may obtain an AI model execution result by executing a stored AI model or by connecting to a corresponding AI model provider.
  • the selected AI model can be executed without providing a UI associated with the selected AI model.
  • the server (100) may, in operation 911, provide at least one third data for representing the AI model execution result to the electronic device (101).
  • the electronic device (101) may, in operation 913, provide the AI model execution result.
  • information related to the AI model may also be provided to the electronic device (101).
  • the electronic device (101) may provide a screen (920) including a generated image (921).
  • the electronic device (101) may also provide information (922) related to the AI model used to generate the image along with the generated image (921).
  • FIG. 10 is a drawing for explaining an operation method of an electronic device according to one embodiment.
  • the electronic device (101) may be implemented as a robot including at least one driving device (e.g., an actuator and/or a motor).
  • the electronic device (101) may cause movement of at least a portion of the electronic device (101) by driving at least a portion of the at least one driving device of the electronic device (101) in response to a language-based command.
  • the electronic device (101) may perform at least one action requested by the user.
  • the electronic device (101) such as a robot
  • the electronic device (101) needs to utilize multiple action AI models specialized for each purpose. For example, an action AI model for “performing dishwashing” and an action AI model for “carrying luggage” need to be trained differently.
  • the electronic device (101) may, for example, store and/or be able to access multiple action AI models.
  • the electronic device (101) may analyze a language-based command in operation 1001.
  • the electronic device (101) may select an action AI model based on the analysis result in operation 1003.
  • the electronic device (101) may identify an action task corresponding to the language-based command based on, for example, the analysis result of the language-based command (which may be, for example, rule-based analysis, NLU, and/or LLM, but is not limited thereto).
  • the electronic device (101) may identify the action task based on a keyword included in the language-based command.
  • the electronic device (101) may identify the action task based on the intention for the language-based command.
  • the electronic device (101) may identify the intention by using an artificial intelligence model for intent analysis or by performing prompting to inquire about the intention of the language-based command, but there is no limitation on the method of identifying the intention.
  • the electronic device (101) can, in operation 1005, check at least a portion and a value of at least one parameter corresponding to the selected action AI model.
  • the electronic device (101) can check the execution result of the action AI model based on the checked parameters and values.
  • the electronic device (101) can drive at least a portion of the electronic device (101) based on the execution result. For example, the electronic device (101) may assume that a language-based command such as “Clean the floor thoroughly for 30 minutes” has been obtained.
  • the electronic device (101) can check the action type as “Cleaning” based on the language-based command.
  • the electronic device (101) can, based on the analysis result of the language-based command, check the cleaning type (e.g., clean the floor), the cleaning time (e.g., 30 minutes), and the cleaning intensity (e.g., do it thoroughly) as at least a portion of the at least one parameter corresponding to the action type of “Cleaning.”
  • the electronic device (101) can be driven based on at least a portion of at least one identified parameter and its value, thereby driving the identified floor cleaning at a thorough level for 30 minutes.
  • a method for processing a language-based command may include providing a first user interface for inputting a language-based command.
  • the method may include receiving a language-based command input based on the first user interface.
  • the method may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command.
  • the method may include receiving an execution command input based on the second user interface.
  • the method may include providing an execution result based on the first generative AI model in response to the execution command.
  • AI generative artificial intelligence
  • the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.
  • a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.
  • a parameter among the at least one parameter required by the generation task by the first generative AI model that is not confirmed based on the language-based command may be excluded from the second user interface.
  • a parameter identified based on the language-based command and a parameter not identified based on the language-based command can be expressed to be distinct.
  • the second user interface may include a prompting field as one of the information for at least one parameter required by the generation task by the first generative AI model.
  • the prompting field may include the language-based command.
  • the prompting field may include text that is adjusted based on the language-based command and/or generated based on the language-based command.
  • the operation of providing a second user interface corresponding to the first generative AI model selected based on the analysis result of the language-based command may include the operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command.
  • the operation of providing the second user interface may include the operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models.
  • the method may include selecting the first generative AI model based on the analysis results of the language-based command.
  • the method may include an operation of identifying a type of generation task corresponding to the language-based command based on the analysis result of the language-based command.
  • the method may include an operation of identifying a first generative AI model among at least one generative AI model corresponding to the identified type of generation task.
  • a storage medium storing at least one computer-readable instruction may be provided.
  • the at least one instruction when individually or collectively executed by one or more processors (221, 211) including processing circuitry of an electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation.
  • the at least one operation may include providing a first user interface for inputting a language-based command.
  • the at least one operation may include receiving a language-based command input based on the first user interface.
  • the at least one operation may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command.
  • the at least one method may include receiving an execution command input based on the second user interface.
  • the at least one method may include an action of providing an execution result based on the first generative AI model in response to the execution command.
  • AI generative artificial intelligence
  • the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.
  • a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.
  • a parameter among the at least one parameter required by the generation task by the first generative AI model that is not confirmed based on the language-based command may be excluded from the second user interface.
  • a parameter identified based on the language-based command and a parameter not identified based on the language-based command can be expressed to be distinct.
  • the second user interface may include a prompting field as one of the information for at least one parameter required by the generation task by the first generative AI model.
  • the prompting field may include the language-based command.
  • the prompting field may include text that is adjusted based on the language-based command and/or generated based on the language-based command.
  • the operation of providing a second user interface corresponding to the first generative AI model selected based on the analysis result of the language-based command may include the operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command.
  • the operation of providing the second user interface may include the operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models.
  • the at least one action may include selecting the first generative AI model based on the analysis results of the language-based command.
  • the at least one operation may include an operation of identifying a type of generation task corresponding to the language-based command based on the analysis result of the language-based command.
  • the at least one operation may include an operation of identifying a first generative AI model among at least one generative AI model corresponding to the identified type of generation task.
  • the electronic device (100, 101) may include one or more processors (221, 211) including processing circuitry.
  • the electronic device (100, 101) may include a memory (222, 212) storing at least one instruction.
  • the at least one instruction when executed by the one or more processors (221, 211) of the electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation.
  • the at least one operation may include providing a first user interface for inputting a language-based command.
  • the at least one operation may include receiving a language-based command input based on the first user interface.
  • the at least one operation may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on the analysis results of the language-based command.
  • the at least one operation may include receiving an execution command input based on the second user interface.
  • the at least one operation may include providing an execution result based on the first generative AI model in response to the execution command.
  • AI artificial intelligence
  • the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.
  • a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.
  • a parameter among the at least one parameter required by the generation task by the first generative AI model that is not confirmed based on the language-based command may be excluded from the second user interface.
  • a parameter identified based on the language-based command and a parameter not identified based on the language-based command can be expressed to be distinct.
  • the second user interface may include a prompting field as one of the information for at least one parameter required by the generation task by the first generative AI model.
  • the prompting field may include the language-based command.
  • the prompting field may include text that is adjusted based on the language-based command and/or generated based on the language-based command.
  • the operation of providing a second user interface corresponding to the first generative AI model selected based on the analysis result of the language-based command may include the operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command.
  • the operation of providing the second user interface may include the operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models.
  • the at least one action may include selecting the first generative AI model based on the analysis results of the language-based command.
  • the at least one operation may include an operation of identifying a type of generation task corresponding to the language-based command based on the analysis result of the language-based command.
  • the at least one operation may include an operation of identifying a first generative AI model among at least one generative AI model corresponding to the identified type of generation task.
  • a method for processing a language-based command may include receiving a language-based command.
  • the method may include identifying a type of a generation task based on an analysis result of the language-based command.
  • the method may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task.
  • the method may include providing an execution result based on the first generative AI model.
  • AI generative artificial intelligence
  • the operation of identifying a first generative AI model corresponding to the type of the identified generation task may include an operation of identifying the first generative AI model among at least one generative AI model corresponding to the type of the identified generation task.
  • the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include an operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command.
  • the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include the operation of providing an AI model list representing the at least one generative AI model.
  • the operation of identifying the first generative AI model may include the operation of identifying the first generative AI model based on identifying a selection of the first generative AI model from the AI model list.
  • the act of receiving the language-based command may include the act of providing a first user interface for inputting the language-based command.
  • the act of receiving the language-based command may include the act of receiving the language-based command input based on the first user interface.
  • the operation of providing an execution result based on the first generative AI model may include an operation of providing a second user interface corresponding to the first generative AI model selected based on a result of analyzing the language-based command.
  • the operation of providing an execution result based on the first generative AI model may include an operation of receiving an execution command input based on the second user interface.
  • the operation of providing an execution result based on the first generative AI model may include an operation of providing an execution result based on the first generative AI model in response to the execution command.
  • the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.
  • a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.
  • a storage medium storing at least one computer-readable instruction may be provided.
  • the at least one instruction when individually or collectively executed by one or more processors (221, 211) including processing circuitry of an electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation.
  • the at least one operation may include receiving a language-based instruction.
  • the at least one operation may include identifying a type of a generation task based on an analysis result of the language-based instruction.
  • the at least one operation may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task.
  • the at least one operation may include providing an execution result based on the first generative AI model.
  • AI generative artificial intelligence
  • the operation of identifying a first generative AI model corresponding to the type of the identified generation task may include an operation of identifying the first generative AI model among at least one generative AI model corresponding to the type of the identified generation task.
  • the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include an operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command.
  • the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include the operation of providing an AI model list representing the at least one generative AI model.
  • the operation of identifying the first generative AI model may include the operation of identifying the first generative AI model based on identifying a selection of the first generative AI model from the AI model list.
  • the act of receiving the language-based command may include the act of providing a first user interface for inputting the language-based command.
  • the act of receiving the language-based command may include the act of receiving the language-based command input based on the first user interface.
  • the operation of providing an execution result based on the first generative AI model may include an operation of providing a second user interface corresponding to the first generative AI model selected based on a result of analyzing the language-based command.
  • the operation of providing an execution result based on the first generative AI model may include an operation of receiving an execution command input based on the second user interface.
  • the operation of providing an execution result based on the first generative AI model may include an operation of providing an execution result based on the first generative AI model in response to the execution command.
  • the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.
  • a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.
  • the electronic device (100, 101) may include one or more processors (221, 211) including processing circuitry.
  • the electronic device (100, 101) may include a memory (222, 212) storing at least one instruction.
  • the at least one instruction when executed by the one or more processors (221, 211) of the electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation.
  • the at least one operation may include an operation of receiving a language-based instruction.
  • the at least one operation may include an operation of identifying a type of a generation task based on an analysis result of the language-based instruction.
  • the at least one operation may include an operation of identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task.
  • the at least one action may include an action that provides an execution result based on the first generative AI model.
  • AI generative artificial intelligence
  • the operation of identifying a first generative AI model corresponding to the type of the identified generation task may include an operation of identifying the first generative AI model among at least one generative AI model corresponding to the type of the identified generation task.
  • the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include an operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command.
  • the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include the operation of providing an AI model list representing the at least one generative AI model.
  • the operation of identifying the first generative AI model may include the operation of identifying the first generative AI model based on identifying a selection of the first generative AI model from the AI model list.
  • the act of receiving the language-based command may include the act of providing a first user interface for inputting the language-based command.
  • the act of receiving the language-based command may include the act of receiving the language-based command input based on the first user interface.
  • the operation of providing an execution result based on the first generative AI model may include an operation of providing a second user interface corresponding to the first generative AI model selected based on a result of analyzing the language-based command.
  • the operation of providing an execution result based on the first generative AI model may include an operation of receiving an execution command input based on the second user interface.
  • the operation of providing an execution result based on the first generative AI model may include an operation of providing an execution result based on the first generative AI model in response to the execution command.
  • the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.
  • a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.
  • first,” “second,” or “first” or “second” may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order).
  • a component e.g., a first component
  • another e.g., a second component
  • functionally e.g., a third component
  • module used in the embodiments of this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit.
  • a module may be an integral component, or a minimum unit or part of such a component that performs one or more functions.
  • a module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • One embodiment of the present document may be implemented as software (e.g., a program) including one or more instructions stored in a storage medium (e.g., built-in memory or external memory) readable by a machine (e.g., an electronic device (101) and/or a server (100)).
  • a processor of the machine e.g., an electronic device (101) and/or a server (100)
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the machine-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium
  • the method according to one embodiment disclosed in this document may be provided as included in a computer program product.
  • the computer program product may be traded as a product between a seller and a buyer.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g., compact disc read-only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play StoreTM) or directly between two user devices (e.g., smart phones).
  • an application store e.g., Play StoreTM
  • at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.
  • each component e.g., a module or a program of the above-described components may include one or more entities, and some of the entities may be separated and arranged in other components.
  • one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added.
  • a plurality of components e.g., a module or a program
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration.
  • the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to an embodiment, a method for processing a language-based command may comprise an operation of providing a first user interface for inputting a language-based command. The method may include an operation of receiving the language-based command input on the basis of the first user interface. The method may include an operation of providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected on the basis of the results of analyzing the language-based command. The method may include an operation of receiving an execution command input on the basis of the second user interface. The method may include an operation of providing an execution result based on the first generative AI model in response to the execution command.

Description

언어 기반 명령어에 대한 생성형 작업을 수행하기 위한 전자 장치, 방법, 서버, 및 저장 매체Electronic devices, methods, servers, and storage media for performing generative operations on language-based commands

본 개시는, 언어 기반 명령어에 대한 생성형 작업을 수행하기 위한 전자 장치, 방법, 서버, 및 저장 매체에 관한 것이다.The present disclosure relates to an electronic device, method, server, and storage medium for performing a generative operation on language-based commands.

분석적 인공지능(analytical artificial intelligence, analytical AI) 모델은, 데이터의 분석 및/또는 패턴 인식을 수행할 수 있다. 한편, 이와는 대조적으로, 생성형 인공지능 모델은, 사용자의 입력에 대응하는 데이터 또는 컨텐츠를 생성하며, 생성된 컨텐츠를 제공할 수 있다. 생성형 인공지능 모델로 이용되는 딥 러닝 모델의 발전이 고도화됨에 따라서, 생성형 인공 지능 모델이 제공하는 데이터 또는 컨텐츠의 품질 또한 향상되고 있다.Analytical AI (analytical AI) models can perform data analysis and/or pattern recognition. In contrast, generative AI models can generate data or content in response to user input and provide this generated content. As the development of deep learning models used in generative AI models advances, the quality of the data or content they provide is also improving.

생성 작업의 타입은, 예를 들어 텍스트 생성, 이미지 생성, 코드 생성, 음성 생성, 및/또는 동영상 생성 등을 포함할 수 있다. 사용자는, 원하는 생성 작업을 지원하는 AI 모델을 선택하여, 해당 AI 모델에 대한 서비스를 제공하는 엔티티에 접속하여, AI 모델의 실행 결과를 확인할 수 있다.The types of generation tasks may include, for example, text generation, image generation, code generation, voice generation, and/or video generation. Users can select an AI model that supports the desired generation task, access the entity providing the service for that AI model, and check the execution results of the AI model.

상술한 정보는 본 문서에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로서 제공될 수 있다. 상술한 내용 중 어느 것도 본 문서와 관련된 종래 기술(prior art)로서 주장되거나, 종래 기술을 결정하는데 사용될 수 없다.The above information may be provided as background information to aid in understanding this document. None of the above is claimed to be prior art related to this document or can be used to determine prior art.

일 실시예에 따라서, 언어 기반 명령어를 처리하는 방법은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a method for processing a language-based command may include providing a first user interface for inputting a language-based command. The method may include receiving a language-based command input based on the first user interface. The method may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command. The method may include receiving an execution command input based on the second user interface. The method may include providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 컴퓨터로 독출 가능한 적어도 하나의 인스트럭션(instruction)을 저장하는 저장 매체가 제공될 수 있다. 상기 적어도 하나의 인스트럭션은 전자 장치의 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 방법은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a storage medium storing at least one computer-readable instruction may be provided. The at least one instruction, when executed individually or collectively by one or more processors comprising processing circuitry of an electronic device, may cause the electronic device to perform at least one operation. The at least one method may include providing a first user interface for inputting a language-based command. The at least one method may include receiving a language-based command input based on the first user interface. The at least one method may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command. The at least one method may include receiving an execution command input based on the second user interface. The at least one method may include providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 전자 장치는, 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들을 포함할 수 있다. 일 실시예에 따라서, 전자 장치는 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리를 포함할 수 있다. 상기 적어도 하나의 인스트럭션은 상기 전자 장치의 하나 또는 이상의 프로세서들에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 입력받기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, an electronic device may include one or more processors including processing circuitry. According to one embodiment, the electronic device may include a memory storing at least one instruction. The at least one instruction, when individually or collectively executed by the one or more processors of the electronic device, may cause the electronic device to perform at least one operation. The at least one operation may include providing a first user interface for receiving a language-based command. The at least one operation may include receiving a language-based command input based on the first user interface. The at least one operation may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command. The at least one operation may include receiving an execution command input based on the second user interface. The at least one action may include an action that provides an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 언어 기반 명령어를 처리하는 방법은, 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a method for processing a language-based command may include receiving a language-based command. The method may include identifying a type of a generation task based on an analysis result of the language-based command. The method may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task. The method may include providing an execution result based on the first generative AI model.

일 실시예에 따라서, 컴퓨터로 독출 가능한 적어도 하나의 인스트럭션(instruction)을 저장하는 저장 매체가 제공될 수 있다. 상기 적어도 하나의 인스트럭션은 전자 장치의 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a storage medium storing at least one computer-readable instruction may be provided. The at least one instruction, when executed individually or collectively by one or more processors comprising processing circuitry of an electronic device, may cause the electronic device to perform at least one operation. The at least one operation may include receiving a language-based instruction. The at least one operation may include identifying a type of a generation task based on an analysis result of the language-based instruction. The at least one operation may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of generation task. The at least one method may include providing an execution result based on the first generative AI model.

일 실시예에 따라서, 전자 장치는, 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들을 포함할 수 있다. 일 실시예에 따라서, 전자 장치는 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리를 포함할 수 있다. 상기 적어도 하나의 인스트럭션은 상기 전자 장치의 하나 또는 이상의 프로세서들에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, an electronic device may include one or more processors including processing circuitry. According to one embodiment, the electronic device may include a memory storing at least one instruction. The at least one instruction, when individually or collectively executed by one or more processors of the electronic device, may cause the electronic device to perform at least one operation. The at least one operation may include receiving a language-based instruction. The at least one operation may include identifying a type of a generation task based on an analysis result of the language-based instruction. The at least one operation may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task. The at least one operation may include providing an execution result based on the first generative AI model.

도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

도 1a는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1A is a diagram illustrating an electronic device and a server according to one embodiment.

도 1b는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1b is a drawing for explaining an electronic device and a server according to one embodiment.

도 1c는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1c is a drawing for explaining an electronic device and a server according to one embodiment.

도 1d는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1D is a drawing for explaining an electronic device and a server according to one embodiment.

도 2는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 2 is a drawing for explaining an electronic device and a server according to one embodiment.

도 3은 일 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 도면이다.FIG. 3 is a drawing for explaining an operation method of an electronic device and a server according to one embodiment.

도 4a는 다양한 UI의 예시이다. Figure 4a is an example of various UIs.

도 4b는 다양한 UI의 예시이다. Figure 4b is an example of various UIs.

도 4c는 다양한 UI의 예시이다. Figure 4c is an example of various UIs.

도 4d는 다양한 UI의 예시이다. Figure 4d is an example of various UIs.

도 5a는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. FIG. 5a is a diagram for explaining an operation method of a server according to one embodiment.

도 5b는 일 실시예에 따른 서버의 모듈의 동작을 설명하기 위한 도면이다.FIG. 5b is a diagram for explaining the operation of a module of a server according to one embodiment.

도 6a는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다.FIG. 6a is a diagram for explaining an operation method of a server according to one embodiment.

도 6b는 일 실시예에 따른 UI의 예시이다.Figure 6b is an example of a UI according to one embodiment.

도 7a는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다.FIG. 7a is a diagram for explaining an operation method of a server according to one embodiment.

도 7b는 일 실시예에 따른 UI의 예시이다.Figure 7b is an example of a UI according to one embodiment.

도 8a는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다.FIG. 8a is a diagram for explaining an operation method of a server according to one embodiment.

도 8b는 일 실시예에 따른 UI의 예시이다.Figure 8b is an example of a UI according to one embodiment.

도 9a는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. FIG. 9a is a diagram for explaining an operation method of a server according to one embodiment.

도 9b는 일 실시예에 따른 UI의 예시이다.Figure 9b is an example of a UI according to one embodiment.

도 10은 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 도면이다.FIG. 10 is a drawing for explaining an operating method of an electronic device according to one embodiment.

이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for identical or similar components. Furthermore, in the drawings and related descriptions, descriptions of well-known functions and configurations may be omitted for clarity and conciseness.

도 1a 는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1A is a drawing for explaining an electronic device and a server according to one embodiment.

도 1a를 참조하면, 서버(100)는, 전자 장치(101)와 데이터를 송신 및/또는 수신할 수 있다. 전자 장치(101)는, 예를 들어, 컴퓨터, 이동형 전자 장치(예를 들어, 스마트 폰 또는 태블릿 PC)와 같은 서버(100)와 데이터를 송수신할 수 있는 장치라면 제한이 없다. 서버(100)는, 프론트엔드(frontend) 모듈(module)(111), 프롬프트 처리 모듈(112), AI 모델 선택 모듈(113), UI 생성 모듈(114), 및/또는 적어도 하나의 AI 모델 저장소(120,130,140)를 포함하거나, 및/또는 실행할 수 있다. 적어도 하나의 모듈(111,112,113,114)는, 예를 들어 서버(100)에 포함되는 적어도 하나의 프로세서에 의하여 실행되거나, 또는 프로세서의 적어도 일부로서 포함될 수도 있다. 본 개시에서의 적어도 하나의 모듈(111,112,113,114)에 의하여 수행되는 동작들 중 적어도 일부는, 예를 들어 서버(100)에 포함되는 적어도 하나의 프로세서 및/또는 프로세서의 제어에 따른 다른 엔티티에 의하여 수행되는 것으로 이해될 수 있다. 예를 들어, 전자 장치(101)는, 서버(100)와 연계하여 AI 모델의 실행 결과를 제공할 수 있으며, 이를 논-스탠드얼론(non-standalone) 타입이라 명명할 수도 있다. 한편, 구현에 따라서, 전자 장치(101) 단독으로 AI 모델의 실행 결과를 제공할 수도 있으며, 이를 스탠드얼론(standalone) 타입 또는 온-디바이스(on-device) 타입으로 명명할 수 있으며, 도 1c 및/또는 1d를 참조하여 설명하도록 한다. 서버(100)는, 클라우드 서버, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버를 포함할 수 있으며, 하나 또는 복수 개의 엔티티로 구현될 수 있으며, 그 구현 형태에는 제한이 없다. Referring to FIG. 1A, a server (100) can transmit and/or receive data with an electronic device (101). The electronic device (101) is not limited to any device capable of transmitting and receiving data with the server (100), such as a computer or a mobile electronic device (e.g., a smart phone or a tablet PC). The server (100) may include and/or execute a frontend module (111), a prompt processing module (112), an AI model selection module (113), a UI generation module (114), and/or at least one AI model repository (120, 130, 140). At least one module (111, 112, 113, 114) may be executed by, for example, at least one processor included in the server (100), or may be included as at least a part of the processor. At least some of the operations performed by at least one module (111, 112, 113, 114) in the present disclosure may be understood to be performed by, for example, at least one processor included in the server (100) and/or another entity under the control of the processor. For example, the electronic device (101) may provide an execution result of an AI model in conjunction with the server (100), and this may be referred to as a non-standalone type. Meanwhile, depending on the implementation, the electronic device (101) alone may provide an execution result of an AI model, and this may be referred to as a standalone type or an on-device type, which will be described with reference to FIGS. 1c and/or 1d. The server (100) may include a cloud server, an application server, a computing server, a database server, a file server, a game server, a mail server, a proxy server, and a web server, and may be implemented as one or more entities, and there is no limitation on the form of implementation.

프론트엔드 모듈(111) 은, 예를 들어 전자 장치(101)와의 데이터 교환을 위한 적어도 하나의 동작을 수행할 수 있다. 예를 들어, 프론트엔드 모듈(111)은 전자 장치(101)에서 사용자 입력을 입력할 수 있는 UI를 구성할 수 있는 데이터를 제공할 수 있다. 예를 들어, 프론트엔드 모듈(111)은, 웹 서버(web server)로 구현될 수도 있으나, 제한은 없다. 전자 장치(101)는, 예를 들어 웹 브라우징 어플리케이션에 입력된 URL에 기반하여 프론트엔드 모듈(111)로 접속하거나, 또는, 어플리케이션을 실행함으로써 프론트엔드 모듈(111)로 접속할 수도 있으나, 그 접속 방식에는 제한은 없다. 프론트엔드 모듈(111)은, 사용자 요청에 대한 처리를 적어도 하나의 다른 모듈로 제공할 수 있다. 적어도 하나의 다른 모듈을, 백엔드(backend) 모듈로 명명될 수도 있다. 백엔드 모듈은, 입력받은 언어 기반 명령어에 대응하는 생성 결과를 프론트엔드 모듈(111)로 제공할 수 있다. 프론트엔드 모듈(111)은, 언어 기반 명령어에 대응하는 생성 결과를, 전자 장치(101)로 제공할 수 있다.The front-end module (111) can perform at least one operation for exchanging data with, for example, the electronic device (101). For example, the front-end module (111) can provide data that can configure a UI that can input user input in the electronic device (101). For example, the front-end module (111) can be implemented as a web server, but there is no limitation thereto. The electronic device (101) can access the front-end module (111), for example, based on a URL entered in a web browsing application, or by executing an application, but there is no limitation on the access method. The front-end module (111) can provide processing for a user request to at least one other module. The at least one other module can be referred to as a back-end module. The back-end module can provide a generated result corresponding to an input language-based command to the front-end module (111). The front-end module (111) can provide a generation result corresponding to a language-based command to the electronic device (101).

예를 들어, 프롬프트 처리 모듈(112) 은, 전자 장치(101)로부터 수신된 언어 기반 명령어를 처리하고, 처리 결과를 AI 모델 선택 모듈(113)로 제공할 수 있다. AI 모델 선택 모듈(113)은, 복수 개의 AI 모델들(120A,120B,...,120L,130A,130B,...,130M,140A,140B,...,140N) 중, 언어 기반 명령어에 대응하는 생성 작업을 수행할 AI 모델을 선택할 수 있다. 한편, 프롬프트 처리 모듈(112) 및 AI 모델 선택 모듈(113)이 하나로 통합 구현될 수도 있음을 당업자는 이해할 것이다.For example, the prompt processing module (112) may process a language-based command received from the electronic device (101) and provide the processing result to the AI model selection module (113). The AI model selection module (113) may select an AI model to perform a generation task corresponding to the language-based command among a plurality of AI models (120A, 120B, ..., 120L, 130A, 130B, ..., 130M, 140A, 140B, ..., 140N). Meanwhile, those skilled in the art will understand that the prompt processing module (112) and the AI model selection module (113) may be implemented as one.

하나의 예에서 , 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113) 은, 언어 기반 명령어에 대한 파싱(parsing) 결과를 키워드와 비교하는 방식과 같은, 룰 기반(rule-based) 방식에 기반하여 언어 기반 명령어에 대응하는 생성 작업의 타입(또는, 카테고리로 명명될 수 있음)을 확인할 수 있다. 생성 작업의 타입 은, 예를 들어 텍스트 생성, 이미지 생성, 코드 생성, 음성 생성, 및/또는 동영상 생성을 포함할 수 있으나, 제한은 없다. 생성형 인공 지능 모델은, 예를 들어 텍스트 생성 AI 모델을 포함할 수 있다. 텍스트 생성 AI 모델은, 사용자의 프롬프트에 대응하여, 특정한 주제에 대한 글쓰기, 입력된 문단에 대한 요약, 문의에 대한 답변과 같은 다양한 텍스트 기반 결과물을 제공할 수 있다. 생성형 인공 지능 모델은, 예를 들어 이미지 생성 AI 모델을 포함할 수 있다. 이미지 생성 AI 모델은, 사용자에 의하여 입력된 프롬프트에 대응하는 이미지를 생성하여 제공할 수 있다. 생성형 인공 지능 모델은, 예를 들어 코드 생성 AI 모델을 포함할 수 있다. 코드 생성 AI 모델은, 사용자에 의하여 입력된 프롬프트에 대응하는 실행 가능한 코드를 생성하여 제공할 수 있다. 생성형 인공 지능 모델은, 예를 들어 음성 생성 AI 모델을 포함할 수 있다. 음성 생성 AI 모델은, 사용자에 의하여 입력된 프롬프트에 대응하는 음악을 생성하여 제공하거나, 또는 사용자에 의하여 입력된 프롬프트에 대응하는 인간의 목소리를 모사하는 음성을 생성하여 제공할 수 있다. 생성형 인공 지능 모델은, 예를 들어 동영상 생성 AI 모델을 포함할 수 있다. 동영상 생성 AI 모델은, 사용자에 의하여 입력된 프롬프트에 대응하는 동영상을 생성하여 제공할 수 있다.In one example, the prompt processing module (112) and/or the AI model selection module (113) can identify a type (or, which may be named a category) of a generation task corresponding to a language-based command based on a rule-based approach, such as comparing the parsing result for the language-based command with keywords. The type of generation task may include, but is not limited to, text generation, image generation, code generation, voice generation, and/or video generation. The generative AI model may include, for example, a text generation AI model. The text generation AI model may provide various text-based outputs in response to a user's prompt, such as an essay on a specific topic, a summary of an input paragraph, or an answer to an inquiry. The generative AI model may include, for example, an image generation AI model. The image generation AI model may generate and provide an image corresponding to a prompt input by the user. The generative AI model may include, for example, a code generation AI model. A code-generating AI model can generate and provide executable code in response to a user-entered prompt. Generative AI models may include, for example, a voice-generating AI model. The voice-generating AI model can generate and provide music in response to a user-entered prompt, or generate and provide a voice that mimics a human voice in response to a user-entered prompt. Generative AI models may include, for example, a video-generating AI model. The video-generating AI model can generate and provide a video in response to a user-entered prompt.

프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113)은, 확인된 생성 작업의 타입에 대응하는 적어도 하나의 AI 모델 중 적어도 하나를 선택할 수 있다. 예를 들어, 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113)은, "쓸쓸한 얼굴의 소년이 어두운 밤 거리를 걷는 그림을 만화풍으로 잘 그려줘"의 언어 기반 명령어의 파싱 결과에서 "그려줘"가 이미지 생성 작업의 카테고리의 키워드에 대응됨을 확인할 수 있다. 예를 들어, 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113)은, 이미지 생성 작업의 카테고리에 대응하는 저장소(예: 저장소(130))에 저장된 이미지 생성 AI 모델들(130A,130B, ...,130M) 중 어느 하나를 선택할 수 있다. 예를 들어, 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113)은, 언어 기반 명령어의 분석 결과에 기반하여 이미지 생성 AI 모델을 선택할 수 있다. 예를 들어 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113)은, "만화풍"의 키워드에 기반하여, 만화 이미지 생성 성능이 상대적으로 양호한 것으로 확인된 AI 모델을 선택할 수 있다. 한편, 상술한 키워드 기반의 카테고리 및/또는 AI 모델 확인 방식은 단순히 예시적인 것으로, 이는 NLU(natural language understanding)(또는, natural language processing, NLP)에 기반하여 수행될 수도 있음을 당업자는 이해할 것이다. 서버(100)는, 예를 들어 AI 모델 선택을 위한 LLM(large language model), 예를 들어 sLLM(small LLM)을 실행 결과에 기반하여, 카테고리 및/또는 AI 모델을 확인할 수도 있다 . 한편, 구현에 따라서, 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈(113)은, 카테고리를 확인하는 과정 수행 없이, 바로 생성 작업을 수행할 AI 모델을 확인할 수도 있음을 당업자는 이해할 것이다 . 한편, 도 1a의 실시예에서는, 카테고리 별 저장소(120,130,140)가 분리되는 것과 같이 도시되어 있지만, 이는 예시적인 것으로, 저장소의 관리 및/또는 개수에는 제한이 없다. The prompt processing module (112) and/or the AI model selection module (113) may select at least one AI model corresponding to the type of the identified generation task. For example, the prompt processing module (112) and/or the AI model selection module (113) may determine that “draw” corresponds to a keyword of the category of the image generation task in the parsing result of the language-based command “draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style.” For example, the prompt processing module (112) and/or the AI model selection module (113) may select any one of the image generation AI models (130A, 130B, ..., 130M) stored in a storage (e.g., storage (130)) corresponding to the category of the image generation task. For example, the prompt processing module (112) and/or the AI model selection module (113) may select an image generation AI model based on the analysis result of the language-based command. For example, the prompt processing module (112) and/or the AI model selection module (113) may select an AI model that is confirmed to have relatively good cartoon image generation performance based on the keyword “cartoon style.” Meanwhile, those skilled in the art will understand that the above-described keyword-based category and/or AI model confirmation method is merely exemplary, and that this may also be performed based on NLU (natural language understanding) (or natural language processing, NLP). The server (100) may also confirm the category and/or AI model based on the execution result of, for example, an LLM (large language model) for AI model selection, for example, a sLLM (small LLM). Meanwhile, those skilled in the art will understand that, depending on the implementation, the prompt processing module (112) and/or the AI model selection module (113) may confirm an AI model that will perform the generation task directly without performing the process of confirming the category. Meanwhile, in the embodiment of FIG. 1a, although the category-specific repositories (120, 130, 140) are shown as being separated, this is exemplary and there is no limitation on the management and/or number of repositories.

UI 생성 모듈(114)은, 선택된 AI 모델에 기반한 UI를 생성할 수 있다. 예를 들어, UI 생성 모듈(114)은, 선택된 AI 모델의 입력값을 수신하기 위한 UI를 생성할 수 있다. 또는, UI 생성 모듈(114)은, 선택된 AI 모델의 입력값 중 적어도 일부를 선택 및/또는 반영한 UI를 생성할 수 있다. 예를 들어, UI 생성 모듈(114)은, 언어 기반 명령어의 분석 결과에 기반하여, UI 를 구성하는 파라미터 및 그에 대응하는 값을 확인할 수 있다. UI 생성 모듈(114)은, 확인된 정보에 기반하여 UI를 생성할 수도 있다.The UI generation module (114) can generate a UI based on the selected AI model. For example, the UI generation module (114) can generate a UI for receiving input values of the selected AI model. Alternatively, the UI generation module (114) can generate a UI that selects and/or reflects at least some of the input values of the selected AI model. For example, the UI generation module (114) can identify parameters that constitute the UI and their corresponding values based on the analysis results of language-based commands. The UI generation module (114) can also generate a UI based on the identified information.

도 1b 는, 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1b is a drawing for explaining an electronic device and a server according to one embodiment.

도 1a의 실시예와는 대조적으로, 도 1b의 실시예에서는, 서버(100)가 AI 모델을 저장 및/또는 관리하지 않을 수 있다. 서버(100)는, 외부의 AI 모델 제공자(121A,121B,...,121L,131A,131B,...,131M,141A,141B,...,141N)과 데이터를 송신 및/또는 수신할 수 있다. 상술한 바와 같이, 서버(100)는, 전자 장치(101)로부터 언어 기반 명령어를 수신할 수 있다. 서버(100)는, 언어 기반 명령어의 분석 결과에 기반하여, 언어 기반 명령어에 대응하는 생성 작업의 카테고리 및/또는 생성 작업을 수행할 AI 모델을 확인할 수 있다.In contrast to the embodiment of FIG. 1A, in the embodiment of FIG. 1B, the server (100) may not store and/or manage AI models. The server (100) may transmit and/or receive data with external AI model providers (121A, 121B, ..., 121L, 131A, 131B, ..., 131M, 141A, 141B, ..., 141N). As described above, the server (100) may receive language-based commands from the electronic device (101). Based on the analysis results of the language-based commands, the server (100) may identify a category of a generation task corresponding to the language-based commands and/or an AI model to perform the generation task.

예를 들어, 서버(100)는, 제 2 이미지 AI 모델을, 생성 작업을 수행할 AI 모델로서 확인할 수 있다. 이 경우, 서버(100)는, 제 2 이미지 AI 모델 제공자(131B)로, 생성 작업 수행을 요청할 수 있다. 생성 작업 수행 요청에는, 제 2 이미지 AI 모델의 UI에 기반하여 확인되는 적어도 하나의 정보를 포함할 수 있으나, 제한은 없다. 제 2 이미지 AI 모델 제공자(131B)는, 수신된 요청에 응답하여, 이미지를 생성하여 서버(100)로 제공할 수 있다. 서버(100)는, 수신된 이미지를 전자 장치(101)로 제공할 수 있다. 또는, 제 2 이미지 AI 모델 제공자(131B)는, 생성한 이미지를 전자 장치(101)로 바로 송신할 수도 있다.For example, the server (100) may identify the second image AI model as an AI model to perform a generation task. In this case, the server (100) may request the second image AI model provider (131B) to perform a generation task. The generation task performance request may include at least one piece of information identified based on the UI of the second image AI model, but is not limited thereto. The second image AI model provider (131B) may generate an image in response to the received request and provide the image to the server (100). The server (100) may provide the received image to the electronic device (101). Alternatively, the second image AI model provider (131B) may directly transmit the generated image to the electronic device (101).

또는, 서버(100)는, 제 2 이미지 AI 모델이 선택됨을 나타내는 정보, 제 2 이미지 AI 모델에 대응하는 어플리케이션을 실행하기 위한 정보, 및/또는 제 2 이미지 AI 모델 제공자(121B)에 대응하는 접속 정보를 전자 장치(101)로 제공할 수도 있다. 전자 장치(101)는, 서버(100)로부터 수신된 정보에 기반하여, 직접 제 2 이미지 AI 모델 제공자(131B)로 접속할 수 있다. 이 경우, 전자 장치(101)는, 제 2 이미지 AI 모델 제공자(131B)로 생성 작업 수행을 요청할 수 있다. 제 2 이미지 AI 모델 제공자(131B)는, 수신된 요청에 응답하여, 이미지를 생성하여 전자 장치(101)로 제공할 수 있다.Alternatively, the server (100) may provide the electronic device (101) with information indicating that the second image AI model is selected, information for executing an application corresponding to the second image AI model, and/or connection information corresponding to the second image AI model provider (121B). The electronic device (101) may directly connect to the second image AI model provider (131B) based on the information received from the server (100). In this case, the electronic device (101) may request the second image AI model provider (131B) to perform a generation task. The second image AI model provider (131B) may generate an image in response to the received request and provide the image to the electronic device (101).

도 1c 는, 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1c is a drawing for explaining an electronic device and a server according to one embodiment.

도 1c의 실시예에서, 전자 장치(101)는, 서버(100)와의 연계 없이, AI 모델 선택을 수행할 수 있다. 예를 들어, 전자 장치(101)는, 프롬프트 처리 모듈(112), AI 모델 선택 모듈(113), 및/또는 UI 생성 모듈(114)을 포함할 수 있다. 상술한 바와 같이, 적어도 하나의 모듈(112,113,114)은, 언어 기반 명령어에 기반하여, 생성 작업을 수행할 AI 모델을 확인할 수 있다. 전자 장치(101)는 AI 모델을 저장 및/또는 관리하지 않을 수 있다. 전자 장치(101)는, 외부의 AI 모델 제공자(121A,121B,...,121L,131A,131B,...,131M,141A,141B,...,141N)과 데이터를 송신 및/또는 수신할 수 있다. 예를 들어, 전자 장치(101)는, 제 2 이미지 AI 모델을, 생성 작업을 수행할 AI 모델로서 확인할 수 있다. 이 경우, 전자 장치(101)는, 제 2 이미지 AI 모델 제공자(131B)로, 생성 작업 수행을 요청할 수 있다. 생성 작업 수행 요청에는, 제 2 이미지 AI 모델의 UI에 기반하여 확인되는 적어도 하나의 정보를 포함할 수 있으나, 제한은 없다. 제 2 이미지 AI 모델 제공자(131B)는, 수신된 요청에 응답하여, 이미지를 생성하여 전자 장치(101)로 제공할 수 있다. 서버(100)는, 수신된 이미지를 전자 장치(101)로 제공할 수 있다.In the embodiment of FIG. 1C, the electronic device (101) can perform AI model selection without being connected to the server (100). For example, the electronic device (101) may include a prompt processing module (112), an AI model selection module (113), and/or a UI generation module (114). As described above, at least one module (112, 113, 114) may identify an AI model to perform a generation task based on a language-based command. The electronic device (101) may not store and/or manage the AI model. The electronic device (101) may transmit and/or receive data with external AI model providers (121A, 121B, ..., 121L, 131A, 131B, ..., 131M, 141A, 141B, ..., 141N). For example, the electronic device (101) may identify the second image AI model as an AI model to perform a generation task. In this case, the electronic device (101) may request the second image AI model provider (131B) to perform a generation task. The request to perform the generation task may include at least one piece of information identified based on the UI of the second image AI model, but there is no limitation. The second image AI model provider (131B) may generate an image in response to the received request and provide the image to the electronic device (101). The server (100) may provide the received image to the electronic device (101).

도 1d 는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다.FIG. 1d is a drawing for explaining an electronic device and a server according to one embodiment.

도 1d의 실시예에서, 전자 장치(101)는, 서버(100)와의 연계 없이, AI 모델 선택을 수행할 수 있다. 예를 들어, 전자 장치(101)는, 프롬프트 처리 모듈(112), AI 모델 선택 모듈(113), 및/또는 UI 생성 모듈(114)을 포함할 수 있다. 전자 장치(101)는, 복수 개의 AI 모델들(120A,120B,...,120L,130A,130B,...,130M,140A,140B,...,140N)을 저장 및/또는 관리할 수 있다. 상술한 바와 같이, 적어도 하나의 모듈(112,113,114)은, 언어 기반 명령어에 기반하여, 생성 작업을 수행할 AI 모델을 확인할 수 있다. 전자 장치(101)는, 예를 들어, 제 2 이미지 AI 모델(120B)을 실행할 수 있으며, 생성 작업 결과를 제공할 수 있다.In the embodiment of FIG. 1D, the electronic device (101) can perform AI model selection without being connected to the server (100). For example, the electronic device (101) can include a prompt processing module (112), an AI model selection module (113), and/or a UI generation module (114). The electronic device (101) can store and/or manage a plurality of AI models (120A, 120B, ..., 120L, 130A, 130B, ..., 130M, 140A, 140B, ..., 140N). As described above, at least one module (112, 113, 114) can identify an AI model to perform a generation task based on a language-based command. The electronic device (101) can, for example, execute a second image AI model (120B) and provide a result of the generation task.

도 2는 일 실시예에 따른 전자 장치 및 서버를 설명하기 위한 도면이다 .FIG. 2 is a drawing for explaining an electronic device and a server according to one embodiment.

도 2를 참조하면, 전자 장치(101)는, 프로세서(211), 메모리(212), 통신 장치(213), 디스플레이(214), 및/또는 입력 장치(215)를 포함할 수 있다. 서버(100)는, 프로세서(221), 메모리(222), 및/또는 통신 장치(223)를 포함할 수 있다. 도 1a 내지 1d를 참조하여 설명한 바와 같이, 본 개시에서 설명되는 서버(100)에 의하여 수행되는 적어도 하나의 동작 중 적어도 일부는 전자 장치(101)에 의하여 수행될 수도 있다. 예를 들어 전자 장치(101)의 메모리(212)에 저장된 인스트럭션들이 프로세서(211)에 의하여 수행됨에 따라, 전자 장치(101)가 본 개시의 다양한 동작들 중 적어도 일부를 수행할 수 있다. 예를 들어, 서버(100)의 메모리(222)에 저장된 인스트럭션들이 프로세서(221)에 의하여 수행됨에 따라, 서버(100)가 본 개시의 다양한 동작들 중 적어도 일부를 수행할 수 있다.Referring to FIG. 2, the electronic device (101) may include a processor (211), a memory (212), a communication device (213), a display (214), and/or an input device (215). The server (100) may include a processor (221), a memory (222), and/or a communication device (223). As described with reference to FIGS. 1A to 1D , at least some of at least one operation performed by the server (100) described in the present disclosure may also be performed by the electronic device (101). For example, as instructions stored in the memory (212) of the electronic device (101) are performed by the processor (211), the electronic device (101) may perform at least some of the various operations of the present disclosure. For example, as instructions stored in the memory (222) of the server (100) are executed by the processor (221), the server (100) can perform at least some of the various operations of the present disclosure.

프로세서(211) 및/또는 프로세서(221)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 전자 장치(101) 및/또는 서버(100) 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(211) 및/또는 프로세서(221)는 다른 구성요소(예: 통신 장치(213) 및/또는 통신 장치(223))로부터 수신된 명령 또는 데이터를 메모리(212) 및/또는 메모리(222)(예: 휘발성 메모리일 수 있지만 제한이 없음)에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(212) 및/또는 메모리(222)(예: 비휘발성 메모리일 수 있지만 제한이 없음)에 저장할 수 있다. 일실시예에 따르면, 프로세서(211) 및/또는 프로세서(221)는, 회로를 포함하는, CPU(central processing unit), GPU, 및/또는 NPU(neural processing unit)를 포함할 수 있으나, 제한은 없다.The processor (211) and/or the processor (221) may, for example, execute software (e.g., a program) to control at least one other component (e.g., a hardware or software component) of the electronic device (101) and/or the server (100), and may perform various data processing or operations. According to one embodiment, as at least a part of the data processing or operations, the processor (211) and/or the processor (221) may store instructions or data received from another component (e.g., a communication device (213) and/or a communication device (223)) in the memory (212) and/or the memory (222) (e.g., but not limited to, a volatile memory), process the instructions or data stored in the volatile memory, and store the resulting data in the memory (212) and/or the memory (222) (e.g., but not limited to, a non-volatile memory). According to one embodiment, the processor (211) and/or the processor (221) may include, but is not limited to, a central processing unit (CPU), a GPU, and/or a neural processing unit (NPU), including circuitry.

메모리(212) 및/또는 메모리(222)는, 전자 장치(101) 및/또는 서버(100)의 적어도 하나의 구성요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 전자 장치(101) 및/또는 서버(100)는, 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 전자 장치(101) 및/또는 서버(100)는, 하드디스크, 롬, 램, 캐시 메모리, 및/또는 레지스터를 포함할 수 있으며, 그 구현에는 제한이 없다. 상술한 엔티티들 중 일부(예를 들어, 레지스터일 수 있지만 제한이 없음)가, 전자 장치(101) 및/또는 서버(100)의 일부로서 구현될 수도 있으며, 그 구현 형태에는 제한이 없다. 전자 장치(101) 및/또는 서버(100)에는, 적어도 하나의 생성형 AI 모델이 저장될 수도 있다.The memory (212) and/or the memory (222) may store various data used by at least one component of the electronic device (101) and/or the server (100). The data may include, for example, software (e.g., a program) and input data or output data for commands related thereto. The electronic device (101) and/or the server (100) may include volatile memory and/or non-volatile memory. The electronic device (101) and/or the server (100) may include a hard disk, a ROM, a RAM, a cache memory, and/or a register, and the implementation thereof is not limited thereto. Some of the above-described entities (e.g., a register, but is not limited thereto) may be implemented as a part of the electronic device (101) and/or the server (100), and the implementation form thereof is not limited thereto. The electronic device (101) and/or the server (100) may store at least one generative AI model.

프로세서(211) 및/또는 프로세서(221)는, 예를 들면, 메모리(212) 및/또는 메모리(222)에 인스트럭션들을 실행할 수 있다. 메모리(212) 및/또는 메모리(222)는, 적어도 하나의 인스트럭션을 저장할 수 있으며, 적어도 하나의 인스트럭션은 프로세서(211) 및/또는 프로세서(221)에 의하여 실행될 수 있다. 적어도 하나의 인스트럭션은, 프로세서(211) 및/또는 프로세서(221)에 의하여 실행 시에, 전자 장치(101) 및/또는 서버(100)로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 예를 들어, 적어도 하나의 인스트럭션이 실행됨에 따라서, 적어도 하나의 다른 구성요소가 제어되거나, 및/또는 다양한 데이터 처리 또는 연산이 수행될 수 있다. 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(211) 및/또는 프로세서(221)다른 구성요소로부터 수신된 명령 또는 데이터를 메모리(212) 및/또는 메모리(222)의 적어도 일부에 저장하고, 메모리(212) 및/또는 메모리(222)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(212) 및/또는 메모리(222)에 저장할 수 있다. 프로세서(211) 및/또는 프로세서(221)에 의하여 하나의 동작이 수행됨은, 예를 들어 프로세서(211) 및/또는 프로세서(221)에 포함된 하나의 엔티티(예를 들어, 메인 프로세서일 수 있지만 제한이 없음)에 의하여(또는, 제어에 의하여), 해당 동작이 수행됨을 의미할 수 있다. 예를 들어, 하나의 동작이 수행됨은, 예를 들어 복수의 엔티티들(예를 들어, 복수 개의 프로세서들)에 의하여(또는, 제어에 의하여), 특정 동작이 수행됨을 의미할 수 있다. 예를 들어, 복수 개의 동작들이 수행됨은, 예를 들어 하나의 엔티티(예를 들어, 메인 프로세서일 수 있지만 제한이 없음)에 의하여(또는, 제어에 의하여), 복수 개의 동작들 전체가 수행됨을 의미할 수 있다. 예를 들어, 복수 개의 동작들이 수행됨은, 복수 개의 동작들 중 일부가 적어도 하나의 엔티티에 의하여 수행되고, 나머지 일부가 다른 적어도 하나의 엔티티에 의하여 수행됨을 의미할 수 있다. 예를 들어, 하나 또는 이상의 동작의 수행을 야기하는 적어도 하나의 인스트럭션은, 하나의 메모리에 저장되거나, 또는 복수 개의 메모리들 각각에 분산되어 저장될 수도 있다.The processor (211) and/or the processor (221) may execute instructions in, for example, the memory (212) and/or the memory (222). The memory (212) and/or the memory (222) may store at least one instruction, and the at least one instruction may be executed by the processor (211) and/or the processor (221). The at least one instruction, when executed by the processor (211) and/or the processor (221), may cause the electronic device (101) and/or the server (100) to perform at least one operation. For example, as the at least one instruction is executed, at least one other component may be controlled, and/or various data processing or operations may be performed. As at least a part of data processing or calculation, the processor (211) and/or the processor (221) may store instructions or data received from other components in at least a part of the memory (212) and/or the memory (222), process the instructions or data stored in the memory (212) and/or the memory (222), and store result data in the memory (212) and/or the memory (222). The fact that one operation is performed by the processor (211) and/or the processor (221) may mean, for example, that the operation is performed by (or under the control of) one entity included in the processor (211) and/or the processor (221) (for example, but not limited to, a main processor). For example, the fact that one operation is performed may mean, for example, that a specific operation is performed by (or under the control of) a plurality of entities (for example, a plurality of processors). For example, performing a plurality of operations may mean that all of the operations are performed by (or under the control of) a single entity (e.g., but not limited to, a main processor). For example, performing a plurality of operations may mean that some of the operations are performed by at least one entity, and some of the operations are performed by at least another entity. For example, at least one instruction causing one or more operations to be performed may be stored in a single memory, or may be stored distributedly in each of a plurality of memories.

통신 장치(213) 및/또는 통신 장치(223)는 전자 장치(101) 및 서버(100) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 장치(213) 및/또는 통신 장치(223)는 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있으나, 제한은 없다. 일실시예에 따르면, 통신 장치(213) 및/또는 통신 장치(223)는, 이더넷(ethernet) 기반의 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 통신 장치(213) 및/또는 통신 장치(223)는, 무선 통신 모듈을 포함할 수도 있으나 제한은 없다. 상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.The communication device (213) and/or the communication device (223) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and the server (100), and the performance of communication through the established communication channel. The communication device (213) and/or the communication device (223) may include one or more communication processors that support direct (e.g., wired) communication or wireless communication, but is not limited thereto. According to one embodiment, the communication device (213) and/or the communication device (223) may include an Ethernet-based wired communication module (e.g., a local area network (LAN) communication module, or a power line communication module). The communication device (213) and/or the communication device (223) may also include a wireless communication module, but is not limited thereto. At least some of the above components can be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).

디스플레이(214)는, 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이(214)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 입력 장치(215)는, 사용자의 입력을 수신할 수 있다. 일실시예에 따르면, 디스플레이(214) 및 입력 장치(215)는, 터치 디스플레이로 구현될 수도 있다. 한편, 도시되지는 않았지만, 마이크/스피커와 같은 음성 입력/출력 기반의 입/출력 장치가 전자 장치(101)에 더 포함될 수도 있다.The display (214) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display (214) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. The input device (215) can receive input from the user. According to one embodiment, the display (214) and the input device (215) can be implemented as a touch display. Meanwhile, although not shown, an input/output device based on voice input/output, such as a microphone/speaker, may be further included in the electronic device (101).

도 3은 일 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 도면이다. 도 3의 실시예는, 도 4a 내지 4d를 참조하여 설명하도록 한다. 도 4a 내지 4d 는 다양한 UI의 예시들이다. 한편, 도 1a 내지 1d를 참조하여 설명한 바와 같이, 서버(100)에 의하여 수행되는 동작들 중 적어도 일부가 전자 장치(101)에 의하여 수행될 수 있거나, 및/또는 일부 동작이 생략될 수 있음을 당업자는 이해할 것이다.FIG. 3 is a diagram for explaining an operation method of an electronic device and a server according to one embodiment. The embodiment of FIG. 3 will be described with reference to FIGS. 4A to 4D . FIGS. 4A to 4D are examples of various UIs. Meanwhile, as described with reference to FIGS. 1A to 1D , those skilled in the art will understand that at least some of the operations performed by the server (100) may be performed by the electronic device (101), and/or some operations may be omitted.

일 실시예에 따라서, 서버(100)는, 301 동작에서, 언어 기반 명령어의 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 제 1 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 303 동작에서, 적어도 하나의 제 1 데이터에 기반하여, 언어 기반 명령어 입력을 위한, 예를 들어 도 4a에서와 같은 제 1 UI(410)를 표현하기 위한 적어도 하나의 동작을 수행할 수 있다. 도 4a를 참조하면, 제 1 UI(410)는, 언어 기반 명령어를 입력할 수 있는 입력 창(420)을 포함할 수 있다. 입력 창(420)은, 언어 기반 명령어가 포함될 수 있으며, 이에 따라 사용자가 현재 자신이 입력한 언어 기반 명령어를 확인할 수 있다. 도 4a의 예시에서는, 입력 창(420) 내에, 언어 기반 명령어의 전송을 위한 아이콘(421), 파일 첨부를 위한 아이콘(422), 및/또는 메시지 입력을 유도하기 위한 플레이스홀더(placeholder)(423)를 포함하는 것과 같이 도시되어 있지만, 이는 예시적인 것으로 입력 창(420)의 구현에는 제한이 없다.According to one embodiment, the server (100) may, in operation 301, provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101). The electronic device (101), in operation 303, may perform at least one operation for representing a first UI (410) for inputting a language-based command, for example, as in FIG. 4A, based on the at least one first data. Referring to FIG. 4A, the first UI (410) may include an input window (420) for inputting a language-based command. The input window (420) may include a language-based command, and thus, a user may confirm the language-based command currently input by the user. In the example of FIG. 4a, it is illustrated that the input window (420) includes an icon (421) for sending a language-based command, an icon (422) for attaching a file, and/or a placeholder (423) for inducing message input, but this is exemplary and there is no limitation on the implementation of the input window (420).

예를 들어 , 제 1 UI(410)는, 텍스트 생성 AI 모델에 대응하는 UI로서, 기존 언어 기반 명령어/응답 이력(411,412)이 포함될 수 있지만, 이는 예시적인 것이다. 전자 장치(101) 및/또는 서버(100)는, 텍스트 생성 AI 모델이 아닌 다른 생성형 AI 모델의 UI를 최초의 UI로서 제공할 수 있다. 또는, 전자 장치(101) 및/또는 서버(100)는, AI 모델 선택을 위한 UI를 최초의 UI로서 제공할 수도 있다. AI 모델 선택을 위한 UI는, 예를 들어 도 4a에서와 같은 입력 창(420)을 포함할 수 있으나, 그 구현 형태에는 제한이 없다. 한편, UI(410)는, 시각적인 표현 방식 이외에도, 청각적인 표현 방식으로 제공될 수도 있다. 예를 들어, 전자 장치(101)는, "무엇을 도와 드릴까요?"와 같은 음성을 출력함으로써, 사용자로 하여금 언어 기반 명령어를 발화하도록 유도할 수도 있다.For example, the first UI (410) may include an existing language-based command/response history (411, 412) as a UI corresponding to a text-generating AI model, but this is exemplary. The electronic device (101) and/or the server (100) may provide a UI of a generative AI model other than a text-generating AI model as the first UI. Alternatively, the electronic device (101) and/or the server (100) may provide a UI for selecting an AI model as the first UI. The UI for selecting an AI model may include, for example, an input window (420) as in FIG. 4A, but there is no limitation on its implementation form. Meanwhile, the UI (410) may be provided in an auditory manner in addition to a visual expression manner. For example, the electronic device (101) may induce the user to utter a language-based command by outputting a voice such as "How may I help you?"

다시 도 3을 참조하면, 전자 장치(101)는, 305 동작에서, 제 1 UI를 통한 언어 기반 명령어를 수신할 수 있다. 전자 장치(101)는, 307 동작에서, 언어 기반 명령어를 서버(100)로 송신할 수 있다. 예를 들어, 전자 장치(101)는, SIP(soft input panel)을 추가적으로 표시할 수도 있으며, SIP를 통하여 입력되는 언어 기반 명령어를 입력 창(420) 에 표현할 수도 있다. 또는, 전자 장치(101)는, 액세서리(예를 들어, 키보드)를 통한 입력에 대응하는 언어 기반 명령어를 입력 창(420) 에 표현할 수도 있다. 예를 들어, 도 4b에서와 같이, 전자 장치(101)는, 수신된 언어 기반 명령어(428)를 입력 창(420) 내에 표현할 수 있으며, 그 표현 방식에는 제한이 없다. 예를 들어, 전자 장치(101)는, 전송을 위한 아이콘(421)의 선택 검출에 기반하여, 언어 기반 명령어(428)를 서버(100)로 송신할 수 있다.Referring back to FIG. 3, the electronic device (101) may receive a language-based command through the first UI in operation 305. The electronic device (101) may transmit the language-based command to the server (100) in operation 307. For example, the electronic device (101) may additionally display a soft input panel (SIP) and may express a language-based command input through the SIP in the input window (420). Alternatively, the electronic device (101) may express a language-based command corresponding to an input through an accessory (e.g., a keyboard) in the input window (420). For example, as in FIG. 4b, the electronic device (101) may express the received language-based command (428) in the input window (420), and there is no limitation on the expression method. For example, the electronic device (101) may transmit a language-based command (428) to the server (100) based on the detection of selection of an icon (421) for transmission.

다시 도 3을 참조하면, 서버(100)는, 309 동작에서, 언어 기반 명령어에 기반하여, 생성 작업을 수행할 AI 모델을 선택할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어의 분석(예를 들어, 룰 기반 분석, NLU, 및/또는 LLM일 수 있으나 제한이 없음) 결과에 기반하여, 생성 작업의 타입을 확인할 수 있다. 예를 들어, 서버(100)는, "쓸쓸한 얼굴의 소년이 어두운 밤 거리를 걷는 그림을 만화풍으로 잘 그려줘"에 대한 분석 결과에 기반하여, 생성 작업의 타입이 이미지 생성임을 확인할 수 있다. 서버(100)는, 저장하고 있거나, 및/또는 접근 가능한 이미지 생성 AI 모델들 중 어느 하나를 생성 작업을 수행할 AI 모델로서 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어의 분석 결과에 기반하여, AI 모델을 확인할 수 있다. 예를 들어, 서버(100)는, "쓸쓸한 얼굴의 소년이 어두운 밤 거리를 걷는 그림을 만화풍으로 잘 그려줘"에 대한 분석 결과에 기반하여, "만화" 이미지 생성에 상대적으로 양호한 품질을 가지는 AI 모델을 선택할 수 있으나, 그 확인 방식에는 제한이 없다.Referring back to FIG. 3, the server (100) may, in operation 309, select an AI model to perform a generation task based on a language-based command. For example, the server (100) may identify the type of generation task based on the analysis results of the language-based command (e.g., rule-based analysis, NLU, and/or LLM, but not limited thereto). For example, the server (100) may identify the type of generation task as image generation based on the analysis results of “Draw a cartoon-style picture of a boy with a lonely face walking down a dark night street.” The server (100) may identify any one of the stored and/or accessible image generation AI models as the AI model to perform the generation task. For example, the server (100) may identify the AI model based on the analysis results of the language-based command. For example, the server (100) may select an AI model with relatively good quality for generating a "cartoon" image based on the analysis results for "draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style", but there is no limitation on the method of confirmation.

예를 들어, 표 1은 서버(100)(또는, 전자 장치(101))에 의하여 관리되는 이미지 생성 AI 모델 별 특성의 예시이다.For example, Table 1 is an example of characteristics of each image generation AI model managed by the server (100) (or electronic device (101)).

AI 모델AI model 특성characteristic makeimageAImakeimageAI 밝은 분위기의 만화A bright-toned comic cartoon AIcartoon AI 심각한 분위기의 만화A serious cartoon japan AIjapan AI 일본풍의 만화Japanese-style comics drawing AIdrawing AI 유화oil painting

AI 모델 별 특성은, 예를 들어 AI 모델 트레이닝 엔티티에 의하여 설정되거나, 및/또는 AI 모델 선택 엔티티(예를 들어, 전자 장치(101) 및/또는 서버(100))에 의하여 설정될 수 있으나 제한은 없으며, 그 설정 방식에도 제한이 없다. 서버(100)는, "쓸쓸한 얼굴의 소년이 어두운 밤 거리를 걷는 그림을 만화풍으로 잘 그려줘"의 분석 결과 및 표 1과 같이 설정된 AI 모델 별 특성에 기반하여, 생성 작업을 수행할 AI 모델을 선택할 수 있으나 제한은 없다.The characteristics of each AI model can be set, for example, by an AI model training entity, and/or by an AI model selection entity (e.g., an electronic device (101) and/or a server (100)), but there is no limitation on this, and there is no limitation on the method of setting them. The server (100) can select an AI model to perform a generation task based on the analysis result of “Draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style” and the characteristics of each AI model set as in Table 1, but there is no limitation on this.

서버(100)는, 311 동작에서, 예를 들어, 도 4c와 같은 선택된 AI 모델에 기반한 제 2 UI(440)를 구성할 수 있다. 서버(100)는, 313 동작에서, 제 2 UI(440)를 표현하기 위한 적어도 하나의 제 2 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 315 동작에서, 수신한 적어도 하나의 제 2 데이터에 기반하여, 제 2 UI(440)를 표현할 수 있다. 도 4c에서와 같이, 제 2 UI(440)는, 선택된 AI 모델이 요구하는(또는, 입력값으로서 수신하는) 적어도 하나의 파라미터(440,445,450,455,460,465) 및 대응하는 값(442,446,461,456,461,466)을 포함할 수 있다. 서버(100)는, 적어도 하나의 파라미터(440,445,450,455,460,465)에 대응하는 값(442,446,461,456,461,466)을, 언어 기반 명령어의 분석 결과에 기반하여 설정하거나, 및/또는 디폴트 값으로 설정할 수 있다.The server (100) may, in operation 311, configure a second UI (440) based on a selected AI model, for example, as in FIG. 4c. In operation 313, the server (100) may provide at least one second data for representing the second UI (440) to the electronic device (101). The electronic device (101) may, in operation 315, represent the second UI (440) based on the received at least one second data. As in FIG. 4c, the second UI (440) may include at least one parameter (440, 445, 450, 455, 460, 465) and corresponding values (442, 446, 461, 456, 461, 466) required by the selected AI model (or received as an input value). The server (100) can set a value (442, 446, 461, 456, 461, 466) corresponding to at least one parameter (440, 445, 450, 455, 460, 465) based on the analysis result of the language-based command and/or set it as a default value.

예를 들어, 필터(filter)의 파라미터(441)에 대응하는 값이 "만화"(442)이 설정될 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어의 분석 결과에 기반하여 필터의 파라미터(441)에 대응하는 값이 "만화"의 값(442)임을 확인할 수 있다. 이에 따라, 서버(100)는, 제 2 UI(440)의 필터의 파라미터(441)에 대응하는 값을 "만화"(442)로 설정할 수 있다. 만약, 언어 기반 명령어로부터 필터의 파라미터에 대응하는 값이 확인되지 않는 경우, 서버(100)는, 필터의 파라미터에 대응하는 값을 디폴트 값, 또는 이용 히스토리에 기반하여 확인된 값(예를 들어, 과거에 이용한 값)으로 설정할 수 있다. 또는, 언어 기반 명령어로부터 필터의 파라미터에 대응하는 값이 확인되지 않는 경우, 서버(100)는, 해당 파라미터를 UI로부터 제외시킬 수도 있다 . 한편, 도 4c의 예시에서는, 다른 필터를 선택할 수 있는 기능 아이콘(443)이 더 포함될 수도 있다. 아이콘(443)이 선택되는 경우, 선택 가능한 다른 값들이 더 제공될 수도 있다.For example, a value corresponding to a parameter (441) of a filter may be set to "cartoon" (442). For example, the server (100) may determine that the value corresponding to the parameter (441) of the filter is the value (442) of "cartoon" based on the analysis result of the language-based command. Accordingly, the server (100) may set the value corresponding to the parameter (441) of the filter of the second UI (440) to "cartoon" (442). If a value corresponding to the parameter of the filter is not determined from the language-based command, the server (100) may set the value corresponding to the parameter of the filter to a default value or a value determined based on the usage history (e.g., a value used in the past). Alternatively, if a value corresponding to the parameter of the filter is not determined from the language-based command, the server (100) may exclude the corresponding parameter from the UI. Meanwhile, in the example of FIG. 4C, a function icon (443) for selecting another filter may be further included. When icon (443) is selected, other selectable values may be provided.

예를 들어, 프롬프트의 파라미터(445)에 대응하는 값이 "쓸쓸한 얼굴의 소년이 어두운 밤 거리를 걷는 그림을 만화풍으로 잘 그려줘"(446)으로 설정될 수 있다. 서버(100)는, 예를 들어 언어 기반 명령어를 그대로 프롬프트의 파라미터(445)에 대응하는 값으로 설정할 수 있다. 한편, 이는 예시적인 것으로, 언어 기반 명령어에 대한 수정 및/또는 대체 텍스트가 프롬프트의 파라미터(445)에 대응하는 값으로서 설정될 수도 있으며, 이에 대하여서는 도 6a 및 6b를 참조하여 설명하도록 한다. 한편, 제외 이미지 파라미터(450)에 대응하는 값은 커스텀(451)으로 설정될 수 있으며, 이미지 크기 파라미터(455)에 대응하는 값은 "1024x1024"(456)으로 설정될 수 있으며, 작업 속력 및 품질 파라미터(460)에 대응하는 값은 "fast"로 설정될 수 있으며, 디밍(deeming) 파라미터(465)의 값은 "dark"(466)로 설정될 수 있다. 상술한 바와 같이, 파라미터에 대응하는 값은, 언어 기반 명령어의 분석 결과, 디폴트 값, 및/또는 히스토리에 기반하여 설정된 값일 수 있으나, 제한이 없다.For example, the value corresponding to the parameter (445) of the prompt can be set to "Draw a picture of a boy with a lonely face walking down a dark night street in a cartoon style" (446). The server (100) can, for example, set a language-based command as the value corresponding to the parameter (445) of the prompt. Meanwhile, this is exemplary, and a modified and/or replacement text for the language-based command can also be set as the value corresponding to the parameter (445) of the prompt, which will be described with reference to FIGS. 6A and 6B. Meanwhile, the value corresponding to the excluded image parameter (450) can be set to custom (451), the value corresponding to the image size parameter (455) can be set to "1024x1024" (456), the value corresponding to the work speed and quality parameter (460) can be set to "fast", and the value of the dimming parameter (465) can be set to "dark" (466). As described above, the value corresponding to the parameter may be a value set based on the analysis result of the language-based command, a default value, and/or history, but there is no limitation.

제 2 UI는, 예를 들어 선택된 AI 모델 및/또는 확인된 생성 작업에 대응하여 설정될 수 있다. 예를 들어, 요약이나 번역의 생성 작업의 경우에는 상대적으로 큰 텍스트 입/출력 화면(또는, 창)을 포함하는 제 2 UI가 제공될 수 있다. 예를 들어, 질문에 대한 답변의 생성 작업의 경우에는, 상대적으로 작은 질문 입력 창을 포함하는 제 2 UI가 제공될 수도 있다. 예를 들어, 이미지 생성 AI 모델이 선택된 경우, 출력될 이미지의 숫자에 따라 화면이 분할되는 제 2 UI가 제공될 수도 있다. 예를 들어, 코드 생성 AI 모델이 선택된 경우, 라인 넘버, 하이라이팅과 같은 마크업이 적용된 코드 가독성을 위한 제 2 UI가 제공될 수도 있다.The second UI may be configured, for example, in response to the selected AI model and/or the identified generation task. For example, in the case of a task generating a summary or translation, a second UI including a relatively large text input/output screen (or window) may be provided. For example, in the case of a task generating a question answer, a second UI including a relatively small question input window may be provided. For example, if an image generation AI model is selected, a second UI may be provided that divides the screen according to the number of images to be output. For example, if a code generation AI model is selected, a second UI may be provided that applies markup, such as line numbers and highlighting, to improve code readability.

다시 도 3을 참조하면, 전자 장치(101)는, 317 동작에서, 제 2 UI(440)를 통한 AI 모델 실행 명령을 획득할 수 있다. 예를 들어, 사용자는, 전자 장치(101)에 의하여 표현되는 제 2 UI(440)의 적어도 하나의 파라미터 별 값을 확인할 수 있다. 사용자는, 제 2 UI(440)를 통하여, 적어도 하나의 파라미터 별 값 중 적어도 일부를 추가적으로 조정할 수도 있다. 사용자는, 제 2 UI(440)의 적어도 하나의 파라미터 별 값이 적절한 것으로 확인 시, 제 2 UI(440)를 통한 AI 모델 실행 명령을 입력할 수 있다. 전자 장치(101)는, 319 동작에서, AI 모델 실행 명령을 서버(100)로 송신할 수 있다. 서버(100)는, 321 동작에서, AI 모델 실행 결과를 획득할 수 있다. 서버(100)가, AI 모델을 저장한 경우에는, AI 모델에 파라미터 별 값으로 구성된 입력값을 입력함으로써, AI 모델 실행 결과를 획득할 수 있다. 만약, 서버(100)가, AI 모델을 저장하지 않은 경우에는, AI 모델 제공자에 AI 모델에 파라미터 별 값으로 구성된 입력값을 제공할 수 있다. 서버(100)는, AI 모델 제공자로부터, AI 모델 실행 결과를 획득할 수도 있다. 서버(100)는, 323 동작에서, AI 모델의 실행 결과를 표현하기 위한 적어도 하나의 제 3 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 325 동작에서, AI 모델 실행 결과를 제공할 수 있다. 예를 들어, 전자 장치(101)는, 도 4d 와 같은 AI 모델 실행 결과(470)를 제공할 수 있다. AI 모델 실행 결과(470)는, 생성된 이미지(471), 생성 작업과 연관된 대화형 텍스트(472)를 포함할 수 있으나, 그 구현 형태에는 제한이 없다. 예를 들어, AI 모델 실행 결과(470)는, 어떠한 AI 모델이 이용되었는지에 대한 정보를 포함할 수도 있다. 한편, 도 4d의 예시에서는, 생성된 이미지(471)가, 언어 기반 명령어를 입력한 제 1 UI(410)의 형식으로 표현될 수 있으나, 이는 예시적인 것이다. 예를 들어, 서버(100)는, 제 2 UI의 형식, 또는 다른 형식에 기반하여 생성된 이미지(471)를 제공할 수도 있으며, 그 표현 방식에는 제한이 없다. 상술한 바에 따라서, 사용자는, 생성 작업 별로 상이한 AI 모델을 선택하거나, 또는 특정한 생성 작업 서비스 제공자에게 접속할 필요 없이, 텍스트 기반으로 다양한 생성형 AI 모델을 이용할 수 있다. 뿐만 아니라, 비전문가의 접근이 어려운 다양한 생성형 AI 모델의 파라미터 설정의 적어도 일부가 자동적으로 생성될 수 있어, 이용 접근성이 향상될 수 있다.Referring back to FIG. 3, the electronic device (101) may obtain an AI model execution command through the second UI (440) in operation 317. For example, the user may check at least one parameter-specific value of the second UI (440) expressed by the electronic device (101). The user may also additionally adjust at least some of the at least one parameter-specific value through the second UI (440). When the user confirms that the at least one parameter-specific value of the second UI (440) is appropriate, the user may input an AI model execution command through the second UI (440). The electronic device (101) may transmit the AI model execution command to the server (100) in operation 319. The server (100) may obtain an AI model execution result in operation 321. If the server (100) has stored an AI model, the server (100) may obtain the AI model execution result by inputting an input value composed of parameter-specific values into the AI model. If the server (100) does not store the AI model, it may provide an input value composed of parameter values for the AI model to the AI model provider. The server (100) may also obtain an AI model execution result from the AI model provider. In operation 323, the server (100) may provide at least one third data for expressing the execution result of the AI model to the electronic device (101). In operation 325, the electronic device (101) may provide the AI model execution result. For example, the electronic device (101) may provide an AI model execution result (470) as in FIG. 4d. The AI model execution result (470) may include a generated image (471) and interactive text (472) associated with the generation task, but there is no limitation on the form of implementation. For example, the AI model execution result (470) may include information on which AI model was used. Meanwhile, in the example of FIG. 4d, the generated image (471) may be expressed in the format of the first UI (410) that inputs a language-based command, but this is merely exemplary. For example, the server (100) may provide the generated image (471) based on the format of the second UI or another format, and there is no limitation on the method of expression. As described above, the user can utilize various generative AI models based on text without having to select a different AI model for each generation task or connect to a specific generation task service provider. In addition, at least a portion of the parameter settings of various generative AI models that are difficult for non-experts to access can be automatically generated, thereby improving user accessibility.

도 5a 는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. 도 5a의 실시예는, 도 5b를 참조하여 설명하도록 한다. 도 5b는 일 실시예에 따른 서버의 모듈의 동작을 설명하기 위한 도면이다.FIG. 5A is a diagram for explaining an operation method of a server according to one embodiment. The embodiment of FIG. 5A will be explained with reference to FIG. 5B. FIG. 5B is a diagram for explaining the operation of a module of a server according to one embodiment.

일 실시예에 따라서, 서버(108), 예를 들어 도 5b에서의 프롬프트 처리 모듈(112)은, 501 동작에서, 언어 기반 명령어의 분석을 수행할 수 있다. 예를 들어, 프롬프트 처리 모듈(112)은, 룰 기반 및/또는 NLU에 기반하여 언어 기반 명령어를 분석할 수 있으나, 이에 제한되지 않으며, LLM(예를 들어, sLLM)을 이용하여 언어 기반 명령어에 대한 분석 결과를 획득할 수도 있다. 프롬프트 처리 모듈(112)은, 분석 결과를 AI 모델 선택 모듈(113)로 제공할 수 있다. 서버(108), 예를 들어 AI 모델 선택 모듈(113)은, 503 동작에서, 분석 결과에 기반하여 AI 모델을 선택할 수 있다. 예를 들어, AI 모델 선택 모듈(113)은, 확인된 생성 작업의 타입에 대응하는 복수 개의 AI 모델들 중, 어느 하나를 선택할 수 있으나, 이는 예시적인 것이다. AI 모델 선택 모듈(113)은, 생성 작업의 타입 없이도, 생성 작업을 수행할 AI 모델을 선택할 수도 있다. According to one embodiment, the server (108), for example, the prompt processing module (112) in FIG. 5B, may perform analysis of a language-based command in operation 501. For example, the prompt processing module (112) may analyze the language-based command based on, but not limited to, rule-based and/or NLU, and may also obtain analysis results for the language-based command using LLM (e.g., sLLM). The prompt processing module (112) may provide the analysis results to the AI model selection module (113). The server (108), for example, the AI model selection module (113), may select an AI model based on the analysis results in operation 503. For example, the AI model selection module (113) may select one of a plurality of AI models corresponding to the type of the identified generation task, but this is exemplary. The AI model selection module (113) may also select an AI model to perform the generation task without specifying the type of the generation task.

서버(100), 예를 들어 UI 생성 모듈(114)은, 505 동작에서, 선택된 AI 모델에 대응하는 UI의 적어도 하나의 파라미터를 확인할 수 있다. 서버(100), 예를 들어 UI 생성 모듈(114)은, 507 동작에서, 언어 기반 명령어에 기반하여 적어도 하나의 파라미터의 적어도 일부 및 값을 확인할 수 있다. 서버(100)는, 509 동작에서, 확인된 파라미터 및 값을 적용한 UI를 구성할 수 있다. 선택된 AI 모델에 대응하는 UI를 생성할 수 있다. 예를 들어, 파라미터 추출 모듈(114b)은, 언어 기반 명령어의 분석 결과에 기반하여, AI 모델에 대응하는 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값을 추출할 수 있다. 예를 들어, 도 4c를 참조하여 설명한 바와 같이, 언어 기반 명령어의 "만화풍"으로부터 필터 파라미터(440)에 대응하는 값이 "만화"로서 설정될 수 있다. 한편, 파라미터 추출 모듈(114b)이 UI 생성 모듈(114)에 포함되는 것은 예시적인 것으로, 파라미터 추출 모듈(114b)이 다름 모듈(예를 들어, 프롬프트 처리 모듈(112) 및/또는 AI 모델 선택 모듈)에 포함되거나, 다른 모듈로부터 독립적으로 구현될 수도 있음을 당업자는 이해할 것이다. UI 구성 모듈(114a)은, 선택된 AI 모델에 대한 정보 및 파라미터 추출 결과에 기반하여, UI를 생성할 수 있다. 예를 들어, UI 생성 모듈(114)은, 언어 기반 명령어로부터 확인되지 않은 파라미터는 UI에서 제외하거나, 또는 디폴트 값을 설정할 수도 있다.The server (100), for example, the UI generation module (114), can, in operation 505, check at least one parameter of the UI corresponding to the selected AI model. The server (100), for example, the UI generation module (114), can, in operation 507, check at least a portion and a value of at least one parameter based on the language-based command. The server (100), in operation 509, can configure a UI by applying the checked parameters and values. The UI corresponding to the selected AI model can be generated. For example, the parameter extraction module (114b) can extract a value corresponding to at least a portion of at least one parameter corresponding to the AI model based on the analysis result of the language-based command. For example, as described with reference to FIG. 4c, a value corresponding to the filter parameter (440) from the "cartoon style" of the language-based command can be set to "cartoon." Meanwhile, the inclusion of the parameter extraction module (114b) in the UI generation module (114) is exemplary, and those skilled in the art will understand that the parameter extraction module (114b) may be included in another module (e.g., the prompt processing module (112) and/or the AI model selection module) or implemented independently from another module. The UI configuration module (114a) may generate a UI based on information about the selected AI model and the parameter extraction results. For example, the UI generation module (114) may exclude parameters that are not confirmed from language-based commands from the UI or set default values.

도 6a는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. 도 6a의 실시예는, 도 6b를 참조하여 설명하도록 한다. 도 6b는 일 실시예에 따른 UI의 예시이다.FIG. 6A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 6A will be described with reference to FIG. 6B. FIG. 6B is an example of a UI according to one embodiment.

일 실시예에 따라, 서버(100)는, 601 동작에서, 언어 기반 명령어를 분석할 수 있다. 서버(100)는, 603 동작에서, 언어 기반 명령어의 분석 결과에 기반하여, AI 모델을 선택할 수 있다. 서버(100)는, 605 동작에서, 선택된 AI 모델에 대응하여 언어 기반 명령어의 적어도 일부를 변경할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어의 분석에 기반하여, 이미지 생성 AI 모델을, 생성 작업을 수행할 AI 모델로서 확인할 수 있다. 이미지 생성 AI 모델은, 예를 들어 프롬프트의 요소로서, 이미지에 포함되는 오브젝트에 대한 설명, 배경에 대한 설명, 씬에 대한 설명, 필터에 대한 설명, 속성(예: 밝기)에 대한 설명 등을 요구할 수 있다. 서버(100)는, 언어 기반 명령어에 기반하여, 프롬프트의 적어도 하나의 요소를 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어로부터 오브젝트에 대한 설명이 "인물은 쓸쓸한 얼굴의 소년"인 것으로 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어로부터 배경에 대한 설명이 "배경은 어두운 밤 거리"인 것으로 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어로부터 씬에 대한 설명이 "씬 설명은 소년이 밤 거리를 걷고 있음"으로 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어로부터 필터에 대한 설명이 "필터는 만화풍"인 것으로 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어로부터 속성에 대한 설명이 "밝기는 어둡게 설정"인 것으로 확인할 수 있다. 서버(100)는, 607 동작에서, 변경된 명령어를 포함하는 UI를 구성할 수 있다. 예를 들어, 도 6b를 참조하면, 제 2 UI(440)의 프롬프트 파라미터(445)에 대응하는 값(446)이 도 4c에서의 "쓸쓸한 얼굴의 소년이 어두운 밤 거리를 걷는 그림을 만화풍으로 잘 그려줘."(446)과 상이할 수 있다. 서버(100)는, 상술한 바와 같이 확인된 선택된 AI 모델에 대응하는 프롬프트의 요소인, 이미지에 포함되는 오브젝트에 대한 설명, 배경에 대한 설명, 씬에 대한 설명, 필터에 대한 설명, 속성(예: 밝기)에 대한 설명을 구분함으로써, 제 2 UI(440)의 프롬프트 파라미터(445)에 대응하는 값(446)을 확인할 수 있다. 선택된 AI 모델에 대응하는 프롬프트의 요소 별로 구분함으로써, 생성 작업의 정확도가 향상될 수 있다.According to one embodiment, the server (100) may analyze a language-based command in operation 601. The server (100) may select an AI model based on the analysis result of the language-based command in operation 603. The server (100) may change at least a portion of the language-based command in response to the selected AI model in operation 605. For example, the server (100) may identify an image generation AI model as the AI model to perform the generation task based on the analysis of the language-based command. The image generation AI model may request, for example, elements of the prompt, a description of an object included in the image, a description of the background, a description of a scene, a description of a filter, a description of an attribute (e.g., brightness), etc. The server (100) may identify at least one element of the prompt based on the language-based command. For example, the server (100) may identify, from the language-based command, that the description of the object is "a boy with a lonely face." For example, the server (100) can determine from the language-based command that the description of the background is "the background is a dark night street." For example, the server (100) can determine from the language-based command that the description of the scene is "the scene description is a boy walking down a street at night." For example, the server (100) can determine from the language-based command that the description of the filter is "the filter is cartoon-style." For example, the server (100) can determine from the language-based command that the description of the attribute is "the brightness is set to dark." In operation 607, the server (100) can configure a UI that includes the changed command. For example, referring to FIG. 6b, the value (446) corresponding to the prompt parameter (445) of the second UI (440) may be different from "Draw a picture of a boy with a lonely face walking down a dark night street in a cartoon-style" (446) in FIG. 4c. The server (100) can identify a value (446) corresponding to a prompt parameter (445) of the second UI (440) by distinguishing elements of the prompt corresponding to the selected AI model identified as described above, such as a description of an object included in an image, a description of a background, a description of a scene, a description of a filter, and a description of a property (e.g., brightness). By distinguishing elements of the prompt corresponding to the selected AI model, the accuracy of the generation task can be improved.

도 7a 는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. 도 7a의 실시예는 도 7b를 참조하여 설명하도록 한다. 도 7b는 일 실시예에 따른 UI의 예시이다.FIG. 7A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 7A will be described with reference to FIG. 7B. FIG. 7B is an example of a UI according to one embodiment.

서버(100)는, 701 동작에서, 언어 기반 명령어의 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 제 1 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 703 동작에서, 적어도 하나의 제 1 데이터에 기반하여, 언어 기반 명령어 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 동작을 수행할 수 있다. 전자 장치(101)는, 705 동작에서, 제 1 UI를 통한 언어 기반 명령어를 수신할 수 있다. 예를 들어, 도 3를 참조하여 설명한 바와 같이, 전자 장치(101)는 SIP를 통한 입력 또는 연결된 액세서리(예를 들어, 키보드)를 통한 입력에 기반하여, 언어 기반 명령어를 수신할 수 있지만, 그 수신 방식에는 제한이 없으며, 음성 인식 기능을 통하여 언어 기반 명령어를 수신할 수도 있다. 전자 장치(101)는, 707 동작에서, 언어 기반 명령어를 서버(100)로 송신할 수 있다. 서버(100)는, 709 동작에서, 언어 기반 명령어에 기반하여 AI 모델을 선택할 수 있다. 서버(100)는, 룰 기반 및/또는 NLU에 기반하여 언어 기반 명령어를 분석할 수 있으나, 이에 제한되지 않으며, LLM(예를 들어, sLLM)을 이용하여 언어 기반 명령어에 대한 분석 결과를 획득할 수도 있다. 서버(100)는, 분석 결과에 기반하여 AI 모델을 선택할 수 있다. 예를 들어, 서버(100)는, 확인된 생성 작업의 타입에 대응하는 복수 개의 AI 모델들 중, 어느 하나를 선택할 수 있으나, 이는 예시적인 것이다. 서버(100)는, 생성 작업의 타입 없이도, 생성 작업을 수행할 AI 모델을 선택할 수도 있다.The server (100) may, in operation 701, provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101). The electronic device (101) may, in operation 703, perform at least one operation for representing a first UI for inputting a language-based command based on the at least one first data. The electronic device (101) may, in operation 705, receive a language-based command through the first UI. For example, as described with reference to FIG. 3, the electronic device (101) may receive a language-based command based on an input through SIP or an input through a connected accessory (e.g., a keyboard), but there is no limitation on the method of receiving the command, and the language-based command may also be received through a voice recognition function. The electronic device (101) may, in operation 707, transmit the language-based command to the server (100). The server (100) may, in operation 709, select an AI model based on a language-based command. The server (100) may analyze the language-based command based on rules and/or NLU, but is not limited thereto, and may also obtain analysis results for the language-based command using LLM (e.g., sLLM). The server (100) may select an AI model based on the analysis results. For example, the server (100) may select any one of a plurality of AI models corresponding to the type of the identified generation task, but this is exemplary. The server (100) may also select an AI model to perform the generation task without specifying the type of the generation task.

서버(100)는, 711 동작에서, 선택된 AI 모델의 사용 여부를 문의할 수 있다. 예를 들어, 서버(100)는, 선택된 AI 모델에 대한 정보를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는, 예를 들어 도 7b에서와 같이, 언어 기반 명령어에 대한 이해 결과 및 선택된 AI 모델의 사용 여부를 문의하는 텍스트(722)를 제공할 수 있다. 전자 장치(101)는, 선택된 AI 모델의 사용을 지시하기 위한 아이콘(723) 및 AI 모델을 사용하지 않음을 나타내는 아이콘(724)을 제공할 수 있다. The server (100) may, in operation 711, inquire about whether to use the selected AI model. For example, the server (100) may transmit information about the selected AI model to the electronic device (101). The electronic device (101) may, for example, provide a text (722) inquiring about the results of understanding language-based commands and whether to use the selected AI model, as in FIG. 7B . The electronic device (101) may provide an icon (723) indicating the use of the selected AI model and an icon (724) indicating that the AI model is not to be used.

다시 도 7a를 참조하면, 전자 장치(101)는, 713 동작에서, 선택된 AI 모델의 사용을 확인할 수 있다. 예를 들어, 전자 장치(101)는, 도 7b에서와 같은 아이콘(723)의 선택이 확인됨에 따라서, 선택된 AI 모델의 사용을 확인할 수 있지만, 그 확인 방식에는 제한이 없다. 전자 장치(101)는, 715 동작에서, 선택된 AI 모델의 사용 확인을 서버(100)로 제공할 수 있다. 서버(100)는, 717 동작에서, 선택된 AI 모델의 사용 확인에 기반하여, AI 모델 실행 결과를 획득할 수 있다. 예를 들어, 서버(100)는, 저장된 AI 모델을 실행하거나, 또는 해당 AI 모델 제공자로 접속함으로써, AI 모델 실행 결과를 획득할 수 있다. 서버(100)는, 719 동작에서, AI 모델 실행 결과를 표현하기 위한 적어도 하나의 제 3 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 721 동작에서, AI 모델 실행 결과를 제공할 수 있다.Referring back to FIG. 7A, the electronic device (101) can confirm the use of the selected AI model in operation 713. For example, the electronic device (101) can confirm the use of the selected AI model by confirming the selection of the icon (723) as in FIG. 7B, but there is no limitation on the method of confirmation. The electronic device (101) can provide the server (100) with confirmation of the use of the selected AI model in operation 715. The server (100) can obtain an AI model execution result based on the confirmation of the use of the selected AI model in operation 717. For example, the server (100) can obtain the AI model execution result by executing a stored AI model or connecting to a corresponding AI model provider. The server (100) can provide the electronic device (101) with at least one third data for representing the AI model execution result in operation 719. The electronic device (101) can provide the AI model execution result in operation 721.

도 8a 는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. 도 8a의 실시예는 도 8b를 참조하여 설명하도록 한다. 도 8b는 일 실시예에 따른 UI의 예시이다.FIG. 8A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 8A will be described with reference to FIG. 8B. FIG. 8B is an example of a UI according to one embodiment.

서버(100)는, 801 동작에서, 언어 기반 명령어의 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 제 1 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 803 동작에서, 적어도 하나의 제 1 데이터에 기반하여, 언어 기반 명령어 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 동작을 수행할 수 있다. 전자 장치(101)는, 805 동작에서, 제 1 UI를 통한 언어 기반 명령어를 수신할 수 있다. 전자 장치(101)는, 807 동작에서, 언어 기반 명령어를 서버(100)로 송신할 수 있다.In operation 801, the server (100) may provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101). In operation 803, the electronic device (101) may perform at least one operation for representing a first UI for inputting a language-based command based on the at least one first data. In operation 805, the electronic device (101) may receive a language-based command through the first UI. In operation 807, the electronic device (101) may transmit the language-based command to the server (100).

서버(100)는, 809 동작에서, 언어 기반 명령어에 기반하여 AI 모델 리스트를 확인할 수 있다. 예를 들어, 서버(100)는, 언어 기반 명령어에 기반하여 확인된 생성 작업을 수행가능한 AI 모델 리스트, 또는 생성 작업의 수행에 적합한 AI 모델 리스트를 확인할 수 있다. 예를 들어, 서버(100)는, 생성 작업의 타입이 이미지 생성 타입임을 확인할 수 있으며, 이미지 생성을 수행할 수 있는 AI 모델 리스트를 확인할 수 있다. 서버(100)는, 룰 기반 및/또는 NLU에 기반하여 언어 기반 명령어를 분석할 수 있으나, 이에 제한되지 않으며, LLM(예를 들어, sLLM)을 이용하여 언어 기반 명령어에 대한 분석 결과를 획득할 수도 있다. 예를 들어, 서버(100)는, 확인된 생성 작업의 타입에 대응하는 AI 모델 리스트를 확인할 수 있으나, 이는 예시적인 것이다. 서버(100)는, 생성 작업의 타입 없이도, 생성 작업을 수행할 AI 모델 리스트를 확인할 수도 있다. 서버(100)는, 811 동작에서, AI 모델 리스트를 전자 장치(101)로 제공할 수 있다. The server (100), in operation 809, can check a list of AI models based on a language-based command. For example, the server (100) can check a list of AI models capable of performing the identified generation task based on the language-based command, or a list of AI models suitable for performing the generation task. For example, the server (100) can check that the type of the generation task is an image generation type, and can check a list of AI models capable of performing image generation. The server (100) can analyze the language-based command based on a rule basis and/or NLU, but is not limited thereto, and can also obtain analysis results for the language-based command using an LLM (e.g., sLLM). For example, the server (100) can check a list of AI models corresponding to the type of the identified generation task, but this is exemplary. The server (100) can also check a list of AI models capable of performing the generation task even without the type of the generation task. The server (100) can provide a list of AI models to the electronic device (101) in operation 811.

전자 장치(101)는, 813 동작에서, 수신한 AI 모델 리스트를 제공할 수 있다. 예를 들어, 도 8b에서와 같이, 전자 장치(101)는, AI 모델 리스트와 관련된 정보(822)를 포함하는 UI(820)할 수 있다. UI(820)에는, 언어 기반 명령어(821)도 포함될 수도 있다. 다시 도 8a를 참조하면, 전자 장치(101)는, 813 동작에서, AI 모델 리스트 중 하나의 선택을 확인할 수 있다. 예를 들어, 사용자는, 리스트에 대한 정보(822)에 기반한 어느 하나의 선택에 대한 정보를 입력할 수 있다. 전자 장치(101)는, 815 동작에서, 선택된 AI 모델 정보를 서버(100)로 제공할 수 있다. 서버(100)는, 817 동작에서, 선택된 AI 모델 정보에 기반하여, AI 모델 실행 결과를 획득할 수 있다. 예를 들어, 서버(100)는, 저장된 AI 모델을 실행하거나, 또는 해당 AI 모델 제공자로 접속함으로써, AI 모델 실행 결과를 획득할 수 있다. 서버(100)는, 819 동작에서, AI 모델 실행 결과를 표현하기 위한 적어도 하나의 제 3 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 821 동작에서, AI 모델 실행 결과를 제공할 수 있다.The electronic device (101) may provide a list of received AI models in operation 813. For example, as shown in FIG. 8B, the electronic device (101) may provide a UI (820) including information (822) related to the AI model list. The UI (820) may also include language-based commands (821). Referring again to FIG. 8A, the electronic device (101) may confirm a selection of one of the AI model lists in operation 813. For example, the user may input information about one of the selections based on information (822) about the list. The electronic device (101) may provide the selected AI model information to the server (100) in operation 815. The server (100) may obtain an AI model execution result based on the selected AI model information in operation 817. For example, the server (100) may obtain an AI model execution result by executing a stored AI model or by connecting to the corresponding AI model provider. In operation 819, the server (100) may provide at least one third data for representing the AI model execution result to the electronic device (101). In operation 821, the electronic device (101) may provide the AI model execution result.

도 9a 는 일 실시예에 따른 서버의 동작 방법을 설명하기 위한 도면이다. 도 9a의 실시예는 도 9b를 참조하여 설명하도록 한다. 도 9b는 일 실시예에 따른 UI의 예시이다.FIG. 9A is a diagram illustrating a method of operating a server according to one embodiment. The embodiment of FIG. 9A will be described with reference to FIG. 9B. FIG. 9B is an example of a UI according to one embodiment.

서버(100)는, 901 동작에서, 언어 기반 명령어의 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 제 1 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 903 동작에서, 적어도 하나의 제 1 데이터에 기반하여, 언어 기반 명령어 입력을 위한 제 1 UI를 표현하기 위한 적어도 하나의 동작을 수행할 수 있다. 전자 장치(101)는, 905 동작에서, 제 1 UI를 통한 언어 기반 명령어를 수신할 수 있다. 전자 장치(101)는, 907 동작에서, 언어 기반 명령어를 서버(100)로 송신할 수 있다.In operation 901, the server (100) may provide at least one first data for representing a first UI for inputting a language-based command to the electronic device (101). In operation 903, the electronic device (101) may perform at least one operation for representing a first UI for inputting a language-based command based on the at least one first data. In operation 905, the electronic device (101) may receive a language-based command through the first UI. In operation 907, the electronic device (101) may transmit the language-based command to the server (100).

서버(100)는, 909 동작에서, 언어 기반 명령어에 기반하여 AI 모델을 선택할 수 있다. 서버(100)는, 룰 기반 및/또는 NLU에 기반하여 언어 기반 명령어를 분석할 수 있으나, 이에 제한되지 않으며, LLM(예를 들어, sLLM)을 이용하여 언어 기반 명령어에 대한 분석 결과를 획득할 수도 있다. 서버(100)는, 분석 결과에 기반하여 AI 모델을 선택할 수 있다. 예를 들어, 서버(100)는, 확인된 생성 작업의 타입에 대응하는 복수 개의 AI 모델들 중, 어느 하나를 선택할 수 있으나, 이는 예시적인 것이다. 서버(100)는, 생성 작업의 타입 없이도, 생성 작업을 수행할 AI 모델을 선택할 수도 있다. 서버(100)는, 911 동작에서, AI 모델 실행 결과를 획득할 수 있다. 예를 들어, 서버(100)는, 저장된 AI 모델을 실행하거나, 또는 해당 AI 모델 제공자로 접속함으로써, AI 모델 실행 결과를 획득할 수 있다. 도 9a의 실시예에서는, 선택된 AI 모델과 연관된 UI의 제공 없이, 선택된 AI 모델이 실행될 수 있다. 서버(100)는, 911 동작에서, AI 모델 실행 결과를 표현하기 위한 적어도 하나의 제 3 데이터를 전자 장치(101)로 제공할 수 있다. 전자 장치(101)는, 913 동작에서, AI 모델 실행 결과를 제공할 수 있다. AI 모델 실행 결과와 함께, AI 모델과 관련된 정보도 전자 장치(101)로 제공될 수도 있다. 예를 들어, 도 9b에서와 같이, 전자 장치(101)는, 생성된 이미지(921)를 포함하는 화면(920)을 제공할 수 있다. 예를 들어, 전자 장치(101)는, 생성된 이미지(921)와 함께, 이미지 생성에 이용된 AI 모델과 관련된 정보(922)를 제공할 수도 있다.The server (100) may select an AI model based on a language-based command in operation 909. The server (100) may analyze the language-based command based on, but is not limited to, rule-based and/or NLU, and may also obtain analysis results for the language-based command using LLM (e.g., sLLM). The server (100) may select an AI model based on the analysis results. For example, the server (100) may select any one of a plurality of AI models corresponding to the type of the identified generation task, but this is exemplary. The server (100) may also select an AI model to perform the generation task without specifying the type of the generation task. The server (100) may obtain an AI model execution result in operation 911. For example, the server (100) may obtain an AI model execution result by executing a stored AI model or by connecting to a corresponding AI model provider. In the embodiment of FIG. 9A, the selected AI model can be executed without providing a UI associated with the selected AI model. The server (100) may, in operation 911, provide at least one third data for representing the AI model execution result to the electronic device (101). The electronic device (101) may, in operation 913, provide the AI model execution result. Along with the AI model execution result, information related to the AI model may also be provided to the electronic device (101). For example, as in FIG. 9B, the electronic device (101) may provide a screen (920) including a generated image (921). For example, the electronic device (101) may also provide information (922) related to the AI model used to generate the image along with the generated image (921).

도 10 은 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 도면이다.FIG. 10 is a drawing for explaining an operation method of an electronic device according to one embodiment.

예를 들어, 전자 장치(101)는, 적어도 하나의 구동 장치(예를 들어, 액츄에이터 및/또는 모터)를 포함하는 로봇으로 구현될 수 있다. 전자 장치(101)는, 언어 기반 명령어에 대응하여, 전자 장치(101)의 적어도 하나의 구동 장치 중 적어도 일부를 구동시킴으로써, 전자 장치(101)의 적어도 일부 부분의 움직임을 야기할 수 있다. 이에 따라, 전자 장치(101)는, 사용자가 요청한 적어도 하나의 액션을 수행할 수 있다. 로봇과 같은 전자 장치(101)가, 특수한 목적의 액션만을 수행하지 않고, 다양한 목적의 범용 구동이 가능하기 위하여서는, 전자 장치(101)가, 각 목적 별로 특화된 복수 개의 액션 AI 모델을 이용하여야 할 필요가 있다. 예를 들어, "설거지의 수행"의 액션 AI 모델과 "짐 운반"의 액션 AI 모델은 상이하게 트레이닝될 필요가 있다. 전자 장치(101)는, 예를 들어 복수 개의 액션 AI 모델을 저장하거나, 및/또는 접근 가능할 수 있다.For example, the electronic device (101) may be implemented as a robot including at least one driving device (e.g., an actuator and/or a motor). The electronic device (101) may cause movement of at least a portion of the electronic device (101) by driving at least a portion of the at least one driving device of the electronic device (101) in response to a language-based command. Accordingly, the electronic device (101) may perform at least one action requested by the user. In order for the electronic device (101), such as a robot, to be capable of performing general-purpose driving for various purposes rather than only performing actions for specific purposes, the electronic device (101) needs to utilize multiple action AI models specialized for each purpose. For example, an action AI model for “performing dishwashing” and an action AI model for “carrying luggage” need to be trained differently. The electronic device (101) may, for example, store and/or be able to access multiple action AI models.

예를 들어, 전자 장치(101)는, 1001 동작에서, 언어 기반 명령어를 분석할 수 있다. 전자 장치(101)는, 1003 동작에서, 분석 결과에 기반하여, 액션 AI 모델을 선택할 수 있다. 전자 장치(101)는, 예를 들어 언어 기반 명령어의 분석(예를 들어, 룰 기반 분석, NLU, 및/또는 LLM일 수 있으나 제한이 없음) 결과에 기반하여, 언어 기반 명령어에 대응하는 액션 작업을 확인할 수 있다. 예를 들어, 전자 장치(101)는, 언어 기반 명령어에 포함된 키워드에 기반하여, 액션 작업을 확인할 수 있다. 예를 들어, 전자 장치(101)는, 언어 기반 명령어에 대한 의도(intention)에 기반하여, 액션 작업을 확인할 수 있다. 예를 들어, 전자 장치(101)는, 의도 분석을 위한 인공지능 모델을 이용하거나, 언어 기반 명령어의 의도를 문의하는 프롬프팅을 수행함으로써, 의도를 확인할 수 있으나, 그 의도 확인 방식에는 제한이 없다.For example, the electronic device (101) may analyze a language-based command in operation 1001. The electronic device (101) may select an action AI model based on the analysis result in operation 1003. The electronic device (101) may identify an action task corresponding to the language-based command based on, for example, the analysis result of the language-based command (which may be, for example, rule-based analysis, NLU, and/or LLM, but is not limited thereto). For example, the electronic device (101) may identify the action task based on a keyword included in the language-based command. For example, the electronic device (101) may identify the action task based on the intention for the language-based command. For example, the electronic device (101) may identify the intention by using an artificial intelligence model for intent analysis or by performing prompting to inquire about the intention of the language-based command, but there is no limitation on the method of identifying the intention.

전자 장치(101)는, 1005 동작에서, 선택된 액션 AI 모델에 대응하는 적어도 하나의 파라미터의 적어도 일부 및 값을 확인할 수 있다. 전자 장치(101)는, 1007 동작에서, 확인된 파라미터 및 값에 기반한 액션 AI 모델의 실행 결과를 확인할 수 있다. 전자 장치(101)는, 1009 동작에서, 실행 결과에 기반하여 전자 장치(101)의 적어도 일부를 구동시킬 수 있다. 예를 들어, 전자 장치(101)는, "바닥 청소를 30분 동안 철저하게 해줘"와 같은 언어 기반 명령어를 획득한 것을 상정하도록 한다. 전자 장치(101)는, 언어 기반 명령어에 기반하여, 액션 타입을 "청소"로 확인할 수 있다. 전자 장치(101)는, 언어 기반 명령어의 분석 결과에 기반하여, "청소"의 액션 타입에 대응하는 적어도 하나의 파라미터의 적어도 일부로서, 청소 타입(예: 바닥 청소), 청소 시간(예: 30분), 청소 강도(예: 철저하게 해줘)를 확인할 수 있다. 전자 장치(101)는, 확인된 적어도 하나의 파라미터의 적어도 일부 및 그 값에 기반하여, 구동할 수 있으며, 이에 따라 확인된 바닥 청소를 30분 동안 철저한 수준으로 구동할 수 있다.The electronic device (101) can, in operation 1005, check at least a portion and a value of at least one parameter corresponding to the selected action AI model. In operation 1007, the electronic device (101) can check the execution result of the action AI model based on the checked parameters and values. In operation 1009, the electronic device (101) can drive at least a portion of the electronic device (101) based on the execution result. For example, the electronic device (101) may assume that a language-based command such as “Clean the floor thoroughly for 30 minutes” has been obtained. The electronic device (101) can check the action type as “Cleaning” based on the language-based command. The electronic device (101) can, based on the analysis result of the language-based command, check the cleaning type (e.g., clean the floor), the cleaning time (e.g., 30 minutes), and the cleaning intensity (e.g., do it thoroughly) as at least a portion of the at least one parameter corresponding to the action type of “Cleaning.” The electronic device (101) can be driven based on at least a portion of at least one identified parameter and its value, thereby driving the identified floor cleaning at a thorough level for 30 minutes.

일 실시예에 따라서, 언어 기반 명령어를 처리하는 방법은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a method for processing a language-based command may include providing a first user interface for inputting a language-based command. The method may include receiving a language-based command input based on the first user interface. The method may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command. The method may include receiving an execution command input based on the second user interface. The method may include providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함할 수 있다.According to one embodiment, the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.

일 실시예에 따라서, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인될 수 있다.According to one embodiment, a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는 상기 제 2 사용자 인터페이스로부터 배제될 수 있다.According to one embodiment, a parameter among the at least one parameter required by the generation task by the first generative AI model that is not confirmed based on the language-based command may be excluded from the second user interface.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되는 파라미터 및 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는, 구분되도록 표현될 수 있다.According to one embodiment, among the at least one parameter required by the generation task by the first generative AI model, a parameter identified based on the language-based command and a parameter not identified based on the language-based command can be expressed to be distinct.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 중 하나로서, 프롬프팅(prompting) 필드를 포함할 수 있다.According to one embodiment, the second user interface may include a prompting field as one of the information for at least one parameter required by the generation task by the first generative AI model.

일 실시예에 따라서, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 포함될 수 있다.According to one embodiment, the prompting field may include the language-based command.

일 실시예에 따라서, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 조정되거나, 및/또는 상기 언어 기반 명령어에 기반하여 생성되는 텍스트가 포함될 수 있다.In one embodiment, the prompting field may include text that is adjusted based on the language-based command and/or generated based on the language-based command.

일 실시예에 따라서, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업을 수행 가능한 AI 모델 리스트를 제공하는 동작을 포함할 수 있다. 제 2 사용자 인터페이스를 제공하는 동작은, 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operation of providing a second user interface corresponding to the first generative AI model selected based on the analysis result of the language-based command may include the operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command. The operation of providing the second user interface may include the operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models.

일 실시예에 따라서, 상기 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 제 1 생성형 AI 모델을 선택하는 동작을 포함할 수 있다.According to one embodiment, the method may include selecting the first generative AI model based on the analysis results of the language-based command.

일 실시예에 따라서, 상기 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the method may include an operation of identifying a type of generation task corresponding to the language-based command based on the analysis result of the language-based command. The method may include an operation of identifying a first generative AI model among at least one generative AI model corresponding to the identified type of generation task.

일 실시예에 따라서, 컴퓨터로 독출 가능한 적어도 하나의 인스트럭션(instruction)을 저장하는 저장 매체가 제공될 수 있다. 상기 적어도 하나의 인스트럭션은 전자 장치(100, 101)의 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들(221,211)에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치(100, 101)로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 방법은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a storage medium storing at least one computer-readable instruction may be provided. The at least one instruction, when individually or collectively executed by one or more processors (221, 211) including processing circuitry of an electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation. The at least one operation may include providing a first user interface for inputting a language-based command. The at least one operation may include receiving a language-based command input based on the first user interface. The at least one operation may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on an analysis result of the language-based command. The at least one method may include receiving an execution command input based on the second user interface. The at least one method may include an action of providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함할 수 있다.According to one embodiment, the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.

일 실시예에 따라서, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인될 수 있다.According to one embodiment, a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는 상기 제 2 사용자 인터페이스로부터 배제될 수 있다.According to one embodiment, a parameter among the at least one parameter required by the generation task by the first generative AI model that is not confirmed based on the language-based command may be excluded from the second user interface.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되는 파라미터 및 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는, 구분되도록 표현될 수 있다.According to one embodiment, among the at least one parameter required by the generation task by the first generative AI model, a parameter identified based on the language-based command and a parameter not identified based on the language-based command can be expressed to be distinct.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 중 하나로서, 프롬프팅(prompting) 필드를 포함할 수 있다.According to one embodiment, the second user interface may include a prompting field as one of the information for at least one parameter required by the generation task by the first generative AI model.

일 실시예에 따라서, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 포함될 수 있다.According to one embodiment, the prompting field may include the language-based command.

일 실시예에 따라서, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 조정되거나, 및/또는 상기 언어 기반 명령어에 기반하여 생성되는 텍스트가 포함될 수 있다.In one embodiment, the prompting field may include text that is adjusted based on the language-based command and/or generated based on the language-based command.

일 실시예에 따라서, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업을 수행 가능한 AI 모델 리스트를 제공하는 동작을 포함할 수 있다. 제 2 사용자 인터페이스를 제공하는 동작은, 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operation of providing a second user interface corresponding to the first generative AI model selected based on the analysis result of the language-based command may include the operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command. The operation of providing the second user interface may include the operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models.

일 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 제 1 생성형 AI 모델을 선택하는 동작을 포함할 수 있다.In one embodiment, the at least one action may include selecting the first generative AI model based on the analysis results of the language-based command.

일 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.In one embodiment, the at least one operation may include an operation of identifying a type of generation task corresponding to the language-based command based on the analysis result of the language-based command. The at least one operation may include an operation of identifying a first generative AI model among at least one generative AI model corresponding to the identified type of generation task.

일 실시예에 따라서, 전자 장치(100, 101)는, 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들(221,211)을 포함할 수 있다. 일 실시예에 따라서, 전자 장치(100, 101)는 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리(222,212)를 포함할 수 있다. 상기 적어도 하나의 인스트럭션은 상기 전자 장치(100, 101)의 하나 또는 이상의 프로세서들(221,211)에 의하여 실행 시에, 상기 전자 장치(100, 101)로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, the electronic device (100, 101) may include one or more processors (221, 211) including processing circuitry. According to one embodiment, the electronic device (100, 101) may include a memory (222, 212) storing at least one instruction. The at least one instruction, when executed by the one or more processors (221, 211) of the electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation. The at least one operation may include providing a first user interface for inputting a language-based command. The at least one operation may include receiving a language-based command input based on the first user interface. The at least one operation may include providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on the analysis results of the language-based command. The at least one operation may include receiving an execution command input based on the second user interface. The at least one operation may include providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함할 수 있다.According to one embodiment, the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.

일 실시예에 따라서, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인될 수 있다.According to one embodiment, a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는 상기 제 2 사용자 인터페이스로부터 배제될 수 있다.According to one embodiment, a parameter among the at least one parameter required by the generation task by the first generative AI model that is not confirmed based on the language-based command may be excluded from the second user interface.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되는 파라미터 및 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는, 구분되도록 표현될 수 있다.According to one embodiment, among the at least one parameter required by the generation task by the first generative AI model, a parameter identified based on the language-based command and a parameter not identified based on the language-based command can be expressed to be distinct.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 중 하나로서, 프롬프팅(prompting) 필드를 포함할 수 있다.According to one embodiment, the second user interface may include a prompting field as one of the information for at least one parameter required by the generation task by the first generative AI model.

일 실시예에 따라서, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 포함될 수 있다.According to one embodiment, the prompting field may include the language-based command.

일 실시예에 따라서, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 조정되거나, 및/또는 상기 언어 기반 명령어에 기반하여 생성되는 텍스트가 포함될 수 있다.In one embodiment, the prompting field may include text that is adjusted based on the language-based command and/or generated based on the language-based command.

일 실시예에 따라서, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업을 수행 가능한 AI 모델 리스트를 제공하는 동작을 포함할 수 있다. 제 2 사용자 인터페이스를 제공하는 동작은, 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operation of providing a second user interface corresponding to the first generative AI model selected based on the analysis result of the language-based command may include the operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command. The operation of providing the second user interface may include the operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models.

일 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 제 1 생성형 AI 모델을 선택하는 동작을 포함할 수 있다.In one embodiment, the at least one action may include selecting the first generative AI model based on the analysis results of the language-based command.

일 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.In one embodiment, the at least one operation may include an operation of identifying a type of generation task corresponding to the language-based command based on the analysis result of the language-based command. The at least one operation may include an operation of identifying a first generative AI model among at least one generative AI model corresponding to the identified type of generation task.

일 실시예에 따라서, 언어 기반 명령어를 처리하는 방법은, 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작을 포함할 수 있다. 상기 방법은, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a method for processing a language-based command may include receiving a language-based command. The method may include identifying a type of a generation task based on an analysis result of the language-based command. The method may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task. The method may include providing an execution result based on the first generative AI model.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 AI 모델을 확인하는 동작은, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying a first generative AI model corresponding to the type of the identified generation task may include an operation of identifying the first generative AI model among at least one generative AI model corresponding to the type of the identified generation task.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include an operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 적어도 하나의 생성형 AI 모델을 나타내는 AI 모델 리스트를 제공하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 AI 모델 리스트 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include the operation of providing an AI model list representing the at least one generative AI model. The operation of identifying the first generative AI model may include the operation of identifying the first generative AI model based on identifying a selection of the first generative AI model from the AI model list.

일 실시예에 따라서, 상기 언어 기반 명령어를 수신하는 동작은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 언어 기반 명령어를 수신하는 동작은 상기 제 1 사용자 인터페이스에 기반하여 입력되는 상기 언어 기반 명령어를 수신하는 동작을 포함할 수 있다.In one embodiment, the act of receiving the language-based command may include the act of providing a first user interface for inputting the language-based command. The act of receiving the language-based command may include the act of receiving the language-based command input based on the first user interface.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operation of providing an execution result based on the first generative AI model may include an operation of providing a second user interface corresponding to the first generative AI model selected based on a result of analyzing the language-based command. The operation of providing an execution result based on the first generative AI model may include an operation of receiving an execution command input based on the second user interface. The operation of providing an execution result based on the first generative AI model may include an operation of providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함할 수 있다.According to one embodiment, the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.

일 실시예에 따라서, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인될 수 있다.According to one embodiment, a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.

일 실시예에 따라서, 컴퓨터로 독출 가능한 적어도 하나의 인스트럭션(instruction)을 저장하는 저장 매체가 제공될 수 있다. 상기 적어도 하나의 인스트럭션은 전자 장치(100, 101)의 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서(221,211)들에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치(100, 101)로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, a storage medium storing at least one computer-readable instruction may be provided. The at least one instruction, when individually or collectively executed by one or more processors (221, 211) including processing circuitry of an electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation. The at least one operation may include receiving a language-based instruction. The at least one operation may include identifying a type of a generation task based on an analysis result of the language-based instruction. The at least one operation may include identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task. The at least one operation may include providing an execution result based on the first generative AI model.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 AI 모델을 확인하는 동작은, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying a first generative AI model corresponding to the type of the identified generation task may include an operation of identifying the first generative AI model among at least one generative AI model corresponding to the type of the identified generation task.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include an operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 적어도 하나의 생성형 AI 모델을 나타내는 AI 모델 리스트를 제공하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 AI 모델 리스트 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include the operation of providing an AI model list representing the at least one generative AI model. The operation of identifying the first generative AI model may include the operation of identifying the first generative AI model based on identifying a selection of the first generative AI model from the AI model list.

일 실시예에 따라서, 상기 언어 기반 명령어를 수신하는 동작은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 언어 기반 명령어를 수신하는 동작은 상기 제 1 사용자 인터페이스에 기반하여 입력되는 상기 언어 기반 명령어를 수신하는 동작을 포함할 수 있다.In one embodiment, the act of receiving the language-based command may include the act of providing a first user interface for inputting the language-based command. The act of receiving the language-based command may include the act of receiving the language-based command input based on the first user interface.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operation of providing an execution result based on the first generative AI model may include an operation of providing a second user interface corresponding to the first generative AI model selected based on a result of analyzing the language-based command. The operation of providing an execution result based on the first generative AI model may include an operation of receiving an execution command input based on the second user interface. The operation of providing an execution result based on the first generative AI model may include an operation of providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함할 수 있다.According to one embodiment, the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.

일 실시예에 따라서, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인될 수 있다.According to one embodiment, a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.

일 실시예에 따라서, 전자 장치(100, 101)는, 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서(221,211)들을 포함할 수 있다. 일 실시예에 따라서, 상기 전자 장치(100, 101)는 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리(222,212)를 포함할 수 있다. 상기 적어도 하나의 인스트럭션은 상기 전자 장치(100, 101)의 하나 또는 이상의 프로세서들(221,211)에 의하여 실행 시에, 상기 전자 장치(100, 101)로 하여금 적어도 하나의 동작을 수행하도록 야기할 수 있다. 상기 적어도 하나의 동작은, 언어 기반 명령어를 수신하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작을 포함할 수 있다. 상기 적어도 하나의 동작은, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, the electronic device (100, 101) may include one or more processors (221, 211) including processing circuitry. According to one embodiment, the electronic device (100, 101) may include a memory (222, 212) storing at least one instruction. The at least one instruction, when executed by the one or more processors (221, 211) of the electronic device (100, 101), may cause the electronic device (100, 101) to perform at least one operation. The at least one operation may include an operation of receiving a language-based instruction. The at least one operation may include an operation of identifying a type of a generation task based on an analysis result of the language-based instruction. The at least one operation may include an operation of identifying a first generative artificial intelligence (AI) model corresponding to the identified type of the generation task. The at least one action may include an action that provides an execution result based on the first generative AI model.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 AI 모델을 확인하는 동작은, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying a first generative AI model corresponding to the type of the identified generation task may include an operation of identifying the first generative AI model among at least one generative AI model corresponding to the type of the identified generation task.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include an operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command.

일 실시예에 따라서, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 적어도 하나의 생성형 AI 모델을 나타내는 AI 모델 리스트를 제공하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델을 확인하는 동작은, 상기 AI 모델 리스트 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델을 확인하는 동작을 포함할 수 있다.According to one embodiment, the operation of identifying the first generative AI model among the at least one generative AI model corresponding to the type of the identified generative task may include the operation of providing an AI model list representing the at least one generative AI model. The operation of identifying the first generative AI model may include the operation of identifying the first generative AI model based on identifying a selection of the first generative AI model from the AI model list.

일 실시예에 따라서, 상기 언어 기반 명령어를 수신하는 동작은, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 언어 기반 명령어를 수신하는 동작은 상기 제 1 사용자 인터페이스에 기반하여 입력되는 상기 언어 기반 명령어를 수신하는 동작을 포함할 수 있다.In one embodiment, the act of receiving the language-based command may include the act of providing a first user interface for inputting the language-based command. The act of receiving the language-based command may include the act of receiving the language-based command input based on the first user interface.

일 실시예에 따라서, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작을 포함할 수 있다. 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작은, 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작을 포함할 수 있다.According to one embodiment, the operation of providing an execution result based on the first generative AI model may include an operation of providing a second user interface corresponding to the first generative AI model selected based on a result of analyzing the language-based command. The operation of providing an execution result based on the first generative AI model may include an operation of receiving an execution command input based on the second user interface. The operation of providing an execution result based on the first generative AI model may include an operation of providing an execution result based on the first generative AI model in response to the execution command.

일 실시예에 따라서, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함할 수 있다.According to one embodiment, the second user interface may include information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter.

일 실시예에 따라서, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인될 수 있다.According to one embodiment, a value corresponding to at least some of the at least one parameter can be identified based on an analysis result of the language-based command.

본 문서의 일 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase among those phrases, or all possible combinations thereof. Terms such as "first," "second," or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first component) is referred to as "coupled" or "connected" to another (e.g., a second component), with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.

본 문서의 일 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in the embodiments of this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit. A module may be an integral component, or a minimum unit or part of such a component that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 일 실시예들은 기기(machine)(예: 전자 장치(101) 및/또는 서버(100)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101) 및/또는 서버(100))의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.One embodiment of the present document may be implemented as software (e.g., a program) including one or more instructions stored in a storage medium (e.g., built-in memory or external memory) readable by a machine (e.g., an electronic device (101) and/or a server (100)). For example, a processor of the machine (e.g., an electronic device (101) and/or a server (100)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일실시예에 따르면, 본 문서에 개시된 일 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to one embodiment disclosed in this document may be provided as included in a computer program product. The computer program product may be traded as a product between a seller and a buyer. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., compact disc read-only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store™) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.

일 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체들을 포함할 수 있으며, 복수의 개체들 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 일 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 일 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to one embodiment, each component (e.g., a module or a program) of the above-described components may include one or more entities, and some of the entities may be separated and arranged in other components. According to one embodiment, one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (e.g., a module or a program) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. According to one embodiment, the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Claims (15)

언어 기반 명령어를 처리하는 방법에 있어서,In a method of processing language-based commands, 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작;An action providing a first user interface for entering language-based commands; 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작;An operation of receiving a language-based command input based on the first user interface; 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작;An action of providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on the analysis results of the language-based command; 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작; 및An operation of receiving an execution command input based on the second user interface; and 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작In response to the above execution command, an operation for providing an execution result based on the first generative AI model 을 포함하는 방법.How to include. 제 1 항에 있어서,In the first paragraph, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 및 상기 적어도 하나의 파라미터 각각에 대응하는 적어도 하나의 값을 포함하는 방법.A method wherein the second user interface includes information about at least one parameter required by a generation task by the first generative AI model and at least one value corresponding to each of the at least one parameter. 제 1 항 내지 제 2 항 중 어느 하나에 있어서,In any one of paragraphs 1 and 2, 상기 적어도 하나의 파라미터 중 적어도 일부에 대응하는 값은, 상기 언어 기반 명령어의 분석 결과에 기반하여 확인되는 방법.A method in which a value corresponding to at least some of the at least one parameter is identified based on the analysis result of the language-based command. 제 1 항 내지 제 3 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 3, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는 상기 제 2 사용자 인터페이스로부터 배제되는 방법.A method in which a parameter among the at least one parameter required by the generation task by the first generative AI model is excluded from the second user interface if the parameter is not confirmed based on the language-based command. 제 1 항 내지 제 4 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 4, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 상기 적어도 하나의 파라미터 중 상기 언어 기반 명령어에 기반하여 확인되는 파라미터 및 상기 언어 기반 명령어에 기반하여 확인되지 않는 파라미터는, 구분되도록 표현되는 방법.A method in which at least one parameter required by the generation task by the first generative AI model is expressed so as to be distinct from a parameter identified based on the language-based command and a parameter not identified based on the language-based command. 제 1 항 내지 제 5 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 5, 상기 제 2 사용자 인터페이스는, 상기 제 1 생성형 AI 모델에 의한 생성 작업에 의하여 요구되는 적어도 하나의 파라미터에 대한 정보 중 하나로서, 프롬프팅(prompting) 필드를 포함하는 방법.A method wherein the second user interface includes a prompting field as one of the information for at least one parameter required by a generation task by the first generative AI model. 제 1 항 내지 제 6 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 6, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 포함되는 방법.The above prompting field includes a method for including the above language-based command. 제 1 항 내지 제 7 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 7, 상기 프롬프팅 필드에는, 상기 언어 기반 명령어가 조정되거나, 및/또는 상기 언어 기반 명령어에 기반하여 생성되는 텍스트가 포함되는 방법.A method wherein the prompting field includes text that is adjusted based on the language-based command and/or generated based on the language-based command. 제 1 항 내지 제 8 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 8, 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작은:An action of providing a second user interface corresponding to a first generative AI model selected based on the analysis results of the above language-based commands is: 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업을 수행 가능한 AI 모델 리스트를 제공하는 동작; 및An operation of providing a list of AI models capable of performing a generation task corresponding to the language-based command based on the analysis result of the language-based command; and 상기 AI 모델 리스트 중 상기 제 1 생성형 AI 모델에 대한 선택을 확인함에 기반하여, 상기 제 1 생성형 AI 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작An operation of providing a second user interface corresponding to the first generative AI model based on confirming a selection of the first generative AI model from the list of AI models. 을 포함하는 방법.How to include. 제 1 항 내지 제 9 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 9, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 제 1 AI 모델을 선택하는 동작An operation of selecting the first AI model based on the analysis results of the above language-based command. 을 더 포함하는 방법.How to include more. 제 1 항 내지 제 10 항 중 어느 하나에 있어서,In any one of paragraphs 1 to 10, 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 언어 기반 명령어에 대응하는 생성 작업의 타입을 확인하는 동작; 및An operation of confirming the type of a generation task corresponding to the language-based command based on the analysis result of the language-based command; and 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작An operation of confirming the first generative AI model among at least one generative AI model corresponding to the type of the above-mentioned confirmed generation task. 을 더 포함하는 방법.How to include more. 언어 기반 명령어를 처리하는 방법에 있어서,In a method of processing language-based commands, 언어 기반 명령어를 수신하는 동작;Actions that receive language-based commands; 상기 언어 기반 명령어의 분석 결과에 기반하여, 생성 작업의 타입을 확인하는 동작;An action to determine the type of a creation task based on the analysis results of the above language-based command; 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 인공 지능(artificial intelligence: AI) 모델을 확인하는 동작; 및An operation of identifying a first generative artificial intelligence (AI) model corresponding to the type of the above-identified generation task; and 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작An operation that provides execution results based on the first generative AI model. 을 포함하는 방법.How to include. 제 12 항에 있어서,In paragraph 12, 상기 확인된 생성 작업의 타입에 대응하는 제 1 생성형 AI 모델을 확인하는 동작은,The operation of verifying the first generative AI model corresponding to the type of the above-mentioned generation task is as follows: 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작An operation of confirming the first generative AI model among at least one generative AI model corresponding to the type of the above-mentioned generation task. 을 포함하는 방법.How to include. 제 12 항 내지 제 13 항 중 어느 하나에 있어서,In any one of paragraphs 12 to 13, 상기 확인된 생성 작업의 타입에 대응하는 적어도 하나의 생성형 AI 모델 중, 상기 제 1 생성형 AI 모델을 확인하는 동작은,Among at least one generative AI model corresponding to the type of the above-mentioned generation task, the operation of confirming the first generative AI model is as follows: 상기 언어 기반 명령어의 분석 결과에 기반하여, 상기 적어도 하나의 생성형 AI 모델 중 상기 제 1 생성형 AI 모델을 확인하는 동작An operation of identifying the first generative AI model among the at least one generative AI model based on the analysis result of the language-based command. 을 포함하는 방법.How to include. 컴퓨터로 독출 가능한 적어도 하나의 인스트럭션(instruction)을 저장하는 저장 매체에 있어서, In a storage medium storing at least one instruction readable by a computer, 상기 적어도 하나의 인스트럭션은 전자 장치(100, 101)의 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 이상의 프로세서들(221,211)에 의하여 개별적으로 또는 집합적으로 실행 시에, 상기 전자 장치(100, 101)로 하여금 적어도 하나의 동작을 수행하도록 야기하고,The at least one instruction, when executed individually or collectively by one or more processors (221, 211) comprising processing circuitry of the electronic device (100, 101), causes the electronic device (100, 101) to perform at least one operation, 상기 적어도 하나의 동작은:At least one of the above actions: 언어 기반 명령어를 입력하기 위한 제 1 사용자 인터페이스를 제공하는 동작;An action providing a first user interface for entering language-based commands; 상기 제 1 사용자 인터페이스에 기반하여 입력되는 언어 기반 명령어를 수신하는 동작;An operation of receiving a language-based command input based on the first user interface; 상기 언어 기반 명령어의 분석 결과에 기반하여 선택된 제 1 생성형 인공 지능(artificial intelligence: AI) 모델에 대응하는 제 2 사용자 인터페이스를 제공하는 동작;An action of providing a second user interface corresponding to a first generative artificial intelligence (AI) model selected based on the analysis results of the language-based command; 상기 제 2 사용자 인터페이스에 기반하여 입력되는 실행 명령을 수신하는 동작; 및An operation of receiving an execution command input based on the second user interface; and 상기 실행 명령에 응답하여, 상기 제 1 생성형 AI 모델에 기반한 실행 결과를 제공하는 동작In response to the above execution command, an operation for providing an execution result based on the first generative AI model 을 포함하는 저장 매체.A storage medium containing .
PCT/KR2025/095024 2024-03-21 2025-03-20 Electronic device, method, server, and storage medium for performing generative task for language-based command Pending WO2025198384A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20240039396 2024-03-21
KR10-2024-0039396 2024-03-21
KR10-2024-0070111 2024-05-29
KR1020240070111A KR20250142162A (en) 2024-03-21 2024-05-29 Electronic device and method for performing generative operation for language based command, and storage medium

Publications (1)

Publication Number Publication Date
WO2025198384A1 true WO2025198384A1 (en) 2025-09-25

Family

ID=97139908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2025/095024 Pending WO2025198384A1 (en) 2024-03-21 2025-03-20 Electronic device, method, server, and storage medium for performing generative task for language-based command

Country Status (1)

Country Link
WO (1) WO2025198384A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220000046A (en) * 2020-06-25 2022-01-03 (주)아크릴 System and method for manufacturing conversational intelligence service providing chatbot
US20230208869A1 (en) * 2018-06-12 2023-06-29 Akitra, Inc. Generative artificial intelligence method and system configured to provide outputs for company compliance
KR102591769B1 (en) * 2022-09-14 2023-10-24 주식회사 글로랑 Server and method for generating personality test using query response network based on language model
KR102618644B1 (en) * 2023-08-28 2023-12-27 주식회사 리콘랩스 Method and apparatus for generating composite image using 3d model
KR20240007888A (en) * 2018-02-07 2024-01-17 삼성전자주식회사 Electronic device and method for communicating with chatbot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240007888A (en) * 2018-02-07 2024-01-17 삼성전자주식회사 Electronic device and method for communicating with chatbot
US20230208869A1 (en) * 2018-06-12 2023-06-29 Akitra, Inc. Generative artificial intelligence method and system configured to provide outputs for company compliance
KR20220000046A (en) * 2020-06-25 2022-01-03 (주)아크릴 System and method for manufacturing conversational intelligence service providing chatbot
KR102591769B1 (en) * 2022-09-14 2023-10-24 주식회사 글로랑 Server and method for generating personality test using query response network based on language model
KR102618644B1 (en) * 2023-08-28 2023-12-27 주식회사 리콘랩스 Method and apparatus for generating composite image using 3d model

Similar Documents

Publication Publication Date Title
WO2019143227A1 (en) Electronic device providing text-related image and method for operating the same
WO2020045927A1 (en) Electronic device and method for generating short cut of quick command
WO2021060728A1 (en) Electronic device for processing user utterance and method for operating same
WO2020180008A1 (en) Method for processing plans having multiple end points and electronic device applying the same method
WO2020119069A1 (en) Text generation method and device based on self-coding neural network, and terminal and medium
WO2020080771A1 (en) Electronic device providing modified utterance text and operation method therefor
WO2023128027A1 (en) Irregular sketch-based 3d-modeling method and system
WO2023136700A1 (en) Robot and control method therefor
WO2020032655A1 (en) Method for executing function based on voice and electronic device supporting the same
WO2020180000A1 (en) Method for expanding languages used in speech recognition model and electronic device including speech recognition model
WO2020180034A1 (en) Method and device for providing user-selection-based information
WO2023008842A1 (en) Artificial intelligence conversation engine learning method and system thereof
WO2018203620A1 (en) Electronic device for processing user utterance
WO2022085958A1 (en) Electronic device and method for operating same
WO2020184935A1 (en) Electronic apparatus and method for controlling thereof
WO2025198384A1 (en) Electronic device, method, server, and storage medium for performing generative task for language-based command
WO2020153715A1 (en) Electronic device and method for controlling the electronic device
WO2016036049A1 (en) Search service providing apparatus, system, method, and computer program
WO2022145946A1 (en) System and method for learning language based on artificial intelligence-recommended training images and illustrative sentences
WO2023128043A1 (en) Method and system for providing interface for automated generation of 3d-models
WO2013118971A1 (en) Method and system for completing schedule information, and computer-readable recording medium having recorded thereon program for executing the method
WO2025127529A1 (en) Method and apparatus for automatically generating content through visual coding
WO2020213885A1 (en) Server and control method thereof
WO2025116179A1 (en) Method and system for evaluating chatbot based on blockchain
EP3776161A1 (en) Method and electronic device for configuring touch screen keyboard

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25774694

Country of ref document: EP

Kind code of ref document: A1