[go: up one dir, main page]

WO2025170021A1 - Communication control method - Google Patents

Communication control method

Info

Publication number
WO2025170021A1
WO2025170021A1 PCT/JP2025/004061 JP2025004061W WO2025170021A1 WO 2025170021 A1 WO2025170021 A1 WO 2025170021A1 JP 2025004061 W JP2025004061 W JP 2025004061W WO 2025170021 A1 WO2025170021 A1 WO 2025170021A1
Authority
WO
WIPO (PCT)
Prior art keywords
fine
tuning
model
trained
performance evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2025/004061
Other languages
French (fr)
Japanese (ja)
Inventor
光孝 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of WO2025170021A1 publication Critical patent/WO2025170021A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/04Arrangements for maintaining operational condition

Definitions

  • a communication control method is a communication control method in a network node of a mobile communication system.
  • the communication control method includes a step in which the network node decides to perform fine-tuning of the trained AI/ML model in the user device based on a fine-tuning execution time indicating the time required to perform fine-tuning of the trained AI/ML model.
  • the communication control method also includes a step in which the network node sends a fine-tuning execution instruction to the user device, instructing the user device to perform fine-tuning.
  • the fine-tuning involves training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
  • a communication control method is a communication control method for a user device in a mobile communication system.
  • the communication control method includes a step in which the user device receives, from a network node, fine-tuning execution conditions indicating conditions for performing fine-tuning of a trained AI/ML model.
  • the communication control method also includes a step in which the user device performs inference using the trained AI/ML model.
  • the communication control method further includes a step in which the user device performs fine-tuning.
  • the fine-tuning execution conditions include a performance threshold and a predetermined number of times.
  • the receiving unit 110 performs various types of reception under the control of the control unit 130.
  • the receiving unit 110 includes an antenna and a receiver.
  • the receiver converts the radio signal received by the antenna into a baseband signal (received signal) and outputs it to the control unit 130.
  • the control unit 130 performs various types of control and processing in the UE 100. Such processing includes processing for each layer, which will be described later.
  • the control unit 130 includes at least one processor and at least one memory.
  • the memory stores programs executed by the processor and information used for processing by the processor.
  • the processor may include a baseband processor and a CPU (Central Processing Unit).
  • the baseband processor performs modulation/demodulation, encoding/decoding, etc. of baseband signals.
  • the CPU executes programs stored in the memory to perform various types of processing. Note that the processing or operations performed by the UE 100 may be performed in the control unit 130.
  • FIG 3 is a diagram showing an example configuration of a gNB200 (base station) according to the first embodiment.
  • the gNB200 comprises a transmitter 210, a receiver 220, a controller 230, and a backhaul communication unit 250.
  • the transmitter 210 and receiver 220 constitute a communication unit that performs wireless communication with the UE100.
  • the backhaul communication unit 250 constitutes a network communication unit that performs communication with the CN20.
  • the gNB200 is another example of a communication device. Alternatively, the gNB200 may be an example of a network node.
  • the transmitting unit 210 performs various transmissions under the control of the control unit 230.
  • the transmitting unit 210 includes an antenna and a transmitter.
  • the transmitter converts the baseband signal (transmission signal) output by the control unit 230 into a radio signal and transmits it from the antenna.
  • the backhaul communication unit 250 is connected to adjacent base stations via an Xn interface, which is an interface between base stations.
  • the backhaul communication unit 250 is connected to the AMF/UPF 300 via an NG interface, which is an interface between a base station and a core network.
  • the gNB 200 may be composed of a central unit (CU) and a distributed unit (DU) (i.e., functionally divided), with the two units connected via an F1 interface, which is a fronthaul interface.
  • CU central unit
  • DU distributed unit
  • Figure 4 shows an example of the protocol stack configuration for the wireless interface of the user plane that handles data.
  • the user plane radio interface protocol includes a physical (PHY) layer, a medium access control (MAC) layer, a radio link control (RLC) layer, a packet data convergence protocol (PDCP) layer, and a service data adaptation protocol (SDAP) layer.
  • PHY physical
  • MAC medium access control
  • RLC radio link control
  • PDCP packet data convergence protocol
  • SDAP service data adaptation protocol
  • the PHY layer performs encoding/decoding, modulation/demodulation, antenna mapping/demapping, and resource mapping/demapping.
  • Data and control information are transmitted between the PHY layer of UE100 and the PHY layer of gNB200 via a physical channel.
  • the PHY layer of UE100 receives downlink control information (DCI) transmitted from gNB200 on the physical downlink control channel (PDCCH).
  • DCI downlink control information
  • UE100 performs blind decoding of the PDCCH using a radio network temporary identifier (RNTI) and acquires successfully decoded DCI as DCI addressed to the UE.
  • RNTI radio network temporary identifier
  • the DCI transmitted from gNB200 has CRC (Cyclic Redundancy Code) parity bits scrambled by the RNTI added.
  • UE100 can use a bandwidth narrower than the system bandwidth (i.e., the cell bandwidth).
  • gNB200 configures UE100 with a bandwidth portion (BWP) consisting of contiguous PRBs (Physical Resource Blocks).
  • BWP bandwidth portion
  • UE100 transmits and receives data and control signals in the active BWP.
  • UE100 may be configured with, for example, up to four BWPs. Each BWP may have a different subcarrier spacing. The BWPs may overlap in frequency.
  • gNB200 can specify which BWP to apply by controlling the downlink. This allows gNB200 to dynamically adjust the UE bandwidth according to the amount of data traffic of UE100, etc., thereby reducing UE power consumption.
  • gNB200 can configure up to three control resource sets (CORESETs) for each of up to four BWPs on the serving cell.
  • a CORESET is a radio resource for control information to be received by UE100. Up to 12 or more CORESETs may be configured on the serving cell for UE100.
  • Each CORESET may have an index of 0 to 11 or more.
  • a CORESET may consist of six resource blocks (PRBs) and one, two, or three consecutive Orthogonal Frequency Division Multiplex (OFDM) symbols in the time domain.
  • PRBs resource blocks
  • OFDM Orthogonal Frequency Division Multiplex
  • the MAC layer performs data priority control, retransmission processing using Hybrid Automatic Repeat reQuest (HARQ), random access procedures, etc.
  • Data and control information are transmitted between the MAC layer of UE100 and the MAC layer of gNB200 via a transport channel.
  • the MAC layer of gNB200 includes a scheduler. The scheduler determines the uplink and downlink transport format (transport block size, modulation and coding scheme (MCS)) and the resource blocks to be allocated to UE100.
  • MCS modulation and coding scheme
  • the RLC layer uses the functions of the MAC layer and PHY layer to transmit data to the RLC layer on the receiving side. Data and control information are transmitted between the RLC layer of UE100 and the RLC layer of gNB200 via logical channels.
  • the PDCP layer performs header compression/decompression, encryption/decryption, etc.
  • the SDAP layer maps IP flows, which are the units by which the core network controls QoS (Quality of Service), to radio bearers, which are the units by which the access stratum (AS) controls QoS. Note that if the RAN is connected to the EPC, SDAP is not necessary.
  • the protocol stack for the radio interface of the control plane includes a Radio Resource Control (RRC) layer and a Non-Access Stratum (NAS) instead of the SDAP layer shown in Figure 4.
  • RRC Radio Resource Control
  • NAS Non-Access Stratum
  • RRC signaling for various settings is transmitted between the RRC layer of UE100 and the RRC layer of gNB200.
  • the RRC layer controls logical channels, transport channels, and physical channels in accordance with the establishment, re-establishment, and release of radio bearers.
  • RRC connection connection between the RRC of UE100 and the RRC of gNB200
  • UE100 is in the RRC connected state.
  • RRC connection no connection between the RRC of UE100 and the RRC of gNB200
  • UE100 is in the RRC idle state.
  • UE100 is in the RRC inactive state.
  • the NAS which is located above the RRC layer, performs session management, mobility management, etc.
  • NAS signaling is transmitted between the NAS of UE100 and the NAS of AMF300.
  • UE100 also has an application layer, etc.
  • the layer below the NAS is called the AS (Access Stratum).
  • FIG. 6 is a diagram showing an example of the configuration of functional blocks of the AI/ML technology in the mobile communication system 1 according to the first embodiment.
  • the functional block configuration example shown in Figure 6 includes a data collection unit (Data Collection) A1, a model training unit (Model Training) A2, a model inference unit (Inference) A3, a management unit (Management) A5, and a model storage unit (Model Storage) A6.
  • Data Collection Data Collection
  • Model Training model training unit
  • Model inference Inference
  • Management Management
  • Model Storage Model Storage
  • the example functional block configuration shown in Figure 6 represents the functional framework of general AI/ML technology. Therefore, depending on the hypothetical use case, some of the example functional block configuration (such as the model recording unit A6) may not be included in the example functional block configuration. Furthermore, the example functional block configuration shown in Figure 6 may be distributed between the UE 100 and the network-side device. Alternatively, some functions of the example functional block configuration (such as the model learning unit A2 or model inference unit A3) may be located in both the UE 100 and the network-side device.
  • the data collection unit A1 provides input data to the model learning unit A2, the model inference unit A3, and the management unit A5.
  • the input data includes training data for the model learning unit A2, inference data for the model inference unit A3, and monitoring data for the management unit A5.
  • Learning data is data that is required as input when an AI/ML model is learning.
  • Inference data is data that is required as input when an AI/ML model is making inferences.
  • Monitoring data is data that is required as input when managing an AI/ML model.
  • data collection may refer to the process of collecting data in a network node, management entity, or UE 100, for example, to train an AI/ML model, manage an AI/ML model, and perform inference on an AI/ML model.
  • the model training unit A2 performs AI/ML model training, AI/ML model validation, and AI/ML model testing.
  • AI/ML model training is the process of learning an AI/ML model from input/output relationships to obtain a trained AI/ML model that can be used for inference.
  • y ax + b
  • the process of optimizing a (slope) and b (intercept) by providing input (x) and output (y) may be AI/ML model learning.
  • machine learning is divided into supervised learning, unsupervised learning, and reinforcement learning.
  • Supervised learning is a method that uses correct answer data for training data.
  • Unsupervised learning is a method that does not use correct answer data for training data. For example, unsupervised learning memorizes feature points from large amounts of training data and determines the correct answer (estimates the range).
  • Reinforcement learning is a method that assigns a score to the output result and learns how to maximize the score. Supervised learning is explained below, but either unsupervised learning or reinforcement learning can also be applied to machine learning.
  • the model learning unit A2 outputs the trained AI/ML model (Trained Model) obtained by AI/ML model learning to the model recording unit A6.
  • the model learning unit A2 also outputs the updated AI/ML model (Updated Model) obtained by relearning the trained AI/ML model to the model recording unit A6.
  • the model inference unit A3 outputs inference output data to the management unit A5.
  • the model inference unit A3 also receives management instructions from the management unit A5.
  • management instructions include selecting an AI/ML model, activating (deactivating) an AI/ML model, switching between AI/ML models, and fallback (performing inference without using an AI/ML model).
  • the model inference unit A3 performs model inference in accordance with the management instructions.
  • AI/ML model inference is, for example, the process of obtaining a set of outputs from a set of inputs using a trained AI/ML model (or an updated AI/ML model).
  • model inference may be the process of obtaining inference output data from inference data using a trained AI/ML model (or an updated AI/ML model).
  • AI/ML model inference may be referred to as "model inference” or "inference.”
  • an AI/ML model that is currently being trained may be referred to as a training AI/ML model (or an updating AI/ML model).
  • a training AI/ML model or an updating AI/ML model
  • AI/ML model when there is no need to distinguish between a training (or updating) AI/ML model and a trained (or updated) AI/ML model, they may simply be referred to as an "AI/ML model.”
  • Figure 7 shows an example of the operation of the AI/ML technology according to the first embodiment.
  • an entity may be, for example, a device.
  • the entity may also be a functional block included in the device.
  • the entity may also be a hardware block included in the device.
  • the control data may be a control message in a control layer (e.g., the AI/ML layer) specialized for artificial intelligence or machine learning.
  • the control data may be a NAS message in the NAS layer.
  • the control data may include a performance feedback request and/or a re-learning request sent from the management unit A5 to the model learning unit A2.
  • the control data may include a model transfer request and/or a model delivery request sent from the management unit A5 to the model recording unit A6.
  • the control data may include a management instruction sent from the management unit A5 to the model inference unit A3.
  • CSI feedback improvement represents a use case in which AI/ML technology is applied to CSI fed back from UE100 to gNB200, for example.
  • CSI is information about the channel state in the downlink between UE100 and gNB200.
  • the CSI includes at least one of a channel quality indicator (CQI), a precoding matrix indicator (PMI), and a rank indicator (RI).
  • CQI channel quality indicator
  • PMI precoding matrix indicator
  • RI rank indicator
  • the gNB200 performs, for example, downlink scheduling based on the CSI feedback from UE100.
  • Figure 8 is a diagram showing an example of the arrangement of each functional block in "CSI feedback improvement.”
  • the data collection unit A1, model learning unit A2, and model inference unit A3 are included in the control unit 130 of the UE 100.
  • the data processing unit A4 is included in the control unit 230 of the gNB 200.
  • model learning and model inference are performed in the UE 100.
  • Figure 8 shows an example in which the transmitting entity TE is the UE 100 and the receiving entity RE is the gNB 200.
  • the gNB 200 transmits a reference signal for the UE 100 to estimate the downlink channel state.
  • CSI-RS CSI reference signal
  • DMRS demodulation reference signal
  • the CSI generation unit 131 performs channel estimation using the received signal (CSI-RS) received by the receiving unit 110 to generate CSI.
  • the transmitting unit 120 transmits the generated CSI to the gNB 200.
  • the model learning unit A2 performs model learning using a set of the received signal (CSI-RS) and CSI as learning data, and derives a learned model for inferring CSI from the received signal (CSI-RS).
  • Figure 9 shows an example of operation for "CSI feedback improvement" according to the first embodiment.
  • step S13 gNB200 transmits full CSI-RS.
  • UE100's receiver 110 receives the full CSI-RS, and CSI generator 131 generates (or estimates) CSI based on the full CSI-RS.
  • data collector A1 collects full CSI-RS and CSI.
  • Model learning unit A2 uses the full CSI-RS and CSI as learning data to create a learned AI/ML model.
  • step S16 in response to receiving the completion notification, gNB200 transmits a switching notification to UE100 to switch from learning mode to inference mode.
  • step S17 in response to receiving the switching notification, UE100 switches from learning mode to inference mode.
  • step S18 gNB200 transmits partial CSI-RS.
  • Receiver 110 of UE100 receives the partial CSI-RS.
  • data collector A1 collects the partial CSI-RS.
  • Model inference unit A3 inputs the partial CSI-RS as inference data into the trained model, and obtains CSI as the inference result.
  • step S19 UE100 feeds back (or transmits) the CSI, which is the inference result, to gNB200 as inference result data.
  • UE100 can generate a trained model with a predetermined accuracy or higher by repeating model learning during learning mode. It is expected that the inference results using the trained model generated in this way will also have a predetermined accuracy or higher.
  • step S20 if UE100 determines by itself that model learning is necessary, it may transmit a notification indicating that model learning is necessary to gNB200 as control data.
  • the fine-tuning execution conditions may include the conditions for using the updated AI/ML model after fine-tuning has been performed.
  • the conditions for use may be expressed, for example, by time and/or location.
  • the location may be expressed, for example, by any of a cell ID, an RNA (RAN-based Notification Area), and a PLMN (Public Land Mobile Network).
  • the fine-tuning execution conditions may include information regarding whether or not to register the updated AI/ML model after fine-tuning has been performed. If the fine-tuning execution conditions include this information, UE100 will transmit information indicating whether or not to register the updated AI/ML model to gNB200.
  • step S69 the transmitter 210 of the gNB 200 transmits the fine-tuning execution conditions to the UE 100.
  • the receiver 220 of the UE 100 receives the fine-tuning execution conditions.
  • step S75 the control unit 130 of the UE 100 monitors the performance of the inference (step S66) for the trained AI/ML model.
  • step S77 the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning in the UE 100 based on the fine-tuning execution time received in step S65.
  • the determination itself may be the same as step S71. That is, the control unit 230 may decide to perform fine-tuning if the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and may decide not to perform fine-tuning if the fine-tuning execution time takes longer than the fine-tuning execution time threshold.
  • the fine-tuning execution time threshold may be stored in advance in the memory of the gNB 200.
  • the control unit 230 decides to perform fine-tuning based on the fine-tuning execution time.
  • step S79 the control unit 130 of the UE 100 calculates the inference metric by performing inference on the trained AI/ML model (step S66).
  • the inference metric may be the same as that in step S46 of FIG. 12.
  • step S82 the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning in the UE 100 based on the fine-tuning execution time received in step S65.
  • the determination itself may be the same as in step S77.
  • the control unit 230 decides to perform fine-tuning.
  • step S83 the transmitter 210 of the gNB 200 transmits a fine-tuning execution instruction to the UE 100, instructing the UE 100 to perform fine-tuning.
  • the transmission of the fine-tuning execution instruction itself may be the same as step S78.
  • the receiver 110 of the UE 100 receives the fine-tuning execution instruction.
  • the control unit 130 of the UE 100 may decide to perform fine-tuning in accordance with the fine-tuning execution instruction.
  • step S84 Fine Adjustment Then, in step S84, fine adjustment is performed.
  • fine-tuning may be performed on the UE 100 side. That is, in step S85, the control unit 130 of the UE 100 generates learning data to be used for fine-tuning. In step S86, the control unit 130 uses the learning data to perform fine-tuning on the trained AI/ML model.
  • the fine-tuning may be performed on the OTT server 500 side.
  • the OTT server 500 may store the trained AI/ML model to be fine-tuned.
  • the control unit 130 of the UE 100 generates training data to be used for the fine-tuning.
  • the transmission unit 120 of the UE 100 transmits the training data to the OTT server 500.
  • the OTT server 500 receives the training data and uses the training data to perform fine-tuning on the trained AI/ML model.
  • the first embodiment can also be implemented in a two-sided model in which inference is performed on both the UE100 side and the gNB200 side.
  • implementation is possible by applying the operation examples shown in Figures 14 and 15 to the inference performed on the UE100 side.
  • the control unit 230 calculates and monitors the fine-tuning execution time for the trained AI/ML model on the gNB200 side, and when performance is below the performance threshold, determines whether the fine-tuning execution condition is met (or whether the fine-tuning execution time is below the fine-tuning execution time threshold).
  • the control unit 230 performs fine-tuning according to the determination result
  • implementation is also possible for the inference performed on the gNB200 side.
  • the first embodiment can also be applied to a network-side model in which inference is performed on the network side (gNB200, core network, LMF (Location Management Function), or OTT server).
  • gNB200 Network side
  • LMF Location Management Function
  • OTT server OTT server
  • control unit 130 of UE100 may store the fine-tuning execution time in a memory or the like without transmitting it to the gNB200, and after monitoring (step S70), may determine whether to perform fine-tuning based on the fine-tuning execution conditions received from the gNB200 (step S69).
  • beam management has been described as an example of a use case, but the use case is not limited to beam management.
  • the first embodiment can also be applied to CSI feedback improvement (X1.1) or position accuracy improvement (X1.3).
  • the first embodiment we have described performing fine-tuning while taking into account the time required to perform the fine-tuning.
  • the second embodiment we will describe evaluating the performance of a trained AI/ML model and performing fine-tuning based on the evaluation results.
  • the time required for the performance evaluation is calculated, and a decision is made as to whether or not to perform the performance evaluation based on the time required for the performance evaluation.
  • the user device e.g., UE100
  • the user device performs a performance evaluation based on a performance evaluation execution time that indicates the time required to evaluate the performance of the trained AI/ML model.
  • the user device performs fine-tuning of the trained AI/ML model based on the results of the performance evaluation.
  • fine-tuning means training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
  • UE100 can determine when a trained AI/ML model obtains optimal inference result data at a specific time or location, but does not necessarily obtain optimal inference result data at other times or locations (this is generally referred to as "overlearning").
  • overlearning when a trained AI/ML model is trained using training data obtained at a specific time or location, it is expected that optimal inference results will be obtained at that specific time or location.
  • Performance evaluation can also capture the characteristics of such a trained AI/ML model.
  • a threshold e.g., a performance evaluation result threshold
  • evaluation index used in the second embodiment Here, the evaluation index of the trained AI/ML model used in the second embodiment will be described.
  • performance evaluation evaluating a trained AI/ML model is referred to as "performance evaluation.”
  • the evaluation method used in "performance evaluation” is described as using NMSE, but evaluation methods other than NMSE may also be used.
  • step S90 the network device 400 transfers (or transmits) the trained AI/ML model to the UE 100.
  • the receiver 110 of the UE 100 receives the trained AI/ML model.
  • the performance evaluation calculation parameters may include, for example, the number of datasets (or amount of data) used in the performance evaluation.
  • the number of datasets used in the performance evaluation may be the same as or smaller than the number of training datasets used in the trained AI/ML model.
  • the performance evaluation index may be calculated using a mathematical method, and the calculation time may be taken as the performance evaluation execution time.
  • the data set may be transmitted from the OTT server 500 to the UE 100 (step S97).
  • the UE 100 may transmit the received data set to the gNB 200 (step S98), causing the gNB 200 to calculate the performance evaluation execution time.
  • step S104 the control unit 130 of the UE 100 calculates the execution time of the performance evaluation using the parameters for calculating the performance evaluation time.
  • the control unit 130 may calculate the performance evaluation index using a mathematical method (e.g., NMSE) and use the calculation time as the performance evaluation execution time.
  • the control unit 130 may also perform inference to calculate the performance evaluation execution time.
  • the control unit 130 may calculate (or measure) the time required to execute the performance evaluation and use the calculated time as the performance evaluation execution time.
  • step S106 the control unit 130 of the UE 100 performs inference on the trained AI/ML model received in step S90.
  • step S111 the control unit 230 of the gNB 200 determines performance evaluation execution conditions that indicate the conditions for performing performance evaluation in the UE 100.
  • the control unit 230 may determine the performance evaluation execution conditions based on the performance evaluation execution time received in step S105.
  • the performance evaluation execution condition may include a performance evaluation time threshold.
  • performance evaluation may be performed when the performance evaluation execution time is equal to or less than the performance evaluation time threshold, and performance evaluation may not be performed when the performance evaluation execution time is longer than the performance evaluation time threshold.
  • the performance evaluation execution condition may include information indicating that performance evaluation is to be performed when the performance evaluation time is equal to or less than the performance evaluation time threshold (or information indicating that performance evaluation is not to be performed when the performance evaluation time is longer than the performance evaluation time threshold).
  • the performance evaluation conditions may include information regarding the evaluation method (e.g., NMSE) used when performing the performance evaluation.
  • UE 100 performs the performance evaluation using this evaluation method.
  • the performance evaluation conditions may include identification information (such as a model ID or function name) of the trained AI/ML model for which performance evaluation is to be performed.
  • the fine-tuning execution conditions according to the second embodiment include a performance evaluation result threshold that indicates a threshold for the evaluation result of the performance evaluation.
  • the UE 100 uses the performance evaluation result threshold to determine whether or not to perform fine-tuning.
  • the fine-tuning execution conditions according to the second embodiment may include information indicating that fine-tuning is to be performed when the evaluation result of the performance evaluation is equal to or greater than the performance evaluation result threshold (or information indicating that fine-tuning is not to be performed when the evaluation result is less than the performance evaluation result threshold). Alternatively, they may include information instructing that relearning be performed if fine-tuning is not to be performed.
  • step S114 the transmitter 210 of the gNB 200 transmits the fine-tuning execution conditions to the UE 100.
  • the receiver 110 of the UE 100 receives the fine-tuning execution conditions.
  • step S118 the control unit 130 of the UE 100 determines whether to perform fine-tuning. Specifically, the control unit 130 determines whether to perform fine-tuning based on the evaluation result of the performance evaluation performed in step S117 and the fine-tuning execution conditions. For example, the control unit 130 performs fine-tuning when the evaluation result of the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good), and does not perform fine-tuning when the evaluation result is less than the performance evaluation result threshold (i.e., the evaluation result is poor).
  • the control unit 130 performs fine-tuning when the evaluation result of the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good), and does not perform fine-tuning when the evaluation result is less than the performance evaluation result threshold (i.e., the evaluation result is poor).
  • step S115 the impact on the trained AI/ML model (step S115) that is below the performance threshold will be greater than a certain level, and it is predicted that fine-tuning will not improve the trained AI/ML model, or that over-training will occur, resulting in a decrease in the overall performance of the AI/ML model. In such cases, re-training may be preferable to fine-tuning.
  • the evaluation result is equal to or greater than the performance evaluation result threshold, even if fine-tuning is performed on the trained AI/ML model, the impact can be kept below a certain level, and it is predicted that performance will be improved.
  • the control unit 130 decides to perform fine-tuning in step S118.
  • step S120 the control unit 130 of the UE 100 monitors the inference of the trained AI/ML model.
  • step S121 the transmitter 120 of the UE 100 transmits the monitoring results to the gNB 200.
  • the receiver 220 of the gNB 200 receives the monitoring results.
  • step S122 the control unit 230 of the gNB 200 detects, based on the monitoring results, that the performance of the trained AI/ML model is below a performance threshold (i.e., performance is poor). The control unit 230 then decides whether to cause the UE 100 to perform performance evaluation. Specifically, the control unit 230 decides whether to perform performance evaluation based on the performance evaluation execution time received in step S105 ( Figure 16). The decision on whether to perform performance evaluation may be the same as that in step S116 ( Figure 17). That is, the control unit 230 may decide to perform performance evaluation when the performance evaluation execution time received in step S105 is below the performance evaluation time threshold, and may decide not to perform performance evaluation when the performance evaluation execution time received in step S105 exceeds the performance evaluation time threshold. The following description is based on the assumption that the control unit 230 decides to perform performance evaluation based on the performance evaluation execution time.
  • the transmitter 210 of the gNB 200 transmits a performance evaluation execution instruction (or performance evaluation execution instruction) to the UE 100, instructing the UE 100 to perform a performance evaluation.
  • the performance evaluation execution instruction may include identification information (e.g., a model ID or function name) of the trained AI/ML model for which performance evaluation is to be performed.
  • the performance evaluation execution instruction may also be instruction information instructing the UE 100 not to perform performance evaluation.
  • the receiver 110 of the UE 100 receives the performance evaluation execution instruction.
  • step S125 the transmitter 120 of the UE 100 transmits the performance evaluation results to the gNB 200.
  • the receiver 220 of the gNB 200 receives the evaluation results.
  • step S130 the control unit 130 of the UE 100 calculates a performance metric for the inference of the trained AI/ML model (step S106).
  • step S131 the transmitter 120 of the UE 100 transmits the performance metric to the gNB 200.
  • the receiver 220 of the gNB 200 receives the performance metric.
  • step S138 the control unit 130 of the UE 100 may decide to execute the fine-tuning.
  • step S140 of Fig. 20 fine adjustment is performed.
  • the fine adjustment itself may be performed on the UE 100 side (steps S141 and S142) as in the first embodiment, or may be performed on the OTT server 500 side (steps S143 to S145).
  • Each operation steps S141 to S145) is also the same as each operation (steps S85 to S89) in the first embodiment.
  • step S90 (Another Operation Example 1 According to the Second Embodiment)
  • step S91 the transmission of the parameters for calculating the performance evaluation time
  • step S94 the transmission of the data set for calculating the performance evaluation time
  • step S99 the transmission of the current index
  • the model transfer and at least one of the parameters, the data set, and the index may be performed using a single message.
  • the control unit 230 calculates the performance evaluation execution time for the trained AI/ML model on the gNB 200 side, performs monitoring, and when the monitoring result is equal to or less than the performance threshold, determines whether the performance evaluation execution condition is met (or whether the performance evaluation execution time is equal to or less than the performance evaluation time threshold).
  • the control unit 230 performs performance evaluation according to the determination result, and, for example, as in step S126, compares the evaluation result of the performance evaluation with the performance evaluation result threshold and determines whether to perform fine-tuning.
  • the second embodiment can also be applied to a network-side model.
  • the network-side model can also be implemented by replacing "UE 100" with "network side.”
  • model transfer step S90
  • parameter transmission step S91
  • data set transmission step S94
  • current indicator transmission step S99
  • the user device receives fine-tuning execution conditions from a network node (e.g., gNB200) that indicate the conditions for performing fine-tuning of the trained AI/ML model.
  • the user device performs inference using the trained AI/ML model.
  • the user device performs fine-tuning.
  • the fine-tuning execution conditions include a performance threshold and a predetermined number of times.
  • fine-tuning is performed in response to detecting a predetermined number of times that the inference result of the trained AI/ML model is below the performance threshold.
  • fine-tuning means training the trained AI/ML model using training data with a data volume below a data volume threshold.
  • FIG. 21 shows an example of operation according to the third embodiment.
  • step S151 the transmitter 210 of the gNB 200 transmits the fine-tuning execution conditions to the UE 100.
  • the inference result may include, for example, the CPU usage rate or memory usage rate when the inference was performed, the amount of inference data used when the inference was performed, or the amount of inference result data.
  • the performance threshold may be a threshold corresponding to each indicator of the inference result.
  • the fine-tuning execution conditions include a predetermined number of times representing a threshold for the number of times.
  • UE100 executes fine-tuning when it detects that the inference result of the trained AI/ML model is below the performance threshold a predetermined number of times.
  • the predetermined number of times may be a consecutive number of times or a cumulative number of times. In the case of a cumulative number of times, the fine-tuning execution conditions may also include a period of time.
  • the fine-tuning execution condition may include a report instruction (or report request) that instructs (or requests) a report on whether or not fine-tuning has been performed.
  • UE 100 transmits information indicating that fine-tuning has been performed to network device 400 in accordance with the report instruction.
  • the report instruction may include a destination indicating to which node the report should be sent.
  • the report instruction may include information instructing transmission of the inference data set used for inference, along with whether or not fine-tuning has been performed.
  • step S154-1 the control unit 130 of the UE 100 detects that the inference result is below the performance threshold.
  • step S156 the control unit 130 of UE 100 performs fine-tuning on the trained AI/ML model received in step S150 because the fine-tuning execution conditions are met (the inference result has been detected to be below the performance threshold a predetermined number of times).
  • step S157 the transmitter 120 of the UE 100 transmits information indicating that fine-tuning has been performed to the gNB 200.
  • the transmitter 120 may transmit the information in accordance with a reporting instruction included in the fine-tuning execution conditions.
  • step S158 the transmitter 120 of the UE 100 transmits to the network device 400 information indicating that fine-tuning has been performed and a data set of the inference data used in the inference.
  • the transmitter 120 may transmit this information in accordance with a reporting instruction included in the fine-tuning execution conditions.
  • the user equipment receives performance evaluation execution conditions from a network node (e.g., gNB200) that indicate the conditions for performing performance evaluation of the trained AI/ML model.
  • the user equipment performs inference using the trained AI/ML model.
  • the user equipment performs performance evaluation in response to detecting a predetermined number of times that the inference result of the trained AI/ML model is below the performance threshold.
  • the performance evaluation execution conditions include the performance threshold and the predetermined number of times.
  • UE100 performs performance evaluation when it detects that the inference result of the trained AI/ML model is below the performance threshold, i.e., when it detects a predetermined number of times that the performance of the trained AI/ML model is poor.
  • UE100 can determine whether or not to perform performance evaluation in accordance with instructions from gNB200, making it possible to appropriately perform performance evaluation.
  • FIG. 22 shows another example of operation according to the third embodiment.
  • the performance evaluation execution conditions include a performance threshold.
  • the performance threshold is, for example, a threshold for determining the inference performance of the trained AI/ML model.
  • the performance determination method may be the same as in the third embodiment.
  • the performance evaluation execution conditions include a predetermined number of times that represents a threshold for the number of times.
  • UE100 executes performance evaluation, for example, when it detects that the inference result of the trained AI/ML model is below the performance threshold a predetermined number of times.
  • the predetermined number of times may be a consecutive number of times or a cumulative number of times. In the case of a cumulative number of times, the performance evaluation conditions may also include a period of time.
  • the performance evaluation execution conditions may include the evaluation method (e.g., NMSE) to be used when performing the performance evaluation.
  • the evaluation method e.g., NMSE
  • step S164 the control unit 130 of the UE 100 detects that the inference result is below the performance threshold a predetermined number of times (e.g., n times).
  • step S165 the control unit 130 of the UE 100 performs performance evaluation to satisfy the performance evaluation execution conditions.
  • step S166 the transmitter 120 of the UE 100 transmits to the gNB 200 information indicating that the inference result is below the performance threshold (i.e., the accuracy of the inference is poor) and the evaluation result.
  • the transmitter 120 may transmit this information in accordance with a reporting instruction included in the performance evaluation execution conditions.
  • the receiver 220 of the gNB 200 receives the information indicating that the inference result is below the performance threshold and the evaluation result.
  • step S170 the network device 400 transfers (or transmits) the trained AI/ML model to the UE 100.
  • the receiver 110 of the UE 100 receives the trained AI/ML model.
  • Identification information of the trained AI/ML model used for performance evaluation and/or fine-tuning e.g., model name, model ID, or function name
  • the reporting conditions may include information indicating that a log is to be transmitted in response to a log transmission request from gNB200.
  • the reporting conditions may include log transmission conditions that indicate the conditions for sending a log.
  • the log transmission condition may be that at least one of the pieces of information to be reported has been acquired.
  • the log transmission condition may also be that the data volume of at least one of the pieces of information to be reported has reached or exceeded a data volume threshold. In the latter case, the data volume threshold may be included in the log transmission condition.
  • step S172 the control unit 130 of the UE 100 performs inference on the trained AI/ML model received in step S170.
  • step S173 the control unit 130 of the UE 100 performs performance evaluation based on the inference results.
  • step S174 the control unit 130 of the UE 100 performs fine-tuning on the trained AI/ML model.
  • step S175 the control unit 130 of the UE 100 records in memory the log used during performance evaluation and fine-tuning.
  • the control unit 130 may record the log in memory in accordance with the report target information included in the reporting conditions.
  • step S177 the transmitter 210 of the gNB 200 transmits a log transmission request to the UE 100.
  • the receiver 110 of the UE 100 receives the log transmission request.
  • step S178 in response to receiving the log transmission request, the transmitter 120 of the UE 100 transmits the log recorded in step S175 to the gNB 200.
  • the transmitter 120 may also transmit the log together with a measurement report (MeasurementReport).
  • the fifth embodiment is an embodiment that combines the first embodiment (the fine-tuning embodiment) and the second embodiment (the performance evaluation embodiment). That is, the fifth embodiment is an example in which the UE 100 determines whether to perform fine-tuning based on the fine-tuning execution time, the performance evaluation execution time, and the evaluation results of the performance evaluation.
  • a user device e.g., UE100 performs fine-tuning of a first trained AI/ML model (e.g., a trained AI/ML model on the UE100 side) based on a first time required to perform fine-tuning of the first trained AI/ML model, a second time required to perform a performance evaluation of the first trained AI/ML model, and the evaluation results of the performance evaluation.
  • fine-tuning means training the first trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
  • fine-tuning may be performed when the first time is equal to or less than the fine-tuning execution time threshold, the second time is also equal to or less than the performance evaluation time threshold, and the evaluation result is equal to or greater than the performance threshold, and fine-tuning may not be performed under other conditions. Therefore, in the mobile communication system 1, fine-tuning is performed under certain judgments, making it possible to appropriately perform fine-tuning on the trained AI/ML model.
  • FIGS. 24 to 26 are diagrams showing an example of operation according to the fifth embodiment. Note that the example of operation shown in FIG. 24 to 26 is an example of CSI compression, which is a sub-use case of CSI feedback, and represents an example of a two-sided model.
  • CSI compression is performed by UE100 transmitting compressed CSI to gNB200, which then reconstructs the pre-compressed CSI.
  • the AI/ML method is used for CSI compression and CSI reconstruction, and a two-sided model is constructed by an inference unit on the UE100 side that performs CSI compression and an inference unit on the UE100 side that performs CSI reconstruction.
  • the CSI to be compressed is, for example, CSI feedback information generated by legacy processing by CSI generation unit 131.
  • the network device 400 transmits a trained AI/ML model for the UE 100 (e.g., a first trained AI/ML model) to the UE 100 (step S180), and transmits a trained AI/ML model for the gNB 200 (e.g., a second trained AI/ML model) to the gNB 200 (step S181).
  • a trained AI/ML model for the UE 100 e.g., a first trained AI/ML model
  • a trained AI/ML model for the gNB 200 e.g., a second trained AI/ML model
  • the network device 400 transmits a parameter for calculating the fine-tuning execution time (e.g., the first parameter) to the UE 100 (step S182).
  • the network device 400 also transmits a parameter for calculating the fine-tuning execution time (e.g., the third parameter) to the gNB 200 in order to calculate the fine-tuning execution time at the gNB 200 (step S185).
  • the control unit 130 of the UE 100 calculates the fine-tuning execution time (e.g., the first time) using the fine-tuning execution time calculation parameters (step S183), and the transmission unit 120 of the UE 100 transmits the fine-tuning execution time on the UE 100 side to the gNB 200 (step S184). Meanwhile, the control unit 230 of the gNB 200 also calculates the fine-tuning execution time (e.g., the third time) using the fine-tuning execution time calculation parameters (step S186).
  • the fine-tuning execution time e.g., the first time
  • the transmission unit 120 of the UE 100 transmits the fine-tuning execution time on the UE 100 side to the gNB 200 (step S184).
  • the control unit 230 of the gNB 200 also calculates the fine-tuning execution time (e.g., the third time) using the fine-tuning execution time calculation parameters (step S186).
  • the network device 400 transmits parameters for calculating the performance evaluation time (e.g., second parameters), a dataset for calculating the performance evaluation time, and the current indicators to the UE 100 (steps S187 to S189).
  • the control unit 130 of the UE 100 uses these received parameters to calculate the performance evaluation execution time (e.g., second time) for the trained AI/ML model on the UE 100 side (step S190).
  • the transmission unit 120 of the UE 100 transmits the performance evaluation execution time on the UE 100 side to the gNB 200 (step S191).
  • network device 400 transmits parameters for calculating the performance evaluation time (e.g., the fourth parameter), a dataset for calculating the performance evaluation time, and the current indicators to gNB200 (steps S192 to S194).
  • the control unit 230 of gNB200 uses these received parameters to calculate the performance evaluation execution time (e.g., the fourth time) for the trained AI/ML model on the gNB200 side (step S195).
  • step S200 inference is performed in the mobile communication system 1. Because it is a two-sided model, inference is performed in the UE 100 and the gNB 200 (steps S202 and S204).
  • the control unit 130 of the UE 100 generates inference data to be used in the trained AI/ML model on the UE side (step S201) and performs inference using the inference data (step S202).
  • the transmission unit 120 of the UE 100 transmits the inference result data to the gNB 200 as inference data on the gNB 200 side (step S203).
  • the control unit 230 of the gNB 200 inputs the inference result data as inference data for the trained AI/ML model on the gNB 200 side and performs inference (step S204).
  • step S205 monitoring is performed in the mobile communication system 1. Because of the two-sided model, the control unit 130 of the UE 100 monitors the inference on the UE 100 side (step S202) (step S206), and the control unit 230 of the gNB 200 monitors the inference on the gNB 200 side (step S204) (step S208). The transmission unit 120 of the UE 100 transmits its own monitoring results to the gNB 200.
  • step S210 ( Figure 26), management is performed in the mobile communication system 1.
  • the fifth embodiment there is fine-tuning of the trained AI/ML model on the UE100 side, and fine-tuning of the trained AI/ML model on the gNB200 side.
  • the fine-tuning performed on the UE100 side there are cases where the gNB200 makes the fine-tuning decision, and cases where the UE100 itself makes the fine-tuning decision.
  • step S212 the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning.
  • the control unit 230 performs fine-tuning when the performance evaluation execution time is equal to or less than the performance evaluation time threshold (i.e., to perform performance evaluation), the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and the evaluation result from the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good).
  • the control unit 230 combines the performance evaluation execution time, the fine-tuning execution time, and the evaluation result from the performance evaluation to determine whether or not to perform fine-tuning.
  • the evaluation results from the performance evaluation are evaluation results for the trained AI/ML model on the UE100 side. Therefore, the control unit 130 of the UE100 evaluates the trained AI/ML model, and the transmission unit 120 of the UE100 transmits the evaluation results to the gNB200. This allows the gNB200 to obtain the evaluation results of the trained AI/ML model on the UE100 side. The control unit 230 of the gNB200 can then use the evaluation results to determine whether or not to perform fine-tuning.
  • control unit 230 has determined to perform fine adjustment.
  • step S213 the transmitter 210 of the gNB 200 transmits a fine-tuning execution instruction to the UE 100 to instruct the UE 100 to perform fine-tuning.
  • the receiver 110 of the UE 100 receives the fine-tuning execution instruction, and the controller 130 of the UE 100 decides to perform fine-tuning.
  • V2 When the UE 100 Determines Fine Adjustment on the UE 100 Side by Itself, the UE 100 performs step S214 and step S215.
  • step S214 the control unit 130 of the UE 100 determines whether or not to perform performance evaluation.
  • the determination of whether or not to perform performance evaluation may be the same as step S211. That is, as a result of monitoring the trained AI/ML model on the UE side (step S206), the control unit 130 detects that the performance of the model is below the performance threshold, and compares the performance evaluation execution time calculated in step S190 with the performance evaluation time threshold to determine whether or not to perform performance evaluation.
  • the control unit 130 has determined to perform performance evaluation.
  • step S215 the control unit 130 of the UE 100 determines whether or not to perform fine-tuning.
  • the determination of whether or not to perform fine-tuning may itself be the same as in step S212. That is, the control unit 130 may perform fine-tuning when the performance evaluation execution time is equal to or less than the performance evaluation time threshold (i.e., performance evaluation is to be performed), the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and the evaluation result from the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good).
  • the control unit 130 determines to perform fine-tuning and decides to perform fine-tuning.
  • control unit 230 of gNB200 may also determine whether or not to perform fine-tuning on its own trained AI/ML model. In this case, when the control unit 230 monitors the trained AI/ML model on the gNB200 side (step S208) and detects that the performance of the trained AI/ML model is below the performance threshold (i.e., poor performance), it determines whether or not to perform fine-tuning.
  • the control unit 230 monitors the trained AI/ML model on the gNB200 side (step S208) and detects that the performance of the trained AI/ML model is below the performance threshold (i.e., poor performance), it determines whether or not to perform fine-tuning.
  • step S216 fine-tuning is performed in the mobile communication system 1. That is, on the UE100 side, the control unit 130 generates learning data (step S217) and uses the generated learning data to perform fine-tuning on the trained AI/ML model on the UE100 side (step S218). Meanwhile, on the gNB200 side, the control unit 230 generates learning data (step S219) and uses the generated learning data to perform fine-tuning on the trained AI/ML model on the gNB200 side (step S220).
  • the fifth embodiment has been described in the case of a two-side model, this is not limiting.
  • the fifth embodiment can also be applied to a UE-side model.
  • some of the processing performed on the gNB 200 side (such as steps S186, S195, S219, and S220) can be prevented from being performed.
  • the fifth embodiment can also be applied to a network-side model. For example, in FIGS.
  • the network-side model can also be implemented by replacing "UE 100" with "network side.”
  • model transfer step S180
  • parameter transmission steps S182 and S187
  • data set transmission step S188
  • current indicator transmission step S189
  • the fifth embodiment can be applied to the third embodiment. That is, in the mobile communication system 1, it may be determined whether to perform fine-tuning based on the number of times that the inference result (or monitoring result) of the trained AI/ML model is detected to be equal to or lower than the performance threshold (i.e., the inference accuracy is poor). Specifically, steps S151 to S158 shown in FIG. 21 may be executed instead of steps S211 to S215 in FIG. 26.
  • gNB200 may transmit reporting conditions to UE100, and UE100 may transmit the recorded log to gNB200 in accordance with the reporting conditions.
  • step S171 (transmission of reporting conditions) in FIG. 23 may be executed between step S180 (model transfer) in FIG. 24 and step S200 (inference) in FIG. 25, and step S175 (log recording) and subsequent steps in FIG. 23 may be executed after step S216 (fine-tuning) in FIG. 26.
  • the base station is an NR base station (gNB), but the base station may also be an LTE base station (eNB) or a 6G base station. Furthermore, the base station may also be a relay node such as an IAB (Integrated Access and Backhaul) node. The base station may also be a DU of an IAB node. Furthermore, UE100 may also be an MT (Mobile Termination) of an IAB node.
  • gNB NR base station
  • eNB LTE base station
  • 6G base station 6G base station
  • the base station may also be a relay node such as an IAB (Integrated Access and Backhaul) node.
  • the base station may also be a DU of an IAB node.
  • UE100 may also be an MT (Mobile Termination) of an IAB node.
  • UE100 may be a terminal function unit (a type of communication module) that allows a base station to control a repeater that relays signals.
  • a terminal function unit is referred to as an MT.
  • examples of MT include NCR (Network Controlled Repeater)-MT and RIS (Reconfigurable Intelligent Surface)-MT.
  • network node primarily refers to a base station, but may also refer to a core network device or part of a base station (CU, DU, or RU).
  • a network node may also be composed of a combination of at least part of a core network device and at least part of a base station.
  • a program may be provided that causes a computer to execute each process performed by UE100, gNB200, or network device 400.
  • the program may be recorded on a computer-readable medium.
  • the program can be installed on a computer.
  • the computer-readable medium on which the program is recorded may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, but may be, for example, a CD-ROM and/or DVD-ROM.
  • circuits that execute each process performed by UE100, gNB200, or network device 400 may be integrated, and at least a portion of UE100, gNB200, or network device 400 may be configured as a semiconductor integrated circuit (chipset, SoC: System on a chip).
  • a circuit, unit, or means refers to hardware that is programmed to realize or executes the described functions.
  • the hardware may be any hardware disclosed in this specification or any hardware known to be programmed to realize or execute the described functions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

One aspect of the present invention relates to a communication control method for user equipment in a mobile communication system. The communication control method includes a step for performing fine adjustment on a trained artificial intelligence (AI)/machine learning (ML) model on the basis of a fine adjustment execution time indicating the time it takes for the user equipment to execute the fine adjustment of the trained AI/ML model. The fine adjustment refers to training the trained AI/ML model using training data having a data amount equal to or less than a data amount threshold.

Description

通信制御方法Communication Control Method

 本開示は、通信制御方法に関する。 This disclosure relates to a communication control method.

 近年、移動通信システムの標準化プロジェクトである3GPP(Third Generation Partnership Project)(登録商標。以下、同じ。)において、人工知能(AI:ArtificialIntelligence)技術、特に、機械学習(ML:Machine Learning)技術を移動通信システムの無線通信(エアインターフェイス)に適用しようとする検討が行われている。 In recent years, the Third Generation Partnership Project (3GPP) (registered trademark; the same applies hereinafter), a standardization project for mobile communications systems, has been considering applying artificial intelligence (AI) technology, particularly machine learning (ML) technology, to wireless communications (air interfaces) in mobile communications systems.

3GPP TR 38.843 V18.0.0(2023-12)3GPP TR 38.843 V18.0.0 (2023-12)

 第1の態様に係る通信制御方法は、移動通信システムのユーザ装置における通信制御方法である。前記通信制御方法は、ユーザ装置が、学習済AI/MLモデルの微調整を実行するのにかかる時間を示す微調整実行時間に基づいて、学習済AI/MLモデルに対して微調整を実行するステップ、を有する。前記微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 A communication control method according to a first aspect is a communication control method for a user device in a mobile communication system. The communication control method includes a step in which the user device performs fine-tuning on the trained AI/ML model based on a fine-tuning execution time indicating the time required to perform fine-tuning on the trained AI/ML model. The fine-tuning involves training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 第2の態様に係る通信制御方法は、移動通信システムのネットワークノードにおける通信制御方法である。前記通信制御方法は、ネットワークノードが、学習済AI/MLモデルの微調整の実行にかかる時間を示す微調整実行時間に基づいて、ユーザ装置において学習済AI/MLモデルに対する微調整を実行するための条件を示す微調整実行条件を決定するステップを有する。また、前記通信制御方法は、ネットワークノードが、微調整実行条件をユーザ装置へ送信するステップを有する。前記微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 A communication control method according to a second aspect is a communication control method in a network node of a mobile communication system. The communication control method includes a step in which the network node determines fine-tuning execution conditions indicating the conditions for performing fine-tuning on the trained AI/ML model in the user device, based on a fine-tuning execution time indicating the time required to perform fine-tuning on the trained AI/ML model. The communication control method also includes a step in which the network node transmits the fine-tuning execution conditions to the user device. The fine-tuning involves training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 第3の態様に係る通信制御方法は、移動通信システムのネットワークノードにおける通信制御方法である。前記通信制御方法は、ネットワークノードが、学習済AI/MLモデルの微調整の実行にかかる時間を示す微調整実行時間に基づいて、ユーザ装置において学習済AI/MLモデルの微調整を実行することを決定するステップを有する。また、前記通信制御方法は、ネットワークノードが、微調整を実行することを指示する微調整実行指示をユーザ装置へ送信するステップを有する。前記微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 A communication control method according to a third aspect is a communication control method in a network node of a mobile communication system. The communication control method includes a step in which the network node decides to perform fine-tuning of the trained AI/ML model in the user device based on a fine-tuning execution time indicating the time required to perform fine-tuning of the trained AI/ML model. The communication control method also includes a step in which the network node sends a fine-tuning execution instruction to the user device, instructing the user device to perform fine-tuning. The fine-tuning involves training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 第4の態様に係る通信制御方法は、移動通信システムのユーザ装置における通信制御方法である。前記通信制御方法は、ユーザ装置が、学習済AI/MLモデルの微調整を実行するための条件を示す微調整実行条件をネットワークノードから受信するステップを有する。また、前記通信制御方法は、ユーザ装置が、学習済AI/MLモデルを用いて推論を実行するステップを有する。更に、前記通信制御方法は、ユーザ装置が、微調整を実行するステップを有する。ここで、前記微調整実行条件は、性能閾値及び所定回数を含む。また、前記通信制御方法は、ユーザ装置が、学習済AI/MLモデルの推論結果が性能閾値以下であることを前記所定回数検出したことに応じて、微調整を実行するステップを含む。前記微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 A communication control method according to a fourth aspect is a communication control method for a user device in a mobile communication system. The communication control method includes a step in which the user device receives, from a network node, fine-tuning execution conditions indicating conditions for performing fine-tuning of a trained AI/ML model. The communication control method also includes a step in which the user device performs inference using the trained AI/ML model. The communication control method further includes a step in which the user device performs fine-tuning. Here, the fine-tuning execution conditions include a performance threshold and a predetermined number of times. The communication control method also includes a step in which the user device performs fine-tuning in response to detecting, the predetermined number of times, that the inference result of the trained AI/ML model is equal to or less than the performance threshold. The fine-tuning is training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 第5の態様に係る通信制御方法は、移動通信システムのネットワークノードにおける通信制御方法である。前記通信制御方法は、ネットワークノードが、学習済AI/MLモデルの微調整を実行するための条件を示す微調整実行条件をユーザ装置へ送信するステップを有する。前記微調整実行条件は、性能閾値及び所定回数を含む。ユーザ装置において、学習済AI/MLモデルの推論結果が性能閾値以下であることを所定回数検出したことに応じて、微調整が実行される。前記微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 A communication control method according to a fifth aspect is a communication control method in a network node of a mobile communication system. The communication control method includes a step in which the network node transmits fine-tuning execution conditions indicating conditions for performing fine-tuning of a trained AI/ML model to a user device. The fine-tuning execution conditions include a performance threshold and a predetermined number of times. The fine-tuning is performed in response to the user device detecting that the inference result of the trained AI/ML model is below the performance threshold a predetermined number of times. The fine-tuning is performed by training the trained AI/ML model using training data with a data volume below a data volume threshold.

図1は、第1実施形態に係る移動通信システムの構成例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a mobile communication system according to the first embodiment. 図2は、第1実施形態に係るUE(ユーザ装置)の構成例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of a UE (user equipment) according to the first embodiment. 図3は、第1実施形態に係るgNB(基地局)の構成例を示す図である。Figure 3 is a diagram showing an example configuration of a gNB (base station) according to the first embodiment. 図4は、第1実施形態に係るプロトコルスタックの構成例を示す図である。FIG. 4 is a diagram illustrating an example of the configuration of a protocol stack according to the first embodiment. 図5は、第1実施形態に係るプロトコルスタックの構成例を示す図である。FIG. 5 is a diagram illustrating an example of the configuration of a protocol stack according to the first embodiment. 図6は、第1実施形態に係るAI/ML技術の機能ブロックの構成例を示す図である。FIG. 6 is a diagram illustrating an example of the configuration of functional blocks of the AI/ML technology according to the first embodiment. 図7は、第1実施形態に係るAI/ML技術における動作例を表す図である。FIG. 7 is a diagram illustrating an example of operation in the AI/ML technique according to the first embodiment. 図8は、第1実施形態に係るAI/ML技術の機能ブロックの配置例を表す図である。FIG. 8 is a diagram illustrating an example of an arrangement of functional blocks of the AI/ML technology according to the first embodiment. 図9は、第1実施形態に係る動作例を表す図である。FIG. 9 is a diagram illustrating an example of operation according to the first embodiment. 図10は、第1実施形態に係る動作例を表す図である。FIG. 10 is a diagram illustrating an example of operation according to the first embodiment. 図11は、第1実施形態に係る設定メッセージの一例を表す図である。FIG. 11 is a diagram illustrating an example of a setting message according to the first embodiment. 図12は、第1実施形態に係る動作例を表す図である。FIG. 12 is a diagram illustrating an example of operation according to the first embodiment. 図13は、第1実施形態に係る動作例を表す図である。FIG. 13 is a diagram illustrating an example of operation according to the first embodiment. 図14は、第1実施形態に係る動作例を表す図である。FIG. 14 is a diagram illustrating an example of operation according to the first embodiment. 図15は、第1実施形態に係る動作例を表す図である。FIG. 15 is a diagram illustrating an example of operation according to the first embodiment. 図16は、第2実施形態に係る動作例を表す図である。FIG. 16 is a diagram illustrating an example of operation according to the second embodiment. 図17は、第2実施形態に係る動作例を表す図である。FIG. 17 is a diagram illustrating an example of operation according to the second embodiment. 図18は、第2実施形態に係る動作例を表す図である。FIG. 18 is a diagram illustrating an example of operation according to the second embodiment. 図19は、第2実施形態に係る動作例を表す図である。FIG. 19 is a diagram illustrating an example of operation according to the second embodiment. 図20は、第2実施形態に係る動作例を表す図である。FIG. 20 is a diagram illustrating an example of operation according to the second embodiment. 図21は、第3実施形態に係る動作例を表す図である。FIG. 21 is a diagram illustrating an example of operation according to the third embodiment. 図22は、第3実施形態に係る動作例を表す図である。FIG. 22 is a diagram illustrating an example of operation according to the third embodiment. 図23は、第4実施形態に係る動作例を表す図である。FIG. 23 is a diagram illustrating an example of operation according to the fourth embodiment. 図24は、第5実施形態に係る動作例を表す図である。FIG. 24 is a diagram illustrating an example of operation according to the fifth embodiment. 図25は、第5実施形態に係る動作例を表す図である。FIG. 25 is a diagram illustrating an example of operation according to the fifth embodiment. 図26は、第5実施形態に係る動作例を表す図である。FIG. 26 is a diagram illustrating an example of operation according to the fifth embodiment.

 本開示は、学習済AI/MLモデルに対して微調整を適切に実行することを目的とする。 The purpose of this disclosure is to appropriately perform fine-tuning on trained AI/ML models.

 [第1実施形態]
 図面を参照しながら、第1実施形態に係る移動通信システムについて説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。
[First embodiment]
The mobile communication system according to the first embodiment will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

 (移動通信システムの構成)
 第1実施形態に係る移動通信システムの構成について説明する。図1は、第1実施形態に係る移動通信システム1の構成例を示す図である。移動通信システム1は、3GPP規格の第5世代システム(5GS:5th Generation System)に準拠する。以下において、5GSを例に挙げて説明するが、移動通信システムには、LTE(Long Term Evolution)システムが少なくとも部分的に適用されてもよい。移動通信システムには第6世代(6G)システム以降のシステムが少なくとも部分的に適用されてもよい。
(Configuration of mobile communication system)
The configuration of a mobile communication system according to the first embodiment will be described. FIG. 1 is a diagram showing an example of the configuration of a mobile communication system 1 according to the first embodiment. The mobile communication system 1 conforms to the 5th Generation System (5GS) of the 3GPP standard. Although the following description will be given using 5GS as an example, the mobile communication system may also be at least partially applied to an LTE (Long Term Evolution) system. The mobile communication system may also be at least partially applied to a sixth generation (6G) system or later system.

 移動通信システム1は、ユーザ装置(UE:User Equipment)100と、5Gの無線アクセスネットワーク(NG-RAN:Next Generation Radio Access Network)10と、5Gのコアネットワーク(5GC:5G Core Network)20とを有する。以下において、NG-RAN10を単にRAN10と呼ぶことがある。また、5GC20を単にコアネットワーク(CN)20と呼ぶことがある。更に、コアネットワークCNに含まれる装置をコアネットワーク装置と呼ぶことがある。 The mobile communication system 1 includes a user equipment (UE) 100, a 5G radio access network (NG-RAN) 10, and a 5G core network (5GC) 20. Hereinafter, the NG-RAN 10 may be simply referred to as the RAN 10. The 5GC 20 may also be simply referred to as the core network (CN) 20. Furthermore, the devices included in the core network CN may also be referred to as core network devices.

 UE100は、移動可能な無線通信装置である。UE100は、ユーザにより利用される装置であればどのような装置であっても構わない。例えば、UE100は、携帯電話端末(スマートフォンを含む)及び/又はタブレット端末、ノートPC、通信モジュール(通信カード又はチップセットを含む)、センサ若しくはセンサに設けられる装置、車両若しくは車両に設けられる装置(Vehicle UE)、飛行体若しくは飛行体に設けられる装置(Aerial UE)である。 UE100 is a mobile wireless communication device. UE100 may be any device that is used by a user. For example, UE100 is a mobile phone terminal (including a smartphone) and/or a tablet terminal, a notebook PC, a communication module (including a communication card or chipset), a sensor or a device provided in a sensor, a vehicle or a device provided in a vehicle (Vehicle UE), or an aircraft or a device provided in an aircraft (Aerial UE).

 NG-RAN10は、基地局(5Gシステムにおいて「gNB」と呼ばれる)200を含む。gNB200は、基地局間インターフェイスであるXnインターフェイスを介して相互に接続される。gNB200は、1又は複数のセルを管理する。gNB200は、自セルとの接続を確立したUE100との無線通信を行う。gNB200は、無線リソース管理(RRM)機能、ユーザデータ(以下、単に「データ」という)のルーティング機能、モビリティ制御・スケジューリングのための測定制御機能等を有する。「セル」は、無線通信エリアの最小単位を示す用語として用いられる。「セル」は、UE100との無線通信を行う機能又はリソースを示す用語としても用いられる。1つのセルは1つのキャリア周波数(以下、単に「周波数」と呼ぶ)に属する。 The NG-RAN 10 includes a base station (called a "gNB" in a 5G system) 200. The gNBs 200 are connected to each other via an Xn interface, which is an interface between base stations. The gNB 200 manages one or more cells. The gNB 200 performs wireless communication with a UE 100 that has established a connection with its own cell. The gNB 200 has a radio resource management (RRM) function, a routing function for user data (hereinafter simply referred to as "data"), and a measurement control function for mobility control and scheduling. The term "cell" is used to indicate the smallest unit of a wireless communication area. The term "cell" is also used to indicate a function or resource for wireless communication with a UE 100. One cell belongs to one carrier frequency (hereinafter simply referred to as "frequency").

 なお、gNBがLTEのコアネットワークであるEPC(Evolved Packet Core)に接続することもできる。LTEの基地局が5GCに接続することもできる。LTEの基地局とgNBとが基地局間インターフェイスを介して接続されることもできる。 In addition, gNBs can also connect to the EPC (Evolved Packet Core), which is the LTE core network. LTE base stations can also connect to 5GC. LTE base stations and gNBs can also be connected via a base station-to-base station interface.

 5GC20は、AMF(Access and Mobility Management Function)及びUPF(User Plane Function)300を含む。AMFは、UE100に対する各種モビリティ制御等を行う。AMFは、NAS(Non-Access Stratum)シグナリングを用いてUE100と通信することにより、UE100のモビリティを管理する。UPFは、データの転送制御を行う。AMF及びUPF300は、基地局-コアネットワーク間インターフェイスであるNGインターフェイスを介してgNB200と接続される。AMF及びUPF300は、CN20に含まれるコアネットワーク装置であってもよい。コアネットワーク装置とgNB200とを合わせて、ネットワーク装置と呼ぶことがある。 5GC20 includes an AMF (Access and Mobility Management Function) and a UPF (User Plane Function) 300. The AMF performs various mobility controls for UE100. The AMF manages the mobility of UE100 by communicating with UE100 using NAS (Non-Access Stratum) signaling. The UPF controls data forwarding. The AMF and UPF 300 are connected to gNB200 via an NG interface, which is an interface between a base station and a core network. The AMF and UPF 300 may be core network devices included in CN20. The core network device and gNB200 may collectively be referred to as a network device.

 図2は、第1実施形態に係るUE100(ユーザ装置)の構成例を示す図である。UE100は、受信部110、送信部120、及び制御部130を備える。受信部110及び送信部120は、gNB200との無線通信を行う通信部を構成する。UE100は、通信装置の一例である。 FIG. 2 is a diagram showing an example configuration of UE100 (user equipment) according to the first embodiment. UE100 includes a receiver 110, a transmitter 120, and a controller 130. The receiver 110 and transmitter 120 constitute a communication unit that performs wireless communication with gNB200. UE100 is an example of a communication device.

 受信部110は、制御部130の制御下で各種の受信を行う。受信部110は、アンテナ及び受信機を含む。受信機は、アンテナが受信する無線信号をベースバンド信号(受信信号)に変換して制御部130に出力する。 The receiving unit 110 performs various types of reception under the control of the control unit 130. The receiving unit 110 includes an antenna and a receiver. The receiver converts the radio signal received by the antenna into a baseband signal (received signal) and outputs it to the control unit 130.

 送信部120は、制御部130の制御下で各種の送信を行う。送信部120は、アンテナ及び送信機を含む。送信機は、制御部130が出力するベースバンド信号(送信信号)を無線信号に変換してアンテナから送信する。 The transmitting unit 120 performs various transmissions under the control of the control unit 130. The transmitting unit 120 includes an antenna and a transmitter. The transmitter converts the baseband signal (transmission signal) output by the control unit 130 into a radio signal and transmits it from the antenna.

 制御部130は、UE100における各種の制御及び処理を行う。このような処理は、後述の各レイヤの処理を含む。制御部130は、少なくとも1つのプロセッサ及び少なくとも1つのメモリを含む。メモリは、プロセッサにより実行されるプログラム、及びプロセッサによる処理に用いられる情報を記憶する。プロセッサは、ベースバンドプロセッサと、CPU(Central Processing Unit)とを含んでもよい。ベースバンドプロセッサは、ベースバンド信号の変調・復調及び符号化・復号等を行う。CPUは、メモリに記憶されるプログラムを実行して各種の処理を行う。なお、UE100で行われる処理又は動作は、制御部130において行われてもよい。 The control unit 130 performs various types of control and processing in the UE 100. Such processing includes processing for each layer, which will be described later. The control unit 130 includes at least one processor and at least one memory. The memory stores programs executed by the processor and information used for processing by the processor. The processor may include a baseband processor and a CPU (Central Processing Unit). The baseband processor performs modulation/demodulation, encoding/decoding, etc. of baseband signals. The CPU executes programs stored in the memory to perform various types of processing. Note that the processing or operations performed by the UE 100 may be performed in the control unit 130.

 図3は、第1実施形態に係るgNB200(基地局)の構成例を示す図である。gNB200は、送信部210、受信部220、制御部230、及びバックホール通信部250を備える。送信部210及び受信部220は、UE100との無線通信を行う通信部を構成する。バックホール通信部250は、CN20との通信を行うネットワーク通信部を構成する。gNB200は、通信装置の他の例である。或いは、gNB200はネットワークノードの一例であってもよい。 Figure 3 is a diagram showing an example configuration of a gNB200 (base station) according to the first embodiment. The gNB200 comprises a transmitter 210, a receiver 220, a controller 230, and a backhaul communication unit 250. The transmitter 210 and receiver 220 constitute a communication unit that performs wireless communication with the UE100. The backhaul communication unit 250 constitutes a network communication unit that performs communication with the CN20. The gNB200 is another example of a communication device. Alternatively, the gNB200 may be an example of a network node.

 送信部210は、制御部230の制御下で各種の送信を行う。送信部210は、アンテナ及び送信機を含む。送信機は、制御部230が出力するベースバンド信号(送信信号)を無線信号に変換してアンテナから送信する。 The transmitting unit 210 performs various transmissions under the control of the control unit 230. The transmitting unit 210 includes an antenna and a transmitter. The transmitter converts the baseband signal (transmission signal) output by the control unit 230 into a radio signal and transmits it from the antenna.

 受信部220は、制御部230の制御下で各種の受信を行う。受信部220は、アンテナ及び受信機を含む。受信機は、アンテナが受信する無線信号をベースバンド信号(受信信号)に変換して制御部230に出力する。 The receiving unit 220 performs various types of reception under the control of the control unit 230. The receiving unit 220 includes an antenna and a receiver. The receiver converts the radio signal received by the antenna into a baseband signal (received signal) and outputs it to the control unit 230.

 制御部230は、gNB200における各種の制御及び処理を行う。このような処理は、後述の各レイヤの処理を含む。制御部230は、少なくとも1つのプロセッサ及び少なくとも1つのメモリを含む。メモリは、プロセッサにより実行されるプログラム、及びプロセッサによる処理に用いられる情報を記憶する。プロセッサは、ベースバンドプロセッサと、CPUとを含んでもよい。ベースバンドプロセッサは、ベースバンド信号の変調・復調及び符号化・復号等を行う。CPUは、メモリに記憶されるプログラムを実行して各種の処理を行う。なお、gNB200で行われる処理又は動作は、制御部230で行われてもよい。 The control unit 230 performs various types of control and processing in the gNB 200. Such processing includes processing for each layer, which will be described later. The control unit 230 includes at least one processor and at least one memory. The memory stores programs executed by the processor and information used in processing by the processor. The processor may include a baseband processor and a CPU. The baseband processor performs modulation/demodulation, encoding/decoding, etc. of baseband signals. The CPU executes programs stored in the memory to perform various types of processing. Note that processing or operations performed in the gNB 200 may be performed by the control unit 230.

 バックホール通信部250は、基地局間インターフェイスであるXnインターフェイスを介して隣接基地局と接続される。バックホール通信部250は、基地局-コアネットワーク間インターフェイスであるNGインターフェイスを介してAMF/UPF300と接続される。なお、gNB200は、セントラルユニット(CU)と分散ユニット(DU)とで構成され(すなわち、機能分割され)、両ユニット間がフロントホールインターフェイスであるF1インターフェイスで接続されてもよい。 The backhaul communication unit 250 is connected to adjacent base stations via an Xn interface, which is an interface between base stations. The backhaul communication unit 250 is connected to the AMF/UPF 300 via an NG interface, which is an interface between a base station and a core network. Note that the gNB 200 may be composed of a central unit (CU) and a distributed unit (DU) (i.e., functionally divided), with the two units connected via an F1 interface, which is a fronthaul interface.

 図4は、データを取り扱うユーザプレーンの無線インターフェイスのプロトコルスタックの構成例を示す図である。 Figure 4 shows an example of the protocol stack configuration for the wireless interface of the user plane that handles data.

 ユーザプレーンの無線インターフェイスプロトコルは、物理(PHY)レイヤと、媒体アクセス制御(MAC)レイヤと、無線リンク制御(RLC)レイヤと、パケットデータコンバージェンスプロトコル(PDCP)レイヤと、サービスデータアダプテーションプロトコル(SDAP)レイヤとを有する。 The user plane radio interface protocol includes a physical (PHY) layer, a medium access control (MAC) layer, a radio link control (RLC) layer, a packet data convergence protocol (PDCP) layer, and a service data adaptation protocol (SDAP) layer.

 PHYレイヤは、符号化・復号、変調・復調、アンテナマッピング・デマッピング、及びリソースマッピング・デマッピングを行う。UE100のPHYレイヤとgNB200のPHYレイヤとの間では、物理チャネルを介してデータ及び制御情報が伝送される。なお、UE100のPHYレイヤは、gNB200から物理下りリンク制御チャネル(PDCCH)上で送信される下りリンク制御情報(DCI)を受信する。具体的には、UE100は、無線ネットワーク一時識別子(RNTI)を用いてPDCCHのブラインド復号を行い、復号に成功したDCIを自UE宛てのDCIとして取得する。gNB200から送信されるDCIには、RNTIによってスクランブルされたCRC(Cyclic Redundancy Code)パリティビットが付加されている。 The PHY layer performs encoding/decoding, modulation/demodulation, antenna mapping/demapping, and resource mapping/demapping. Data and control information are transmitted between the PHY layer of UE100 and the PHY layer of gNB200 via a physical channel. The PHY layer of UE100 receives downlink control information (DCI) transmitted from gNB200 on the physical downlink control channel (PDCCH). Specifically, UE100 performs blind decoding of the PDCCH using a radio network temporary identifier (RNTI) and acquires successfully decoded DCI as DCI addressed to the UE. The DCI transmitted from gNB200 has CRC (Cyclic Redundancy Code) parity bits scrambled by the RNTI added.

 NRでは、UE100は、システム帯域幅(すなわち、セルの帯域幅)よりも狭い帯域幅を使用できる。gNB200は、連続するPRB(Physical Resource Block)からなる帯域幅部分(BWP)をUE100に設定する。UE100は、アクティブなBWPにおいてデータ及び制御信号を送受信する。UE100には、例えば、最大4つのBWPが設定可能であってもよい。各BWPは、異なるサブキャリア間隔を有していてもよい。当該各BWPは、周波数が相互に重複していてもよい。UE100に対して複数のBWPが設定されている場合、gNB200は、下りリンクにおける制御によって、どのBWPを適用するかを指定できる。これにより、gNB200は、UE100のデータトラフィックの量等に応じてUE帯域幅を動的に調整し、UE電力消費を減少させる。 In NR, UE100 can use a bandwidth narrower than the system bandwidth (i.e., the cell bandwidth). gNB200 configures UE100 with a bandwidth portion (BWP) consisting of contiguous PRBs (Physical Resource Blocks). UE100 transmits and receives data and control signals in the active BWP. UE100 may be configured with, for example, up to four BWPs. Each BWP may have a different subcarrier spacing. The BWPs may overlap in frequency. When multiple BWPs are configured for UE100, gNB200 can specify which BWP to apply by controlling the downlink. This allows gNB200 to dynamically adjust the UE bandwidth according to the amount of data traffic of UE100, etc., thereby reducing UE power consumption.

 gNB200は、例えば、サービングセル上の最大4つのBWPのそれぞれに最大3つの制御リソースセット(CORESET:control resource set)を設定できる。CORESETは、UE100が受信すべき制御情報のための無線リソースである。UE100には、サービングセル上で最大12個又はそれ以上のCORESETが設定されてもよい。各CORESETは、0乃至11又はそれ以上のインデックスを有してもよい。CORESETは、6つのリソースブロック(PRB)と、時間領域内の1つ、2つ、又は3つの連続するOFDM(Orthogonal Frequency Division Multiplex)シンボルとにより構成されてもよい。 For example, gNB200 can configure up to three control resource sets (CORESETs) for each of up to four BWPs on the serving cell. A CORESET is a radio resource for control information to be received by UE100. Up to 12 or more CORESETs may be configured on the serving cell for UE100. Each CORESET may have an index of 0 to 11 or more. A CORESET may consist of six resource blocks (PRBs) and one, two, or three consecutive Orthogonal Frequency Division Multiplex (OFDM) symbols in the time domain.

 MACレイヤは、データの優先制御、ハイブリッドARQ(HARQ:Hybrid Automatic Repeat reQuest)による再送処理、及びランダムアクセスプロシージャ等を行う。UE100のMACレイヤとgNB200のMACレイヤとの間では、トランスポートチャネルを介してデータ及び制御情報が伝送される。gNB200のMACレイヤはスケジューラを含む。スケジューラは、上下リンクのトランスポートフォーマット(トランスポートブロックサイズ、変調・符号化方式(MCS:Modulation and Coding Scheme))及びUE100への割当リソースブロックを決定する。 The MAC layer performs data priority control, retransmission processing using Hybrid Automatic Repeat reQuest (HARQ), random access procedures, etc. Data and control information are transmitted between the MAC layer of UE100 and the MAC layer of gNB200 via a transport channel. The MAC layer of gNB200 includes a scheduler. The scheduler determines the uplink and downlink transport format (transport block size, modulation and coding scheme (MCS)) and the resource blocks to be allocated to UE100.

 RLCレイヤは、MACレイヤ及びPHYレイヤの機能を利用してデータを受信側のRLCレイヤに伝送する。UE100のRLCレイヤとgNB200のRLCレイヤとの間では、論理チャネルを介してデータ及び制御情報が伝送される。 The RLC layer uses the functions of the MAC layer and PHY layer to transmit data to the RLC layer on the receiving side. Data and control information are transmitted between the RLC layer of UE100 and the RLC layer of gNB200 via logical channels.

 PDCPレイヤは、ヘッダ圧縮・伸張、及び暗号化・復号化等を行う。 The PDCP layer performs header compression/decompression, encryption/decryption, etc.

 SDAPレイヤは、コアネットワークがQoS(Quality of Service)制御を行う単位であるIPフローとアクセス層(AS:Access Stratum)がQoS制御を行う単位である無線ベアラとのマッピングを行う。なお、RANがEPCに接続される場合は、SDAPが無くてもよい。 The SDAP layer maps IP flows, which are the units by which the core network controls QoS (Quality of Service), to radio bearers, which are the units by which the access stratum (AS) controls QoS. Note that if the RAN is connected to the EPC, SDAP is not necessary.

 図5は、シグナリング(制御信号)を取り扱う制御プレーンの無線インターフェイスのプロトコルスタックの構成を示す図である。 Figure 5 shows the protocol stack configuration of the radio interface of the control plane, which handles signaling (control signals).

 制御プレーンの無線インターフェイスのプロトコルスタックは、図4に示したSDAPレイヤに代えて、無線リソース制御(RRC)レイヤ及び非アクセス層(NAS:Non-Access Stratum)を有する。 The protocol stack for the radio interface of the control plane includes a Radio Resource Control (RRC) layer and a Non-Access Stratum (NAS) instead of the SDAP layer shown in Figure 4.

 UE100のRRCレイヤとgNB200のRRCレイヤとの間では、各種設定のためのRRCシグナリングが伝送される。RRCレイヤは、無線ベアラの確立、再確立及び解放に応じて、論理チャネル、トランスポートチャネル、及び物理チャネルを制御する。UE100のRRCとgNB200のRRCとの間にコネクション(RRCコネクション)がある場合、UE100はRRCコネクティッド状態にある。UE100のRRCとgNB200のRRCとの間にコネクション(RRCコネクション)がない場合、UE100はRRCアイドル状態にある。UE100のRRCとgNB200のRRCとの間のコネクションがサスペンドされている場合、UE100はRRCインアクティブ状態にある。 RRC signaling for various settings is transmitted between the RRC layer of UE100 and the RRC layer of gNB200. The RRC layer controls logical channels, transport channels, and physical channels in accordance with the establishment, re-establishment, and release of radio bearers. When there is a connection (RRC connection) between the RRC of UE100 and the RRC of gNB200, UE100 is in the RRC connected state. When there is no connection (RRC connection) between the RRC of UE100 and the RRC of gNB200, UE100 is in the RRC idle state. When the connection between the RRC of UE100 and the RRC of gNB200 is suspended, UE100 is in the RRC inactive state.

 RRCレイヤよりも上位に位置するNASは、セッション管理及びモビリティ管理等を行う。UE100のNASとAMF300のNASとの間では、NASシグナリングが伝送される。なお、UE100は、無線インターフェイスのプロトコル以外にアプリケーションレイヤ等を有する。また、NASよりも下位のレイヤをAS(Access Stratum)と呼ぶ。 The NAS, which is located above the RRC layer, performs session management, mobility management, etc. NAS signaling is transmitted between the NAS of UE100 and the NAS of AMF300. In addition to the radio interface protocol, UE100 also has an application layer, etc. The layer below the NAS is called the AS (Access Stratum).

 (AI/ML技術)
 次に、実施形態に係るAI/ML技術について説明する。図6は、第1実施形態に係る移動通信システム1におけるAI/ML技術の機能ブロックの構成例を示す図である。
(AI/ML technology)
Next, the AI/ML technology according to the embodiment will be described. Fig. 6 is a diagram showing an example of the configuration of functional blocks of the AI/ML technology in the mobile communication system 1 according to the first embodiment.

 図6に示す機能のブロック構成例は、データ収集部(Data Collection)A1と、モデル学習部(Model Training)A2と、モデル推論部(Inference)A3と、管理部(Management)A5と、モデル記録部(Model Strage)A6とを有する。 The functional block configuration example shown in Figure 6 includes a data collection unit (Data Collection) A1, a model training unit (Model Training) A2, a model inference unit (Inference) A3, a management unit (Management) A5, and a model storage unit (Model Storage) A6.

 図6に示す機能ブロック構成例は、一般的なAI/ML技術の機能的な枠組みを表している。従って、仮想的なユースケースによっては、機能ブロック構成例の一部(例えばモデル記録部A6など)が機能ブロック構成例に含まれない場合もあり得る。また、図6に示す機能ブロック構成例は、UE100とネットワーク側の装置とで分散して配置されてもよい。或いは、機能ブロック構成例は、一部の機能(例えばモデル学習部A2又はモデル推論部A3など)がUE100とネットワーク側の装置の双方に配置されてもよい。 The example functional block configuration shown in Figure 6 represents the functional framework of general AI/ML technology. Therefore, depending on the hypothetical use case, some of the example functional block configuration (such as the model recording unit A6) may not be included in the example functional block configuration. Furthermore, the example functional block configuration shown in Figure 6 may be distributed between the UE 100 and the network-side device. Alternatively, some functions of the example functional block configuration (such as the model learning unit A2 or model inference unit A3) may be located in both the UE 100 and the network-side device.

 データ収集部A1は、モデル学習部A2とモデル推論部A3と管理部A5とに対して、入力データを提供する。入力データは、モデル学習部A2に対する学習用データ(Training Data)と、モデル推論部A3に対する推論用データ(Inference Data)と、管理部A5に対するモニタリング用データ(Monitoring Data)とがある。 The data collection unit A1 provides input data to the model learning unit A2, the model inference unit A3, and the management unit A5. The input data includes training data for the model learning unit A2, inference data for the model inference unit A3, and monitoring data for the management unit A5.

 学習用データは、AI/MLモデルが学習を行うときに、入力に必要なデータとなる。また、推論用データは、AI/MLモデルが推論を行うときに、入力に必要なデータとなる。更に、モニタリング用データは、AI/MLモデルの管理の際に入力に必要なデータとなる。 Learning data is data that is required as input when an AI/ML model is learning. Inference data is data that is required as input when an AI/ML model is making inferences. Monitoring data is data that is required as input when managing an AI/ML model.

 なお、データ収集(Data collection)とは、例えば、AI/MLモデルの学習、AI/MLモデルの管理、及びAI/MLモデルの推論を行うため、ネットワークノード、管理エンティティ、又はUE100においてデータを収集するプロセスのことであってもよい。 Note that data collection may refer to the process of collecting data in a network node, management entity, or UE 100, for example, to train an AI/ML model, manage an AI/ML model, and perform inference on an AI/ML model.

 モデル学習部A2は、AI/MLモデル学習(AI/ML model training)、AI/MLモデル検証(AI/ML model validation)、及びAI/MLモデルテスト(AI/ML model testing)を行う。 The model training unit A2 performs AI/ML model training, AI/ML model validation, and AI/ML model testing.

 AI/MLモデル学習とは、入出力の関係からAI/MLモデルを学習させ、推論に利用される学習済AI/MLモデル(trained AI/ML model)を得るプロセスのことである。例えば、
 y=ax+b
で考えると、入力(x)と出力(y)とを与えることで(すなわち、学習用データを与えること)、a(傾き)及びb(切片)を最適化していくプロセスが、AI/MLモデル学習であってもよい。
AI/ML model training is the process of learning an AI/ML model from input/output relationships to obtain a trained AI/ML model that can be used for inference. For example,
y = ax + b
In this sense, the process of optimizing a (slope) and b (intercept) by providing input (x) and output (y) (i.e., providing learning data) may be AI/ML model learning.

 一般的に、機械学習には、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、及び強化学習(reinforcement learning)がある。教師あり学習は、学習用データに正解データを用いる方法である。教師なし学習は、学習用データに正解データを用いない方法である。例えば、教師なし学習では、大量の学習用データから特徴点を覚え、正解の判断(範囲の推定)を行う。強化学習は、出力結果にスコアを付けて、スコアを最大化する方法を学習する方法である。以下では、教師あり学習について説明するが、機械学習としては、教師なし学習が適用されてもよいし、強化学習が適用されてもよい。 Generally, machine learning is divided into supervised learning, unsupervised learning, and reinforcement learning. Supervised learning is a method that uses correct answer data for training data. Unsupervised learning is a method that does not use correct answer data for training data. For example, unsupervised learning memorizes feature points from large amounts of training data and determines the correct answer (estimates the range). Reinforcement learning is a method that assigns a score to the output result and learns how to maximize the score. Supervised learning is explained below, but either unsupervised learning or reinforcement learning can also be applied to machine learning.

 モデル学習部A2は、AI/MLモデル学習により得られた学習済AI/MLモデル(Trained Model)をモデル記録部A6へ出力する、また、モデル学習部A2は、学習済AI/MLモデルの再学習により得られた更新済AI/MLモデル(Updated Model)をモデル記録部A6へ出力する。 The model learning unit A2 outputs the trained AI/ML model (Trained Model) obtained by AI/ML model learning to the model recording unit A6. The model learning unit A2 also outputs the updated AI/ML model (Updated Model) obtained by relearning the trained AI/ML model to the model recording unit A6.

 なお、以下では、AI/MLモデル学習を「モデル学習」又は「学習」と称する場合がある。 In the following, AI/ML model learning may be referred to as "model learning" or "learning."

 モデル推論部A3は、AI/MLモデル推論を行う。具体的には、モデル推論部A3は、データ収集部A1から提供された推論用データを、学習済AI/MLモデル(又は更新済AI/MLモデル)に適用して、推論出力データ(Inference Output)を得る。例えば、
 y=ax+b
で考えると、xが推論用データであって、yが推論出力データに相当する。なお、「y=ax+b」はAI/MLモデルである。傾き及び切片が最適化されたモデル、例えば「y=5x+3」は学習済みAI/MLモデルである。ここで、モデルの手法(approach)は様々であり、線形回帰分析、ニューラルネットワーク、決定木分析などがある。上記の「y=ax+b」は線形回帰分析の一種と考えることもできる。
The model inference unit A3 performs AI/ML model inference. Specifically, the model inference unit A3 applies the inference data provided by the data collection unit A1 to the trained AI/ML model (or the updated AI/ML model) to obtain inference output data (Inference Output). For example,
y = ax + b
In this case, x corresponds to the inference data and y corresponds to the inference output data. Note that "y = ax + b" is an AI/ML model. A model with optimized slope and intercept, for example, "y = 5x + 3", is a trained AI/ML model. There are various model approaches, including linear regression analysis, neural networks, and decision tree analysis. The above "y = ax + b" can also be considered a type of linear regression analysis.

 モデル推論部A3は、推論出力データを管理部A5へ出力する。また、モデル推論部A3は、管理部A5から管理指示を受け付ける。例えば、管理指示として、AI/MLモデルの選択、AI/MLモデルのアクティベーション(ディアクティベーション)、AI/MLモデルの切替え、及びフォールバック(AI/MLモデルを使用しないで推論を行うこと)などがある。モデル推論部A3は、管理指示に従って、モデル推論を行う。 The model inference unit A3 outputs inference output data to the management unit A5. The model inference unit A3 also receives management instructions from the management unit A5. For example, management instructions include selecting an AI/ML model, activating (deactivating) an AI/ML model, switching between AI/ML models, and fallback (performing inference without using an AI/ML model). The model inference unit A3 performs model inference in accordance with the management instructions.

 なお、AI/MLモデル推論とは、例えば、学習済AI/MLモデル(又は更新済AI/MLモデル)を用いて、入力の集合から出力の集合を得るプロセスのことである。或いは、モデル推論は、学習済AI/MLモデル(又は更新済AI/MLモデル)を用いて推論用データから推論出力データを得るプロセスであってもよい。以下は、AI/MLモデル推論を、「モデル推論」又は「推論」と称する場合がある。 Note that AI/ML model inference is, for example, the process of obtaining a set of outputs from a set of inputs using a trained AI/ML model (or an updated AI/ML model). Alternatively, model inference may be the process of obtaining inference output data from inference data using a trained AI/ML model (or an updated AI/ML model). Below, AI/ML model inference may be referred to as "model inference" or "inference."

 なお、以下では、学習中(又は更新中)のAI/MLモデルを、学習中AI/MLモデル(Training AI/ML model)(又は(Updating AI/ML Model))と称する場合がある。また、以下では、学習中(又は更新中)AI/MLモデルと、学習済(又は更新済)AI/MLモデルとを区別しない場合は、単に、「AI/MLモデル」と称する場合がある。 In the following, an AI/ML model that is currently being trained (or updated) may be referred to as a training AI/ML model (or an updating AI/ML model). In the following, when there is no need to distinguish between a training (or updating) AI/ML model and a trained (or updated) AI/ML model, they may simply be referred to as an "AI/ML model."

 管理部A5は、AI/MLモデルに対する動作(選択、アクティベーション、ディアクティベーション、切替え、フォールバックなど)を監督する。また、管理部A5は、AI/MLモデルに対するモニタリングを監督する。管理部A5は、モニタリング用データ及び推論出力データに基づいて、適切な推論動作を保証するための動作を行うこともできる。そのため、管理部A5は、モデル転送及び/又はモデル配送要求(Model Transfer/Deliverly Request)をモデル記録部A6へ出力し、モデル記録部A6に記録された学習済(又は更新済)AI/MLモデルをモデル推論部A3へ出力させる。また、管理部A5は、管理指示をモデル推論部A3へ出力し、AI/MLモデルに対する動作を監督する。更に、管理部A5は、性能フィードバック及び再学習要求をモデル学習部A2へ出力し、モデル学習部A2において、AI/MLモデルの再学習(すなわち、学習済AI/MLモデルの更新)を行わせるようにすることも可能である。 The management unit A5 supervises operations on the AI/ML model (selection, activation, deactivation, switching, fallback, etc.). The management unit A5 also supervises monitoring of the AI/ML model. The management unit A5 can also perform operations to ensure appropriate inference operations based on monitoring data and inference output data. To this end, the management unit A5 outputs a model transfer and/or model delivery request (Model Transfer/Delivery Request) to the model recording unit A6, and causes the trained (or updated) AI/ML model recorded in the model recording unit A6 to be output to the model inference unit A3. The management unit A5 also outputs management instructions to the model inference unit A3 and supervises operations on the AI/ML model. Furthermore, the management unit A5 can output performance feedback and a re-learning request to the model learning unit A2, causing the model learning unit A2 to re-learn the AI/ML model (i.e., update the learned AI/ML model).

 図7は、第1実施形態に係るAI/ML技術における動作例を表す図である。 Figure 7 shows an example of the operation of the AI/ML technology according to the first embodiment.

 図7において、送信エンティティTEは、モデル推論を行い、推論出力データを、受信エンティティREへ送信することが可能なエンティティのことである。一方、受信エンティティREは、推論出力データを送信エンティティTEから受信することが可能なエンティティである。モデル学習は、送信エンティティTEで行われてもよい。当該モデル学習は、受信エンティティREで行われてもよい。モデル学習が受信エンティティREで行われる場合、学習済AI/MLモデルが受信エンティティREから送信エンティティTEへ送信されてもよい。 In FIG. 7, the transmitting entity TE is an entity capable of performing model inference and transmitting inference output data to the receiving entity RE. On the other hand, the receiving entity RE is an entity capable of receiving inference output data from the transmitting entity TE. Model training may be performed in the transmitting entity TE. The model training may also be performed in the receiving entity RE. When model training is performed in the receiving entity RE, the trained AI/ML model may be transmitted from the receiving entity RE to the transmitting entity TE.

 なお、エンティティとは、例えば、装置であってもよい。当該エンティティとは、装置に含まれる機能ブロックであってもよい。当該エンティティとは、装置に含まれるハードウェアブロックであってもよい。 Note that an entity may be, for example, a device. The entity may also be a functional block included in the device. The entity may also be a hardware block included in the device.

 例えば、送信エンティティTEはUE100であり、受信エンティティREはgNB200又はコアネットワーク装置であってもよい。或いは、送信エンティティTEはgNB200又はコアネットワーク装置であり、受信エンティティREはUE100でもよい。 For example, the transmitting entity TE may be UE100, and the receiving entity RE may be gNB200 or a core network device. Alternatively, the transmitting entity TE may be gNB200 or a core network device, and the receiving entity RE may be UE100.

 図7に示すように、ステップS1において、送信エンティティTEは、AI/ML技術に関する制御データを受信エンティティREへ送信したり、当該制御データを受信エンティティREから受信したりする。制御データは、RRCレイヤ(すなわち、レイヤ3)のシグナリングであるRRCメッセージであってもよい。当該制御データは、MACレイヤ(すなわち、レイヤ2)のシグナリングであるMAC CE(Control Element)であってもよい。当該制御データは、PHYレイヤ(すなわち、レイヤ1)のシグナリングである下りリンク制御情報(DCI:Downlink Control Information)であってもよい。下りリンクシグナリングは、UE個別シグナリングであってもよい。当該下りリンクシグナリングは、ブロードキャストシグナリングであってもよい。制御データは、人工知能又は機械学習に特化した制御層(例えばAI/MLレイヤ)における制御メッセージであってもよい。或いは、制御データは、NASレイヤのNASメッセージであってもよい。制御データには、管理部A5からモデル学習部A2へ送信される、性能フィードバック要求及び/又は再学習要求が含まれてもよい。或いは、制御データには、管理部A5からモデル記録部A6へ送信される、モデル転送要求及び/又はモデル配送要求が含まれてもよい。或いは、制御データには、管理部A5からモデル推論部A3へ送信される、管理指示が含まれ得てもよい。 As shown in FIG. 7, in step S1, the transmitting entity TE transmits control data related to AI/ML technology to the receiving entity RE and receives the control data from the receiving entity RE. The control data may be an RRC message, which is signaling of the RRC layer (i.e., layer 3). The control data may be a MAC Control Element (CE), which is signaling of the MAC layer (i.e., layer 2). The control data may be downlink control information (DCI), which is signaling of the PHY layer (i.e., layer 1). The downlink signaling may be UE-specific signaling. The downlink signaling may be broadcast signaling. The control data may be a control message in a control layer (e.g., the AI/ML layer) specialized for artificial intelligence or machine learning. Alternatively, the control data may be a NAS message in the NAS layer. The control data may include a performance feedback request and/or a re-learning request sent from the management unit A5 to the model learning unit A2. Alternatively, the control data may include a model transfer request and/or a model delivery request sent from the management unit A5 to the model recording unit A6. Alternatively, the control data may include a management instruction sent from the management unit A5 to the model inference unit A3.

 (配置例とユースケース)
 次に、図6に示す各機能ブロックが移動通信システム1においてどのように配置されるかについて説明する。以下では、各機能ブロックの配置例を具体的なユースケースに沿って説明する。
(Deployment examples and use cases)
Next, a description will be given of how the functional blocks shown in Fig. 6 are arranged in the mobile communication system 1. Below, an example of the arrangement of the functional blocks will be described along with a specific use case.

 AI/ML技術で適用されるユースケースとして、例えば、以下の3つがある。 For example, there are three use cases where AI/ML technology can be applied:

 (X1.1)「CSI(Channel State Information)フィードバック向上(CSI feedback enhancement)」 (X1.1) "CSI (Channel State Information) Feedback Enhancement"

 (X1.2)「ビーム管理(Beam management)」 (X1.2) "Beam Management"

 (X1.3)「位置精度向上(Positioning accuracy enhancement)」 (X1.3) “Positioning accuracy enhancement”

 (X1.1)「CSIフィードバック向上」における機能ブロックの配置例
 「CSIフィードバック向上」は、例えば、UE100からgNB200へフィードバックされるCSIにAI/ML技術を適用した場合のユースケースを表している。CSIは、UE100とgNB200との間の下りリンクにおけるチャネル状態に関する情報である。CSIには、チャネル品質インジケータ(CQI:Channel Quality Indicator)、プリコーディング行列インジケータ(PMI:Precoding Matrix Indicator)、及びランクインジケータ(RI:Rank Indicator)のうち少なくとも1つが含まれる。gNB200は、UE100からCSIフィードバックに基づいて、例えば、下りリンクのスケジューリングを行う。
(X1.1) Example of functional block arrangement in "CSI feedback improvement""CSI feedback improvement" represents a use case in which AI/ML technology is applied to CSI fed back from UE100 to gNB200, for example. CSI is information about the channel state in the downlink between UE100 and gNB200. The CSI includes at least one of a channel quality indicator (CQI), a precoding matrix indicator (PMI), and a rank indicator (RI). The gNB200 performs, for example, downlink scheduling based on the CSI feedback from UE100.

 図8は、「CSIフィードバック向上」における各機能ブロックの配置例を表す図である。図8に示す「CSIフィードバック向上」の例では、データ収集部A1とモデル学習部A2とモデル推論部A3とが、UE100の制御部130に含まれる。一方、データ処理部A4は、gNB200の制御部230に含まれる。すなわち、UE100においてモデル学習とモデル推論とが行われる。図8は、送信エンティティTEがUE100であり、受信エンティティREがgNB200である例を表している。 Figure 8 is a diagram showing an example of the arrangement of each functional block in "CSI feedback improvement." In the example of "CSI feedback improvement" shown in Figure 8, the data collection unit A1, model learning unit A2, and model inference unit A3 are included in the control unit 130 of the UE 100. On the other hand, the data processing unit A4 is included in the control unit 230 of the gNB 200. In other words, model learning and model inference are performed in the UE 100. Figure 8 shows an example in which the transmitting entity TE is the UE 100 and the receiving entity RE is the gNB 200.

 「CSIフィードバック向上」において、gNB200は、下りリンクのチャネル状態をUE100が推定するための参照信号を送信する。参照信号として、以下では、CSI参照信号(CSI-RS)を例にして説明するが、参照信号は復調参照信号(DMRS)であってもよい。 In "improved CSI feedback," the gNB 200 transmits a reference signal for the UE 100 to estimate the downlink channel state. The following describes the reference signal using a CSI reference signal (CSI-RS) as an example, but the reference signal may also be a demodulation reference signal (DMRS).

 第1に、モデル学習において、UE100(受信部110)は、第1リソースを用いてgNB200からの第1参照信号を受信する。そして、UE100(モデル学習部A2)は、第1参照信号とCSIとを含む学習用データを用いて、参照信号からCSIを推論するための学習済みモデルを導出する。このような第1参照信号をフルCSI-RSと称することがある。 First, in model learning, UE100 (receiving unit 110) receives a first reference signal from gNB200 using a first resource. Then, UE100 (model learning unit A2) uses learning data including the first reference signal and CSI to derive a learned model for inferring CSI from the reference signal. Such a first reference signal is sometimes referred to as a full CSI-RS.

 例えば、CSI生成部131は、受信部110が受信した受信信号(CSI-RS)を用いてチャネル推定を行い、CSIを生成する。送信部120は、生成されたCSIをgNB200に送信する。モデル学習部A2は、受信信号(CSI-RS)とCSIとのセットを学習用データとしてモデル学習を行い、受信信号(CSI-RS)からCSIを推論するための学習済みモデルを導出する。 For example, the CSI generation unit 131 performs channel estimation using the received signal (CSI-RS) received by the receiving unit 110 to generate CSI. The transmitting unit 120 transmits the generated CSI to the gNB 200. The model learning unit A2 performs model learning using a set of the received signal (CSI-RS) and CSI as learning data, and derives a learned model for inferring CSI from the received signal (CSI-RS).

 第2に、モデル推論において、受信部110は、第1リソースよりも少ない第2リソースを用いてgNB200からの第2参照信号を受信する。そして、モデル推論部A3は、学習済みモデルを用いて、第2参照信号を推論用データとして、推論結果データとしてCSIを推論する。以下では、このような第2参照信号を部分的なCSI-RS又はパンクチャされたCSI-RSと称することがある。 Second, in model inference, the receiver 110 receives a second reference signal from the gNB 200 using second resources that are fewer than the first resources. Then, the model inference unit A3 uses the trained model to infer CSI as inference result data using the second reference signal as inference data. Hereinafter, such a second reference signal may be referred to as a partial CSI-RS or a punctured CSI-RS.

 例えば、モデル推論部A3は、受信部110が受信した部分的なCSI-RSを推論用データとして学習済みモデルに入力させ、当該CSI-RSからCSIを推論する。送信部120は、推論されたCSIをgNB200に送信する。 For example, the model inference unit A3 inputs the partial CSI-RS received by the receiver 110 as inference data into the trained model and infers CSI from the CSI-RS. The transmitter 120 transmits the inferred CSI to the gNB 200.

 これにより、UE100は、gNB200から受信した少ないCSI-RS(部分的なCSI-RS)から、正確な(完全な)CSIをgNB200にフィードバック(又は送信)することが可能になる。例えば、gNB200は、オーバーヘッド削減のために意図時にCSI-RSを削減(パンクチャ)可能になる。また、無線状況が悪化し、一部のCSI-RSが正常に受信できない状況にUE100が対応可能になる。 This enables UE100 to feed back (or transmit) accurate (complete) CSI to gNB200 from the limited CSI-RS (partial CSI-RS) received from gNB200. For example, gNB200 can reduce (puncture) CSI-RS when intended to reduce overhead. It also enables UE100 to respond to situations where the radio conditions deteriorate and some CSI-RS cannot be received normally.

 図9は、第1実施形態に係る「CSIフィードバック向上」における動作例を表す図である。 Figure 9 shows an example of operation for "CSI feedback improvement" according to the first embodiment.

 図9に示すように、ステップS10において、gNB200は、推論モード時のCSI-RSの送信パターン(パンクチャパターン)を、制御データとしてUE100へ通知又は設定してもよい。例えば、gNB200は、推論モード時にCSI-RSを送信する又は送信しないアンテナポート及び/又は時間周波数リソースをUE100へ送信する。 As shown in FIG. 9, in step S10, gNB200 may notify or set the CSI-RS transmission pattern (puncture pattern) in inference mode to UE100 as control data. For example, gNB200 transmits to UE100 the antenna ports and/or time-frequency resources that will or will not transmit CSI-RS in inference mode.

 ステップS11において、gNB200は、UE100に対して学習モードを開始させるための切り替え通知を送信してもよい。 In step S11, gNB200 may send a switching notification to UE100 to start learning mode.

 ステップS12において、UE100は、学習モードを開始する。 In step S12, UE100 starts learning mode.

 ステップS13において、gNB200は、フルCSI-RSを送信する。UE100の受信部110は、フルCSI-RSを受信し、CSI生成部131は、当該フルCSI-RSに基づいてCSIを生成(又は推定)する。学習モードにおいて、データ収集部A1では、フルCSI-RSとCSIとを収集する。モデル学習部A2では、当該フルCSI-RSと当該CSIとを学習用データとして、学習済AI/MLモデルを作成する。 In step S13, gNB200 transmits full CSI-RS. UE100's receiver 110 receives the full CSI-RS, and CSI generator 131 generates (or estimates) CSI based on the full CSI-RS. In learning mode, data collector A1 collects full CSI-RS and CSI. Model learning unit A2 uses the full CSI-RS and CSI as learning data to create a learned AI/ML model.

 ステップS14において、UE100は、生成したCSIをgNB200へ送信する。 In step S14, UE100 transmits the generated CSI to gNB200.

 その後、ステップS15において、UE100は、モデル学習が完了した際に、モデル学習が完了した旨の完了通知をgNB200へ送信する。UE100は、学習済モデルの作成が完了したときに完了通知を送信してもよい。 Then, in step S15, when the model learning is completed, UE100 transmits a completion notification to gNB200 indicating that the model learning is completed. UE100 may also transmit a completion notification when the creation of the trained model is completed.

 ステップS16において、gNB200は、完了通知を受信したことに応じて、UE100に対して学習モードから推論モードへ切り替えるための切り替え通知をUE100へ送信する。 In step S16, in response to receiving the completion notification, gNB200 transmits a switching notification to UE100 to switch from learning mode to inference mode.

 ステップS17において、UE100は、切り替え通知を受信したことに応じて、学習モードから推論モードへ切り替える。 In step S17, in response to receiving the switching notification, UE100 switches from learning mode to inference mode.

 ステップS18において、gNB200は、部分的なCSI-RSを送信する。UE100の受信部110は、部分的なCSI-RSを受信する。推論モードにおいて、データ収集部A1では、部分的なCSI-RSを収集する。モデル推論部A3では、部分的なCSI-RSを推論用データとして、学習済モデルに入力させ、推論結果としてCSIを得る。 In step S18, gNB200 transmits partial CSI-RS. Receiver 110 of UE100 receives the partial CSI-RS. In inference mode, data collector A1 collects the partial CSI-RS. Model inference unit A3 inputs the partial CSI-RS as inference data into the trained model, and obtains CSI as the inference result.

 ステップS19において、UE100は、推論結果であるCSIを推論結果データとして、gNB200へフィードバック(又は送信)する。UE100では、学習モードの際にモデル学習を繰り返すことで、所定精度以上の学習済みモデルを生成することができる。そのように生成した学習済みモデルを用いた推論結果も所定精度以上になることが予想される。 In step S19, UE100 feeds back (or transmits) the CSI, which is the inference result, to gNB200 as inference result data. UE100 can generate a trained model with a predetermined accuracy or higher by repeating model learning during learning mode. It is expected that the inference results using the trained model generated in this way will also have a predetermined accuracy or higher.

 なお、ステップS20において、UE100は、モデル学習が必要であると自身で判断した場合、モデル学習が必要である旨を表す通知を制御データとしてgNB200へ送信してもよい。 In addition, in step S20, if UE100 determines by itself that model learning is necessary, it may transmit a notification indicating that model learning is necessary to gNB200 as control data.

 図9に示す例において、学習用データは「(フル)CSI-RS」及び「CSI」であり、推論用データは「(部分的な)CSI-RS」である例について説明した。以下では、学習用データ及び/又は推論用データを、「データセット」と称する場合がある。 In the example shown in Figure 9, the training data is "(full) CSI-RS" and "CSI," and the inference data is "(partial) CSI-RS." Hereinafter, the training data and/or the inference data may be referred to as a "dataset."

 「CSIフィードバック向上」においては、データセットとして、「CSI-RS」及び「CSI」以外にも、例えば、以下に示すデータ又は情報の少なくともいずれかが用いられてもよい。 In "CSI Feedback Improvement," in addition to "CSI-RS" and "CSI," at least one of the following data or information may also be used as a data set:

 (Y1)RSRP(Reference Signals Received Power)、RSRQ(Reference Signal Received Quality)、SINR(Signal-to-interference-plus-noise ratio)、又はADコンバータの出力波形(これらの測定対象は、CSI-RSでもよい。これらの測定対象は、gNB200から受信した他の受信信号でもよい。) (Y1) RSRP (Reference Signals Received Power), RSRQ (Reference Signal Received Quality), SINR (Signal-to-Interference-plus-Noise Ratio), or AD converter output waveform (These measurements may be CSI-RS. These measurements may also be other received signals received from gNB200.)

 (Y2)ビット誤り率(BER:Bit Error Rate)、又はブロック誤り率(BLER:Block Error Rate)(全送信ビット数(又は全送信ブロック数)を既知として、CSI-RSに基づいて、BER(又はBLER)が測定されてもよい。) (Y2) Bit error rate (BER) or block error rate (BLER) (BER (or BLER) may be measured based on CSI-RS, assuming the total number of transmitted bits (or total number of transmitted blocks) is known.)

 (Y3)UE100の移動速度(UE100内の速度センサにより測定されてもよい。)
 機械学習に用いられるデータセットとして何が用いられるのかが設定されてもよい。例えば、以下のような処理が行われてもよい。すなわち、UE100は、どの種別の入力データを自身において機械学習において取り扱い可能かを示す能力情報を制御データとしてgNB200へ送信する。能力情報は、例えば、(Y1)から(Y3)に示すデータ又は情報のいずれかを表してもよい。能力情報は、学習用データと推論用データとが別々に指定された情報となっていてもよい。そして、gNB200は、データセットとして用いられるデータ種別情報を制御データとしてUE100へ送信する。データ種別情報は、例えば、(Y1)から(Y3)に示すデータ又は情報のいずれを表してもよい。また、データ種別情報は、学習用データとして用いられるデータ種別情報と、推論用データとして用いられるデータ種別情報とを別々に指定されてもよい。
(Y3) Moving speed of UE 100 (may be measured by a speed sensor in UE 100)
It may be set what is used as the dataset used in machine learning. For example, the following processing may be performed. That is, UE100 transmits capability information indicating what type of input data it can handle in machine learning to gNB200 as control data. The capability information may represent, for example, any of the data or information shown in (Y1) to (Y3). The capability information may be information in which learning data and inference data are separately specified. Then, gNB200 transmits data type information to be used as the dataset to UE100 as control data. The data type information may represent, for example, any of the data or information shown in (Y1) to (Y3). Furthermore, the data type information may separately specify data type information used as learning data and data type information used as inference data.

 以上、(X1.1)「CSIフィードバック」における機能ブロックの配置例について説明した。上述した配置例は一例であって、3GPPにおいては、機能ブロックの配置例については検討段階である。また、(X1.2)「ビーム管理」及び(X1.3)「位置精度向上」についても、検討段階であることは同様である。 The above describes an example of the functional block layout in (X1.1) "CSI Feedback." The above layout example is just one example, and in 3GPP, functional block layout examples are still under consideration. Similarly, (X1.2) "Beam Management" and (X1.3) "Position Accuracy Improvement" are also still under consideration.

 (X1.4)モデル転送例
 次に、AI/MLモデルの転送(Model Transfer)について説明する。なお、AI/MLモデルの転送とAI/MLモデルの配送(Model Deliverly)とは同じ意味で説明する。
(X1.4) Example of Model Transfer Next, we will explain the transfer of an AI/ML model (Model Transfer). Note that the terms "transfer of an AI/ML model" and "delivery of an AI/ML model" have the same meaning.

 (X1.4.1)モデル転送に関する第1動作パターン
 図10は、第1実施形態に係るモデル転送に関する第1動作パターンの動作例を表す図である。図10に示す例では、受信エンティティREが主としてUE100であるものとして説明するが、受信エンティティREはgNB200又はAMF300であってもよい。また、図10に示す例では、送信エンティティTEがgNB200であるものとして説明するが、送信エンティティTEはUE100又はAMF300であってもよい。
(X1.4.1) First operation pattern related to model forwarding Figure 10 is a diagram showing an example of an operation of the first operation pattern related to model forwarding according to the first embodiment. In the example shown in Figure 10, the receiving entity RE will be described as mainly being the UE 100, but the receiving entity RE may be the gNB 200 or the AMF 300. Also, in the example shown in Figure 10, the transmitting entity TE will be described as being the gNB 200, but the transmitting entity TE may be the UE 100 or the AMF 300.

 図10に示すように、ステップS25において、gNB200は、学習処理に関する実行能力を示す情報要素(IE)を含むメッセージの送信を要求するための能力問合せメッセージをUE100に送信する。UE100は、当該能力問合せメッセージを受信する。但し、gNB200は、学習処理の実行を行う場合(実行を行うと判断した場合)に、当該能力問い合わせメッセージを送信してもよい。 As shown in FIG. 10, in step S25, gNB200 transmits a capability inquiry message to UE100 to request transmission of a message including an information element (IE) indicating the execution capability for the learning process. UE100 receives the capability inquiry message. However, gNB200 may also transmit the capability inquiry message when it executes the learning process (when it determines that it will execute the learning process).

 ステップS26において、UE100は、学習処理に関する実行能力(別の観点では、学習処理に関する実行環境)を示す情報要素を含むメッセージをgNB200に送信する。gNB200は、当該メッセージを受信する。当該メッセージは、RRCメッセージ(例えば、「UE Capability」メッセージ、又は新たに規定されるメッセージ(例えば、「UE AI Capability」メッセージ等))であってもよい。或いは、送信エンティティTEがAMF300であって、当該メッセージがNASメッセージであってもよい。或いは、学習処理(AI/ML処理)を実行又は制御するための新たなレイヤが規定される場合、当該メッセージは、当該新たなレイヤのメッセージであってもよい。 In step S26, UE100 transmits a message to gNB200 that includes information elements indicating its execution capability for the learning process (or, from another perspective, the execution environment for the learning process). gNB200 receives the message. The message may be an RRC message (e.g., a "UE Capability" message or a newly defined message (e.g., a "UE AI Capability" message, etc.)). Alternatively, the transmitting entity TE may be AMF300, and the message may be a NAS message. Alternatively, if a new layer is defined for performing or controlling the learning process (AI/ML process), the message may be a message of the new layer.

 学習処理に関する実行能力を示す情報要素は、学習処理を実行するためのプロセッサの能力を示す情報要素及び/又は学習処理を実行するためのメモリの能力を示す情報要素であってもよい。プロセッサの能力を示す情報要素として、具体的には、AIプロセッサの品番(又は型番)を表す情報要素であってもよい。また、メモリの能力を示す情報要素として、具体的には、メモリ容量を示す情報を情報要素であってもよい。 The information element indicating the execution capability for the learning process may be an information element indicating the processor's capability for executing the learning process and/or an information element indicating the memory's capability for executing the learning process. Specifically, the information element indicating the processor's capability may be an information element indicating the product number (or model number) of the AI processor. Specifically, the information element indicating the memory's capability may be an information element indicating the memory capacity.

 或いは、学習処理に関する実行能力を示す情報要素は、推論処理(モデル推論)の実行能力を示す情報要素であってもよい。推論処理の実行能力を示す情報要素として、具体的には、ディープニューラルネットワークモデルのサポート可否を示す情報要素でもよいし、推論処理の実行に要する時間(又は応答時間)を示す情報要素でもよい。 Alternatively, the information element indicating the execution capability for the learning process may be an information element indicating the execution capability for the inference process (model inference). Specifically, the information element indicating the execution capability for the inference process may be an information element indicating whether a deep neural network model is supported, or an information element indicating the time (or response time) required to execute the inference process.

 或いは、学習処理に関する実行能力を示す情報要素は、学習処理(モデル学習)の実行能力を示す情報要素であってもよい。学習処理の実行能力を示す情報要素として、具体的には、学習処理の同時実行数を示す情報要素でもよいし、学習処理の処理容量を示す情報要素でもよい。 Alternatively, the information element indicating the execution capacity for the learning process may be an information element indicating the execution capacity of the learning process (model learning). Specifically, the information element indicating the execution capacity of the learning process may be an information element indicating the number of learning processes being executed simultaneously, or an information element indicating the processing capacity of the learning process.

 ステップS27において、gNB200は、ステップS26で受信したメッセージに含まれる情報要素に基づいて、UE100に設定(又は配備)するモデルを決定する。 In step S27, gNB200 determines the model to be configured (or deployed) in UE100 based on the information elements included in the message received in step S26.

 ステップS28において、gNB200は、ステップS27で決定したモデルを含むメッセージをUE100へ送信する。UE100は、当該メッセージを受信し、当該メッセージに含まれるモデルを用いて学習処理(すなわち、モデル学習処理及び/又はモデル推論処理)を行う。ステップS28の具体例は、次の第2動作パターンで説明する。 In step S28, gNB200 transmits a message including the model determined in step S27 to UE100. UE100 receives the message and performs a learning process (i.e., a model learning process and/or a model inference process) using the model included in the message. A specific example of step S28 will be described in the second operation pattern below.

 (X1.4.2)モデル転送に関する第2動作パターン
 図11は、第1実施形態に係るモデル及び付加情報を含む設定メッセージの一例を表す図である。設定メッセージは、gNB200からUE100に送信されるRRCメッセージ(例えば、「RRC Reconfiguration」メッセージ、又は新たに規定されるメッセージ(例えば、「AI Deployment」メッセージ又は「AI Reconfiguration」メッセージ等))であってもよい。或いは、設定メッセージは、AMF300からUE100に送信されるNASメッセージであってもよい。或いは、機械学習処理(AI/ML処理)を実行又は制御するための新たなレイヤが規定される場合、当該メッセージは、当該新たなレイヤのメッセージであってもよい。
(X1.4.2) Second Operation Pattern Related to Model Transfer FIG. 11 is a diagram showing an example of a configuration message including a model and additional information according to the first embodiment. The configuration message may be an RRC message transmitted from the gNB 200 to the UE 100 (for example, an "RRC Reconfiguration" message, or a newly defined message (for example, an "AI Deployment" message or an "AI Reconfiguration" message, etc.). Alternatively, the configuration message may be a NAS message transmitted from the AMF 300 to the UE 100. Alternatively, when a new layer for performing or controlling machine learning processing (AI/ML processing) is defined, the message may be a message of the new layer.

 図11の例では、設定メッセージは、3つのモデル(Model#1乃至#3)を含む。各モデルは、設定メッセージのコンテナとして含まれている。但し、設定メッセージは、1つのモデルのみを含んでもよい。設定メッセージは、付加情報として、3つのモデル(Model#1乃至#3)のそれぞれに対応して個別に設けられた3つの個別付加情報(Info#1乃至#3)と、3つのモデル(Model#1乃至#3)に共通に対応付けられた共通付加情報(Meta-Info)と、を更に含む。個別付加情報(Info#1乃至#3)のそれぞれは、対応するモデルに固有の情報を含む。共通付加情報(Meta-Info)は、設定メッセージ内のすべてのモデルに共通の情報を含む。 In the example of Figure 11, the setting message includes three models (Model #1 to #3). Each model is included as a container in the setting message. However, the setting message may include only one model. The setting message further includes, as additional information, three individual additional information pieces (Info #1 to #3) that correspond to each of the three models (Model #1 to #3), and common additional information (Meta-Info) that is commonly associated with all three models (Model #1 to #3). Each of the individual additional information pieces (Info #1 to #3) includes information unique to the corresponding model. The common additional information (Meta-Info) includes information common to all models in the setting message.

 個別付加情報は、各モデルに付されるインデックス(インデックス番号)を表すモデルインデックスでもよい。当該個別付加情報は、モデルを適用(実行)するために必要な性能(例えば処理遅延)を示すモデル実行条件でもよい。 The individual additional information may be a model index that indicates an index (index number) assigned to each model. The individual additional information may also be model execution conditions that indicate the performance (e.g., processing delay) required to apply (execute) the model.

 個別付加情報又は共通付加情報は、モデルを適用する機能(例えば、「CSIフィードバック」、「ビーム管理」、「位置測位」など)を指定するモデル用途であってもよい。当該個別付加情報又は当該共通付加情報は、指定された基準(例えば移動速度)が満たされたことに応じて対応するモデルを適用(実行)するモデル選択基準であってもよい。 The individual additional information or common additional information may be a model application that specifies the function to which the model is to be applied (e.g., "CSI feedback," "beam management," "positioning," etc.). The individual additional information or common additional information may also be a model selection criterion that applies (executes) the corresponding model when a specified criterion (e.g., movement speed) is met.

 (第1実施形態に係る微調整と再学習)
 学習済AI/MLモデルのUE100への転送(deliverly/transfer)は、ユースケース又はシナリオによっては、オーバーヘッド及び遅延を犠牲にしても、有益となる可能性がある。しかし、一般的には、UE100の記憶容量などを考慮すると、妥当ではない場合もあり得る。
(Fine-tuning and re-learning according to the first embodiment)
Depending on the use case or scenario, transferring the trained AI/ML model to the UE 100 may be beneficial, even at the expense of overhead and delay. However, in general, it may not be appropriate in consideration of the storage capacity of the UE 100.

 ここで、学習済AI/MLモデルの微調整(Finetuning)及び/又は再学習(Retraining)に着目すると、微調整及び/又は再学習が学習済AI/MLモデルの転送を代替する場合も想定される。すなわち、微調整及び/又は再学習が適切に行われることにより、学習済AI/MLモデルの転送が行われなくてもよい場合が想定される。これにより、例えば、移動通信システム1において、UE100の記憶容量、或いは、ネットワーク上のオーバーヘッド及び遅延などを考慮することなく、更新後の更新済AI/MLモデルを用いて適切なモデル推論動作を行うことが可能となる。 Here, when focusing on fine-tuning and/or relearning of a trained AI/ML model, it is conceivable that fine-tuning and/or relearning may replace the transfer of the trained AI/ML model. In other words, it is conceivable that if fine-tuning and/or relearning are performed appropriately, the transfer of the trained AI/ML model may not be necessary. This makes it possible, for example, in mobile communication system 1, to perform appropriate model inference operations using the updated AI/ML model after updating, without having to consider the storage capacity of UE 100 or network overhead and delays.

 そこで、第1実施形態では、微調整及び再学習に着目する。特に、第1実施形態では微調整に着目する。最初に、再学習が3GPPにおいてどのように扱われているかについて説明する。 Therefore, in the first embodiment, we focus on fine-tuning and relearning. In particular, in the first embodiment, we focus on fine-tuning. First, we will explain how relearning is handled in 3GPP.

 (第1実施形態に係る再学習)
 3GPPでは、AI/MLモデルのライフサイクル管理(LCM:Life Cycle Management)が規定されている。LCM観点では、AI/MLモデルに対しては、モデル学習(すなわち「学習」)、モデル推論(すなわち「推論」)、モデルモニタリング、及びモデル更新の順番で処理が行われる。各処理は、3GPPにおいて厳密に規定されているわけではないが、再学習は、モデルモニタリング後のモデル更新の段階で行われていることが想定される。すなわち、学習済AI/MLモデルに対するモデルモニタリングが行われ、その結果に基づいて、学習済AI/MLモデルに対する再学習が行われることが想定される。
(Relearning according to the first embodiment)
3GPP defines life cycle management (LCM) for AI/ML models. From the perspective of LCM, processes are performed on an AI/ML model in the following order: model learning (i.e., "learning"), model inference (i.e., "inference"), model monitoring, and model update. Although each process is not strictly defined in 3GPP, it is assumed that re-learning is performed at the model update stage after model monitoring. In other words, it is assumed that model monitoring is performed on a trained AI/ML model, and that re-learning of the trained AI/ML model is performed based on the results of model monitoring.

 一方で、図6に示す機能ブロック構成では、管理部(Management)A5が再学習要求をモデル学習部(Model Training)A2に対して要求することで、モデル学習部A2において、再学習が実行される。従って、図6に示す機能ブロック構成の観点では、管理部A5における管理の後で、モデル学習部A2において再学習が行われることになる。 On the other hand, in the functional block configuration shown in Figure 6, the management unit (Management) A5 issues a re-learning request to the model training unit (Model Training) A2, which causes re-learning to be performed in the model training unit A2. Therefore, from the perspective of the functional block configuration shown in Figure 6, after management in the management unit A5, re-learning is performed in the model training unit A2.

 具体的にユースケースを用いて説明する。図12及び図13は、第1実施形態に係る動作例を表す図である。特に、図12及び図13は、「ビーム管理(Beam management)」のユースケースにおいて、UEサイドモデル(UE100側において推論が行われるモデル)における動作例を表している。また、図12及び図13では、推論から再学習までの動作例を表している。 This will be explained specifically using a use case. Figures 12 and 13 are diagrams showing an example of operation according to the first embodiment. In particular, Figures 12 and 13 show an example of operation in a UE-side model (a model in which inference is performed on the UE 100 side) in the use case of "Beam management." Figures 12 and 13 also show an example of operation from inference to relearning.

 図12及び図13に示すように、推論(図12のステップS30)の後で、管理(ステップS40)が行われ、その後、再学習(図13のステップS50)が行われる。特に、図12及び図13に示す例では、管理(ステップS40)において、モニタリングが行われることになる。3GPPでは、UEサイドモデルでの「ビーム管理」のユースケースにおいては、モニタリングがUE100で行われる場合と、gNB200で行われる場合とについて規定している。具体的には、以下の3つの場合がある。 As shown in Figures 12 and 13, after inference (step S30 in Figure 12), management (step S40) is performed, and then relearning (step S50 in Figure 13) is performed. In particular, in the example shown in Figures 12 and 13, monitoring is performed in management (step S40). In the use case of "beam management" in the UE-side model, 3GPP specifies cases where monitoring is performed by the UE 100 and cases where it is performed by the gNB 200. Specifically, there are the following three cases:

 (Z1)UE100側でモニタリングが行われ、UE側の学習済AI/MLモデルに対する制御(選択、(デ)アクティベーション、切替え、フォールバックなど。以下、「モデル制御」と称する場合がある。)もUE100側で行われる場合 (Z1) Monitoring is performed on the UE 100 side, and control of the UE's trained AI/ML model (selection, (de)activation, switching, fallback, etc.; hereinafter, sometimes referred to as "model control") is also performed on the UE 100 side.

 (Z2)UE100側でモニタリングが行われ、UE側の学習済AI/MLモデルに対するモデル制御はgNB200側で行われる場合 (Z2) Monitoring is performed on the UE 100 side, and model control of the UE's trained AI/ML model is performed on the gNB 200 side.

 (Z3)gNB200側で、UE側の学習済AI/MLモデルに対するモニタリング及びモデル制御が行われる場合
 図12においてステップS41及びステップS42は、上述した(Z1)の場合を表している。すなわち、ステップS41において、UE100の制御部130は、UE100で行われる推論(ステップS30)の性能をモニタリングする。そして、ステップS42において、制御部130は、モニタリング結果に基づいて、モデル制御を行う。制御部130は、推論の性能が性能閾値以下であるというモニタリング結果に基づいて、モデル制御を行ってもよい。制御部130は、モデル制御として、学習済AI/MLモデルに対する再学習を行ってもよい。ここで、性能閾値は、学習済AI/MLモデルの推論の性能(又は精度)が良いこと又は良くないことを判定するために用いられる閾値である。制御部130は、学習済AI/MLモデルの推論結果(又はモニタリング結果、又は推論結果とモニタリング結果との差分)と性能閾値とを比較して、学習済AI/MLモデルの性能を判定してもよい。
(Z3) When gNB200 monitors and controls the trained AI/ML model on the UE side In FIG. 12, steps S41 and S42 represent the above-described case of (Z1). That is, in step S41, the control unit 130 of UE100 monitors the performance of the inference (step S30) performed by UE100. Then, in step S42, the control unit 130 performs model control based on the monitoring result. The control unit 130 may perform model control based on the monitoring result that the inference performance is equal to or less than a performance threshold. As model control, the control unit 130 may perform re-learning of the trained AI/ML model. Here, the performance threshold is a threshold used to determine whether the inference performance (or accuracy) of the trained AI/ML model is good or bad. The control unit 130 may compare the inference results (or monitoring results, or the difference between the inference results and the monitoring results) of the trained AI/ML model with a performance threshold to determine the performance of the trained AI/ML model.

 ステップS43乃至ステップS45は、上述した(Z2)の場合を表している。すなわち、ステップS43において、UE100の制御部130は、UE100で行われる推論(ステップS30)の性能をモニタリングする。ステップS44において、UE100の送信部120は、モニタリング結果をgNB200へ送信する。送信部120は、モニタリング結果を含む制御データをgNB200へ送信してもよい。gNB200の受信部220は、モニタリング結果を受信する。ステップS45において、gNB200の制御部230は、モニタリング結果に基づいてモデル制御を実行することを決定し、モデル制御の実行をUE100に対して指示する。gNB200の送信部210は、当該指示をUE100へ送信する。当該指示も制御データに含まれて送信されてもよい。UE100の受信部110は、当該指示を受信する。UE100の制御部130は、モデル制御の実行指示に従って、学習済AI/MLモデルに対する再学習を行うことを決定してもよい。 Steps S43 to S45 represent the case of (Z2) described above. That is, in step S43, the control unit 130 of UE100 monitors the performance of the inference (step S30) performed by UE100. In step S44, the transmission unit 120 of UE100 transmits the monitoring results to gNB200. The transmission unit 120 may transmit control data including the monitoring results to gNB200. The reception unit 220 of gNB200 receives the monitoring results. In step S45, the control unit 230 of gNB200 decides to perform model control based on the monitoring results and instructs UE100 to perform model control. The transmission unit 210 of gNB200 transmits the instruction to UE100. The instruction may also be transmitted included in the control data. The reception unit 110 of UE100 receives the instruction. The control unit 130 of the UE 100 may decide to re-learn the trained AI/ML model in accordance with the instruction to execute model control.

 ステップS46乃至ステップS49は、上述した(Z3)の場合を表している。すなわち、ステップS46において、UE100の制御部130は、UE100で行われる推論(ステップS30)の性能に関する性能メトリック(又は性能メトリックス)を計算する。性能メトリックは、例えば、推論が行われる際の学習済AI/MLモデルの評価指標を表す。具体的には、性能メトリックは、現在の推論の正確さ、つまり、確信度を分析するための値であり、二乗一般化コサイン類似度(SGCS:Squared Generalized Cosine Similarity)、スループット、ブロック誤り率(BLER:Block Error Rate)などである。また、性能メトリックは、推論の際のCPUの使用率、メモリ使用率、推論時間、及び/又はデータ使用量などを含んでもよい。UE100の送信部120は、性能メトリックをgNB200へ送信する。送信部120は、性能メトリックを含む制御データをgNB200へ送信してもよい。gNB200の受信部220は性能メトリックを受信する。ステップS48において、gNB200の制御部230は、性能メトリックを利用して、推論(ステップS30)の性能をモニタリングする。制御部230は、モニタリング結果に基づいて、UE100側の学習済AI/MLモデルの推論の性能が性能閾値以下であるという検出結果を得ると、モデル制御をUE100へ指示する。モデル制御の指示は、ステップS45と同様に、再学習指示であってもよい。UE100の受信部110は、モデル制御指示を受信する。UE100の制御部130は、モデル制御指示に従って、再学習を実行することを決定してもよい。 Steps S46 to S49 represent the case of (Z3) described above. That is, in step S46, the control unit 130 of UE100 calculates a performance metric (or performance metrics) related to the performance of the inference (step S30) performed by UE100. The performance metric represents, for example, an evaluation index of the trained AI/ML model when inference is performed. Specifically, the performance metric is a value for analyzing the accuracy of the current inference, i.e., the confidence level, and may be squared generalized cosine similarity (SGCS), throughput, block error rate (BLER), etc. The performance metric may also include CPU usage, memory usage, inference time, and/or data usage during inference. The transmission unit 120 of UE100 transmits the performance metric to gNB200. The transmission unit 120 may also transmit control data including the performance metric to gNB200. The receiver 220 of the gNB 200 receives the performance metric. In step S48, the control unit 230 of the gNB 200 uses the performance metric to monitor the performance of the inference (step S30). If the control unit 230 obtains a detection result based on the monitoring result that the inference performance of the trained AI/ML model on the UE 100 side is below the performance threshold, it instructs the UE 100 to perform model control. The model control instruction may be a re-learning instruction, as in step S45. The receiver 110 of the UE 100 receives the model control instruction. The control unit 130 of the UE 100 may decide to perform re-learning in accordance with the model control instruction.

 そして、図13に示すステップS50において、再学習が行われる。再学習は、UE100で行われてもよい。すなわち、ステップS51において、UE100の制御部130は、学習用データを生成する。そして、ステップS52において、制御部130は、学習用データを用いて、学習済AI/MLモデルに対する再学習を実行する。 Then, in step S50 shown in FIG. 13, re-learning is performed. Re-learning may be performed in UE 100. That is, in step S51, control unit 130 of UE 100 generates learning data. Then, in step S52, control unit 130 uses the learning data to perform re-learning on the trained AI/ML model.

 或いは、再学習は、OTT(Over The Top)サーバ500で行われてもよい。OTTサーバ500において学習済AI/MLモデルを保持してもよい。なお、OTTサーバは、移動通信システム1の外部に存在する外部サーバであってもよい。この場合、ステップS53において、UE100の制御部130は、学習用データを生成し、ステップS54において、UE100の送信部120は、学習用データをOTTサーバ500へ送信する。ステップS55において、OTTサーバ500は再学習を実行する。 Alternatively, the re-learning may be performed by the OTT (Over The Top) server 500. The trained AI/ML model may be stored in the OTT server 500. Note that the OTT server may be an external server located outside the mobile communication system 1. In this case, in step S53, the control unit 130 of the UE 100 generates training data, and in step S54, the transmission unit 120 of the UE 100 transmits the training data to the OTT server 500. In step S55, the OTT server 500 performs the re-learning.

 (第1実施形態に係る通信制御方法)
 図12及び図13に示す動作例は、再学習に関する動作例である。3GPPでは、現在のところ、再学習と微調整とを厳密に区別しているわけではない。第1実施形態では、微調整を再学習と区別して、移動通信システム1において、学習済AI/MLモデルに対する微調整を適切に実行するようにしている。これにより、例えば、移動通信システム1において、再学習の場合よりも早く更新済AI/MLモデルを作成し、再学習の場合よりも早く更新済AI/MLモデルを用いた推論を実行することが可能となる。
(Communication control method according to the first embodiment)
The operation examples shown in Figures 12 and 13 are examples of operation related to re-learning. Currently, 3GPP does not strictly distinguish between re-learning and fine-tuning. In the first embodiment, fine-tuning is distinguished from re-learning, and fine-tuning of a trained AI/ML model is appropriately performed in the mobile communication system 1. This makes it possible, for example, in the mobile communication system 1, to create an updated AI/ML model more quickly than in the case of re-learning, and to perform inference using the updated AI/ML model more quickly than in the case of re-learning.

 すなわち、第1実施形態では、学習済AI/MLモデルに対して微調整を適切に実行できるようにすることを目的としている。 In other words, the first embodiment aims to enable appropriate fine-tuning of a trained AI/ML model.

 ここで、第1実施形態では、微調整と再学習とを区別するため、微調整及び再学習を以下のように定義する。 In the first embodiment, to distinguish between fine-tuning and relearning, fine-tuning and relearning are defined as follows:

 すなわち、微調整は、例えば、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。或いは、微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることであって、更に、学習済AI/MLモデルを構成する最終層までの複数の層のうち、最終層を含む層であって層閾値以下の層(以下では、「所定数の層」と称する場合がある。)に対して、学習を行わせることであってもよい。学習済AI/MLモデルに含まれる複数の層のうち所定数の層(のパラメータ)に対して、微調整を行うことで、特定の新しいタスク又は特定の新しいデータセットに適応させることが可能となる。 In other words, fine-tuning, for example, means training a trained AI/ML model using training data with a data volume equal to or less than a data volume threshold. Alternatively, fine-tuning may mean training a trained AI/ML model using training data with a data volume equal to or less than a data volume threshold, and further training layers including the final layer that are equal to or less than a layer threshold (hereinafter sometimes referred to as a "predetermined number of layers") out of multiple layers up to the final layer that make up the trained AI/ML model. By fine-tuning a predetermined number of layers (parameters of the predetermined number of layers) out of multiple layers included in the trained AI/ML model, it becomes possible to adapt it to a specific new task or a specific new dataset.

 一方、再学習は、例えば、データ量閾値よりも多いデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。或いは、再学習は、データ量閾値よりも多くのデータ量の学習用データを用いて学習済AI/MLモデルを学習させることであって、更に、学習済AI/MLモデルを構成する最終層までの複数の層のうち、最終層を含む層であって層閾値よりも多い層に対して、学習を行わせることであってもよい。 On the other hand, re-learning, for example, refers to training a trained AI/ML model using training data with a data volume greater than the data volume threshold. Alternatively, re-learning may refer to training a trained AI/ML model using training data with a data volume greater than the data volume threshold, and may further refer to training layers, including the final layer, that are greater than the layer threshold and that are part of multiple layers up to the final layer that make up the trained AI/ML model.

 微調整と再学習とを比較すると、以下が言える。 When comparing fine-tuning and relearning, the following can be said:

 第1に、微調整は、再学習よりも、学習させるデータ量が少ない。従って、微調整は、再学習よりも早く更新済AI/MLモデルを得ることができる。 First, fine-tuning requires less data to train than re-training. Therefore, fine-tuning can obtain an updated AI/ML model more quickly than re-training.

 第2に、微調整は、再学習よりも少ない層に対して学習を行わせることができる。そのため、微調整では、特定の新しいタスク又は特定の新しいデータセットに対して、更新済AI/Mモデルを適応させることが可能となる。一方で、再学習は、微調整と比較して、学習済AI/MLモデルの多くの層に対するパラメータを変更させている。そのため、再学習は、微調整と比較して、新しいデータセットに対応する新たな更新済AI/MLモデルを作成することが可能となる。 Second, fine-tuning allows training to be performed on fewer layers than re-training. Therefore, fine-tuning makes it possible to adapt an updated AI/ML model to a specific new task or a specific new dataset. On the other hand, re-training changes parameters for many layers of a trained AI/ML model compared to fine-tuning. Therefore, re-training makes it possible to create a new, updated AI/ML model that corresponds to a new dataset compared to fine-tuning.

 第3に、再学習は、微調整と比較して、処理に時間がかかり、多くの時間が必要となる場合がある。その一方で、微調整は、再学習と比較して、高速かつ簡易に実行することが可能となる。 Thirdly, re-learning takes longer to process than fine-tuning, and may require a lot of time. On the other hand, fine-tuning can be performed faster and more easily than re-learning.

 なお、微調整は、モデル微調整と呼ばれてもよい。また、再学習はモデル再学習と呼ばれてもよい。 Fine-tuning may also be called model fine-tuning. Re-learning may also be called model re-learning.

 第1実施形態では、微調整を再学習と区別し、微調整を適切に実行できるようにするため、以下のように微調整を実行するようにしている。すなわち、ユーザ装置(例えばUE100)が、学習済AI/MLモデルの微調整にかかる時間を示す微調整実行時間に基づいて、学習済AI/MLモデルに対して微調整を実行する。ここで、微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 In the first embodiment, in order to distinguish fine-tuning from relearning and to ensure that fine-tuning can be performed appropriately, fine-tuning is performed as follows. That is, a user device (e.g., UE100) performs fine-tuning on a trained AI/ML model based on a fine-tuning execution time that indicates the time required to fine-tune the trained AI/ML model. Here, fine-tuning means training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 このように、第1実施形態では、微調整実行時間に基づいて、UE100において微調整を実行するようにしており、例えば、微調整実行時間が微調整実行時間閾値以下のときに微調整を実行し、微調整実行時間が微調整実行時間閾値よりも多くの時間を必要とするときは微調整を実行しないようにすることも可能である。これにより、例えば、UE100において、一定の判断の下で微調整を実行できるため、学習済AI/MLモデルに対する微調整を適切に実行することが可能となる。 In this way, in the first embodiment, fine-tuning is performed in UE 100 based on the fine-tuning execution time. For example, it is possible to perform fine-tuning when the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and not perform fine-tuning when the fine-tuning execution time requires more time than the fine-tuning execution time threshold. This allows fine-tuning to be performed in UE 100 under certain judgment, for example, making it possible to appropriately perform fine-tuning on a trained AI/ML model.

 また、例えば、更新済AI/MLモデルを取得するために、学習済AI/MLモデル全体を学習させる必要がないにも拘らず、学習済AI/MLモデル全体を学習させることは必ずしも効率的ではない場合がある。微調整の実行により、学習済AI/MLモデルの一部を学習させて、更新済AI/MLモデルを効率的に取得することも可能となる。 Furthermore, for example, although it is not necessary to train the entire trained AI/ML model to obtain an updated AI/ML model, training the entire trained AI/ML model may not always be efficient. By performing fine-tuning, it is possible to train only a portion of the trained AI/ML model and efficiently obtain an updated AI/ML model.

 (第1実施形態に係る動作例)
 次に、第1実施形態に係る動作例を説明する。
(Operation example according to the first embodiment)
Next, an example of operation according to the first embodiment will be described.

 図14及び図15は、第1実施形態に係る動作例を表す図である。なお、図14及び図15において、gNB200とネットワーク装置400とを示しているが、「gNB200」では、ネットワーク装置400のうちgNB200単独で処理が行われる場合を示している。「gNB200」はネットワークノードであってもよい。一方、「ネットワーク装置400」は、gNB200を含むネットワーク装置400のいずれにおいても処理が行われる場合を示している。また、図14及び図15は、ビーム管理のユースケースであって、UEサイドモデルの場合における動作例を表している。 FIGS. 14 and 15 are diagrams showing an example of operation according to the first embodiment. Note that while FIG. 14 and FIG. 15 show a gNB 200 and a network device 400, "gNB 200" indicates a case where processing is performed by gNB 200 alone among the network devices 400. "gNB 200" may also be a network node. On the other hand, "network device 400" indicates a case where processing is performed by any of the network devices 400, including gNB 200. Furthermore, FIG. 14 and FIG. 15 are a use case of beam management, and show an example of operation in the case of a UE-side model.

 なお、図14及び図15において、UE100とgNB200との間で、条件、指示などの情報、データ、又はメッセージなどが送信及び受信される。これらの情報などは、上述した制御データを用いて送信及び受信が行われてもよい。以下の説明では、制御データを用いて送信及び受信が行われることは省略して説明する場合がある。 In addition, in Figures 14 and 15, information such as conditions and instructions, data, or messages are transmitted and received between UE 100 and gNB 200. This information may be transmitted and received using the control data described above. In the following explanation, the fact that transmission and reception are performed using control data may be omitted.

 また、図14及び図15において、UE100とネットワーク装置400との間において、AI/MLモデルなどの情報、データ、又はメッセージなどが送信及び受信される。これらの情報などは、UE100とネットワーク装置400との間で設定された所定プロトコルによる所定メッセージを用いて送信及び受信が行われてもよい。例えば、所定メッセージは、ネットワーク装置400がgNB200であれば制御データであり、ネットワーク装置400がAMFであればNASメッセージであってもよい。以下の説明では、所定メッセージを用いて送信及び受信が行われることは省略して説明する場合がある。 Furthermore, in Figures 14 and 15, information, data, messages, etc., such as AI/ML models, are transmitted and received between UE 100 and network device 400. This information, etc., may be transmitted and received using a predetermined message according to a predetermined protocol set between UE 100 and network device 400. For example, the predetermined message may be control data if network device 400 is a gNB 200, or a NAS message if network device 400 is an AMF. In the following explanation, the fact that transmission and reception are performed using a predetermined message may be omitted.

 図14に示すように、ステップS60において、ネットワーク装置400は、学習済AI/MLモデルをUE100へ送信(転送)する。UE100の受信部110は、学習済AI/MLモデルを受信する。 As shown in FIG. 14, in step S60, the network device 400 transmits (transfers) the trained AI/ML model to the UE 100. The receiver 110 of the UE 100 receives the trained AI/ML model.

 ステップS61において、ネットワーク装置400は、微調整実行時間を計算するためのパラメータ(以下では、「微調整実行時間計算用パラメータ」と称する場合がある)をUE100へ送信する。 In step S61, the network device 400 transmits parameters for calculating the fine-tuning execution time (hereinafter, sometimes referred to as "fine-tuning execution time calculation parameters") to the UE 100.

 第1に、微調整実行時間計算用パラメータは、学習済AI/MLモデル(ステップS60)の種別を表す情報を含んでもよい。種別を表す情報は、例えば、アンサンブル学習、ニューラルネットワークなどであってもよい。アンサンブル学習とは、例えば、複数の学習済AI/MLモデルを組み合わせて出力を得る機械学習手法である。アンサンブル学習の一手法であるランダムフォレストが、モデルの種別を表す情報として示されてもよい。ランダムフォレストは、決定木を用いたアンサンブル学習による機械学習手法である。 First, the parameters for calculating the fine-tuning execution time may include information representing the type of trained AI/ML model (step S60). The information representing the type may be, for example, ensemble learning, neural network, etc. Ensemble learning is, for example, a machine learning method that combines multiple trained AI/ML models to obtain output. Random forest, which is one method of ensemble learning, may be indicated as information representing the type of model. Random forest is a machine learning method that uses ensemble learning with decision trees.

 第2に、微調整実行時間計算用パラメータは、学習済AI/MLモデル(ステップS60)の複雑度を含んでもよい。具体的には、複雑度は、学習済AI/MLモデルのニューロン数及び隠れ層数、取り扱うデータ数、損失関数の計算数、及び/又は勾配の計算数などで表されてもよい。 Second, the parameters for calculating the fine-tuning execution time may include the complexity of the trained AI/ML model (step S60). Specifically, the complexity may be expressed as the number of neurons and hidden layers of the trained AI/ML model, the number of data items to be handled, the number of loss function calculations, and/or the number of gradient calculations.

 第3に、微調整実行時間計算用パラメータととともにサンプルがネットワーク装置400からUE100へ送信されてもよい。サンプルは、例えば、CPU(又はGPU)が所定のメモリ容量で所定データ数の学習用データを用いて微調整が行われた場合の微調整実行時間を表す。 Third, a sample may be transmitted from the network device 400 to the UE 100 along with parameters for calculating the fine-tuning execution time. The sample represents, for example, the fine-tuning execution time when the CPU (or GPU) performs fine-tuning using a predetermined amount of learning data with a predetermined memory capacity.

 第4に、微調整実行時間計算用パラメータは、微調整実行時間を計算する対象となる学習済AI/MLモデルの識別情報が含まれてもよい。識別情報は、学習済AI/MLモデルのモデルID、機能名、又はモデル名であってもよい。 Fourth, the parameters for calculating the fine-tuning execution time may include identification information for the trained AI/ML model for which the fine-tuning execution time is to be calculated. The identification information may be the model ID, function name, or model name of the trained AI/ML model.

 なお、学習済AI/MLモデル(ステップS60)と微調整実行時間計算用パラメータ(ステップS61)とは1つのメッセージにより送信されてもよいし、図14に示すように、別々のメッセージにより送信されてもよい。 Note that the trained AI/ML model (step S60) and the parameters for calculating the fine-tuning execution time (step S61) may be sent in a single message, or may be sent in separate messages, as shown in Figure 14.

 ステップS62において、OTTサーバ500が学習済AI/MLモデルをUE100へ送信してもよい。また、ステップS63において、OTTサーバ500が微調整実行時間計算用パラメータをUE100へ送信してもよい。OTTサーバは、ステップS63において、上述したサンプルをUE100へ送信してもよい。ネットワーク側の処理負荷などを考慮して、OTTサーバにおいて、AI/MLモデルの学習が行われ、学習済AI/MLモデルの生成が行われる場合がある。そのような場合を考慮して、ステップS62及びステップS63が行われてよい。OTTサーバ500は、UE100と間で設定されたプロトコルによるメッセージを利用して、ステップS62及びステップS63を行ってもよい。UE100の受信部110は、学習済AI/MLモデルと微調整実行時間計算用パラメータとを受信する。 In step S62, the OTT server 500 may transmit the trained AI/ML model to the UE 100. Also, in step S63, the OTT server 500 may transmit parameters for calculating the fine-tuning execution time to the UE 100. In step S63, the OTT server may transmit the above-mentioned sample to the UE 100. Taking into account the processing load on the network side, the OTT server may train the AI/ML model and generate a trained AI/ML model. Taking such cases into account, steps S62 and S63 may be performed. The OTT server 500 may perform steps S62 and S63 using messages according to a protocol established between the OTT server 500 and the UE 100. The receiver 110 of the UE 100 receives the trained AI/ML model and the parameters for calculating the fine-tuning execution time.

 ステップS64において、UE100の制御部130は、微調整実行時間計算用パラメータを用いて、学習済AI/MLモデルにおける微調整実行時間を計算する。制御部130は、学習済AI/MLモデルに対して微調整を行わせて、実測により計算(又は測定)することで、微調整実行時間を取得してもよい。微調整実行時間は、微調整の開始から終了までの時間を表してもよい。 In step S64, the control unit 130 of the UE 100 calculates the fine-tuning execution time for the trained AI/ML model using the parameters for calculating the fine-tuning execution time. The control unit 130 may perform fine-tuning on the trained AI/ML model and obtain the fine-tuning execution time by calculating (or measuring) it through actual measurement. The fine-tuning execution time may represent the time from the start to the end of the fine-tuning.

 ステップS65において、UE100の送信部120は、微調整実行時間をgNB200へ送信する。gNB200の受信部220は、微調整実行時間を受信する。 In step S65, the transmitter 120 of the UE 100 transmits the fine-tuning execution time to the gNB 200. The receiver 220 of the gNB 200 receives the fine-tuning execution time.

 ステップS66において、UE100の制御部130は、ステップS60(又はステップS62)で受信した学習済AI/MLモデルに対して推論を行う。 In step S66, the control unit 130 of the UE 100 performs inference on the trained AI/ML model received in step S60 (or step S62).

 ステップS67において、移動通信システム1において、管理(Management)が行われる。 In step S67, management is performed in the mobile communication system 1.

 第1実施形態においても、(Z1)乃至(Z3)の各々の場合において、管理を説明する。 In the first embodiment, management will be explained for each of the cases (Z1) to (Z3).

 (1-1)UE側でモニタリング及びモデル制御が行われる場合((Z1)の場合) (1-1) When monitoring and model control are performed on the UE side (case (Z1))

 (Z1)の場合、ステップS68乃至ステップS71が実行される。 In the case of (Z1), steps S68 to S71 are executed.

 具体的には、ステップS68において、gNB200の制御部230は、ステップS65で受信した微調整実行時間に基づいて、UE100において学習済AI/MLモデルの微調整を実行するための条件を示す微調整実行条件を決定する。 Specifically, in step S68, the control unit 230 of the gNB 200 determines fine-tuning execution conditions indicating the conditions for performing fine-tuning of the trained AI/ML model in the UE 100, based on the fine-tuning execution time received in step S65.

 第1に、微調整実行条件は、微調整実行時間閾値を含んでもよい。UE100では、微調整実行時間が微調整実行時間閾値以下のときに、微調整を実行してもよく、微調整実行時間が微調整実行時間閾値よりも多くの時間がかかるときは、微調整を実行しなくてもよい。或いは、その逆でもよい。微調整実行条件は、微調整実行時間閾値以下であれば微調整を実行することを示す情報(或いは微調整実行時間閾値を超える場合は微調整を実行しないことを示す情報)が含まれてもよい。 First, the fine-tuning execution condition may include a fine-tuning execution time threshold. In UE 100, fine-tuning may be performed when the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and fine-tuning may not be performed when the fine-tuning execution time takes longer than the fine-tuning execution time threshold. Alternatively, the reverse may be true. The fine-tuning execution condition may include information indicating that fine-tuning is performed if the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold (or information indicating that fine-tuning is not performed if the fine-tuning execution time exceeds the fine-tuning execution time threshold).

 第2に、微調整実行条件は、微調整を実行しない場合のモデル制御に関する情報を含んでもよい。モデル制御に関する情報は、例えば、再学習を行うこと、レガシーにフォールバックすること(すなわち、学習済AI/MLモデルを用いないで出力を得ること)、或いは何もしないこと、を表す情報であってもよい。 Second, the fine-tuning execution conditions may include information regarding model control when fine-tuning is not performed. The information regarding model control may be, for example, information indicating re-learning, falling back to legacy (i.e., obtaining output without using a trained AI/ML model), or doing nothing.

 第3に、微調整実行条件は、微調整が行われた後の更新済AI/MLモデルの使用条件を含んでもよい。使用条件は、例えば、時間及び/又は場所により表されてもよい。場所は、例えば、セルID、RNA(RAN based Notification Area)、及びPLMN(Public Land Mobile Network )のいずれかにより表されてもよい。 Third, the fine-tuning execution conditions may include the conditions for using the updated AI/ML model after fine-tuning has been performed. The conditions for use may be expressed, for example, by time and/or location. The location may be expressed, for example, by any of a cell ID, an RNA (RAN-based Notification Area), and a PLMN (Public Land Mobile Network).

 第4に、微調整実行条件は、微調整で使用したデータセット(学習用データ)の送信要求を含んでもよい。送信要求が含まれている場合、UE100の送信部120は、微調整で使用したデータセットをgNB200へ送信することになる。 Fourth, the fine-tuning execution conditions may include a request to transmit the dataset (learning data) used in the fine-tuning. If a transmission request is included, the transmitter 120 of the UE 100 will transmit the dataset used in the fine-tuning to the gNB 200.

 第5に、微調整実行条件は、微調整が行われた後の更新済AI/MLモデルのモデル登録実施の有無に関する情報を含んでもよい。UE100は、微調整実行条件に当該情報が含まれる場合、更新済AI/MLモデルを登録するか否かを示す情報をgNB200へ送信することになる。 Fifth, the fine-tuning execution conditions may include information regarding whether or not to register the updated AI/ML model after fine-tuning has been performed. If the fine-tuning execution conditions include this information, UE100 will transmit information indicating whether or not to register the updated AI/ML model to gNB200.

 第6に、微調整実行条件は、微調整を実行することを指示する情報を含んでもよい。或いは、微調整実行条件は、微調整を実行しないことを指示する情報を含んでもよい。UE100の制御部130では、当該指示情報に従って、微調整を実行すること、或いは実行しないことを決定してもよい。この場合、gNB200の制御部230は、ステップS65でUE100から受信した微調整実行時間に基づいて、UE100において微調整を実行すること(或いは実行しないこと)を決定してもよい。 Sixth, the fine-tuning execution conditions may include information instructing that fine-tuning be performed. Alternatively, the fine-tuning execution conditions may include information instructing that fine-tuning not be performed. The control unit 130 of UE100 may decide to perform or not perform fine-tuning in accordance with the instruction information. In this case, the control unit 230 of gNB200 may decide to perform (or not perform) fine-tuning in UE100 based on the fine-tuning execution time received from UE100 in step S65.

 第7に、微調整実行条件は、微調整を実行する対象となる学習済AI/MLモデルの識別情報(モデルID又は機能名など)を含んでもよい。 Seventh, the fine-tuning execution conditions may include identification information (such as a model ID or function name) of the trained AI/ML model on which fine-tuning is to be performed.

 ステップS69において、gNB200の送信部210は、微調整実行条件をUE100へ送信する。UE100の受信部220は、微調整実行条件を受信する。 In step S69, the transmitter 210 of the gNB 200 transmits the fine-tuning execution conditions to the UE 100. The receiver 220 of the UE 100 receives the fine-tuning execution conditions.

 ステップS70において、UE100の制御部130は、学習済AI/MLモデルの推論(ステップS66)の性能をモニタリングする。そして、制御部130は、モニタリング結果に基づいて、学習済AI/MLモデルの推論の性能(又は精度)がよくないこと、すなわち、モニタリング結果が性能閾値以下であることを検出する。モニタリング結果は、例えば、AI/ML機能を用いないレガシーの方法により測定したデータ(「ビーム管理」のユースケースでは、RSRP(Reference Signal Received Power)、或いはビームの角度など)を示す。また、モニタリング結果は、CPU(又はGPU)の使用率、メモリの使用率、メモリの空き容量、及び/又はモニタリング時間などであってもよい。性能閾値は、モニタリング結果のこれらの指標に応じた値であってもよい。制御部130は、モニタリング結果が性能閾値以下のときに、後段のステップS71を実行するようにしてもよい。 In step S70, the control unit 130 of the UE 100 monitors the performance of the inference of the trained AI/ML model (step S66). Then, based on the monitoring results, the control unit 130 detects that the performance (or accuracy) of the inference of the trained AI/ML model is poor, i.e., that the monitoring results are below the performance threshold. The monitoring results indicate, for example, data measured using a legacy method that does not use AI/ML functions (in the "beam management" use case, RSRP (Reference Signal Received Power) or beam angle, etc.). The monitoring results may also be CPU (or GPU) usage, memory usage, free memory capacity, and/or monitoring time. The performance threshold may be a value corresponding to these indicators of the monitoring results. The control unit 130 may execute the subsequent step S71 when the monitoring results are below the performance threshold.

 ステップS71において、UE100の制御部130は、ステップS69で受信した微調整実行条件に基づいて微調整の実行有無を判定する。具体的には、制御部130は、ステップS64で計算した微調整実行時間と、ステップS69で受信した微調整実行条件とに基づいて、微調整実行時間が微調整実行条件を満たすか否かを判定し、微調整実行条件を満たすと判定すると、微調整を実行することを決定する。例えば、制御部130は、微調整実行時間が、微調整実行条件に含まれる微調整実行時間閾値以下であれば、微調整を実行することを決定してもよい。一方、制御部130は、微調整実行時間が微調整実行条件を満たさないと判定した場合、微調整を実行しないことを決定する。例えば、制御部130は、微調整実行時間が、微調整実行時間閾値よりも多くの時間を必要とする場合は、微調整を実行しないことを決定してもよい。制御部130は、微調整実行条件に微調整実行を指示する情報(又は微調整を実行しないことを指示する情報)が含まれている場合、当該指示情報に従って、微調整を実行するか否かを決定してもよい。 In step S71, the control unit 130 of the UE 100 determines whether to perform fine-tuning based on the fine-tuning execution conditions received in step S69. Specifically, the control unit 130 determines whether the fine-tuning execution time satisfies the fine-tuning execution conditions based on the fine-tuning execution time calculated in step S64 and the fine-tuning execution conditions received in step S69, and if it determines that the fine-tuning execution conditions are met, it decides to perform fine-tuning. For example, the control unit 130 may decide to perform fine-tuning if the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold included in the fine-tuning execution conditions. On the other hand, if the control unit 130 determines that the fine-tuning execution time does not satisfy the fine-tuning execution conditions, it decides not to perform fine-tuning. For example, the control unit 130 may decide not to perform fine-tuning if the fine-tuning execution time requires more time than the fine-tuning execution time threshold. If the fine-tuning execution conditions include information instructing the execution of fine-tuning (or information instructing not to perform fine-tuning), the control unit 130 may decide whether to perform fine-tuning in accordance with that instruction information.

 (1-2)UE100側でモニタリングが行われ、gNB200側でモデル制御が行われる場合((Z2)の場合) (1-2) When monitoring is performed on the UE 100 side and model control is performed on the gNB 200 side (case (Z2))

 (Z2)の場合、図15に示すステップS75乃至ステップS78が実行される。 In the case of (Z2), steps S75 to S78 shown in Figure 15 are executed.

 すなわち、ステップS75において、UE100の制御部130は、学習済AI/MLモデルに対する推論(ステップS66)の性能をモニタリングする。 In other words, in step S75, the control unit 130 of the UE 100 monitors the performance of the inference (step S66) for the trained AI/ML model.

 ステップS76において、UE100の送信部120は、モニタリング結果をgNB200へ送信する。gNB200の受信部220は、モニタリング結果を受信する。gNB200の制御部230は、モニタリング結果に基づいて、学習済AI/MLモデルの性能がよくないこと、すなわち、モニタリング結果が性能閾値以下であることを検出する。制御部230は、モニタリング結果が性能閾値以下であるときに、ステップS77を行うようにしてもよい。 In step S76, the transmitter 120 of UE100 transmits the monitoring results to gNB200. The receiver 220 of gNB200 receives the monitoring results. The control unit 230 of gNB200 detects, based on the monitoring results, that the performance of the trained AI/ML model is poor, i.e., that the monitoring results are below the performance threshold. The control unit 230 may perform step S77 when the monitoring results are below the performance threshold.

 ステップS77において、gNB200の制御部230は、ステップS65で受信した微調整実行時間に基づいて、UE100において微調整を実行するか否かを判定する。判定自体は、ステップS71と同一であってもよい。すなわち、制御部230は、微調整実行時間が微調整実行時間閾値以下であれば微調整を実行することを決定し、微調整実行時間が微調整実行時間閾値よりも多くの時間がかかるのであれば、微調整を実行しないことを決定してもよい。微調整実行時間閾値はgNB200のメモリに予め保持されてもよい。ここでは、制御部230は、微調整実行時間に基づいて微調整を実行することを決定するものとして以下説明する。 In step S77, the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning in the UE 100 based on the fine-tuning execution time received in step S65. The determination itself may be the same as step S71. That is, the control unit 230 may decide to perform fine-tuning if the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and may decide not to perform fine-tuning if the fine-tuning execution time takes longer than the fine-tuning execution time threshold. The fine-tuning execution time threshold may be stored in advance in the memory of the gNB 200. Here, the following description will be given assuming that the control unit 230 decides to perform fine-tuning based on the fine-tuning execution time.

 ステップS78において、gNB200の送信部210は、微調整を実行することを指示する微調整実行指示をUE100へ送信する。UE100の受信部110は、微調整実行指示を受信する。UE100の制御部130は、微調整実行指示に従って、微調整を実行することを決定してもよい。微調整実行指示には、微調整実行の対象となる学習済AI/MLモデルの識別情報(モデルID又は機能名など)が含まれてもよい。なお、gNB200の送信部210は、微調整を実行しないことをUE100へ指示してもよい。UE100の制御部130は、当該指示を受信したことに応じて、微調整を実行しないことを決定してもよい。 In step S78, the transmitter 210 of the gNB 200 transmits a fine-tuning execution instruction to the UE 100, instructing the UE 100 to perform fine-tuning. The receiver 110 of the UE 100 receives the fine-tuning execution instruction. The control unit 130 of the UE 100 may decide to perform fine-tuning in accordance with the fine-tuning execution instruction. The fine-tuning execution instruction may include identification information (such as a model ID or function name) of the trained AI/ML model that is the target of fine-tuning execution. The transmitter 210 of the gNB 200 may instruct the UE 100 not to perform fine-tuning. The control unit 130 of the UE 100 may decide not to perform fine-tuning in response to receiving the instruction.

 (1-3)gNB200側でモニタリング及びモデル制御が行われる場合((Z3)の場合) (1-3) When monitoring and model control are performed on the gNB200 side (case (Z3))

 (Z3)の場合、ステップS79乃至ステップS83が実行される。 In the case of (Z3), steps S79 to S83 are executed.

 すなわち、ステップS79において、UE100の制御部130は、学習済AI/MLモデルの推論を実行(ステップS66)することで、推論メトリックを計算する。推論メトリックは、図12のステップS46と同一であってもよい。 In other words, in step S79, the control unit 130 of the UE 100 calculates the inference metric by performing inference on the trained AI/ML model (step S66). The inference metric may be the same as that in step S46 of FIG. 12.

 ステップS80において、UE100の送信部120は、推論メトリックをgNB200へ送信する。gNB200の受信部220は、性能メトリックを受信する。 In step S80, the transmitter 120 of the UE 100 transmits the inference metric to the gNB 200. The receiver 220 of the gNB 200 receives the performance metric.

 ステップS81において、gNB200の制御部230は、UE100で行われた推論(ステップS66)の性能をモニタリングする。制御部230は、ステップS76と同様に、モニタリング結果に基づいて、学習済AI/MLモデルの推論の性能がよくないこと(すなわち、モニタリング結果が性能閾値以下であること)を検出する。このとき、制御部230は、事前にUE100から受信した性能メトリックを利用して推論の性能をモニタリングしてもよい。制御部230は、モニタリング結果が性能閾値以下であることを検出することで、後段のステップS82を行うようにしてもよい。 In step S81, the control unit 230 of the gNB 200 monitors the performance of the inference performed by the UE 100 (step S66). As in step S76, the control unit 230 detects, based on the monitoring results, that the inference performance of the trained AI/ML model is poor (i.e., the monitoring results are below the performance threshold). At this time, the control unit 230 may monitor the inference performance using performance metrics received in advance from the UE 100. The control unit 230 may perform the subsequent step S82 by detecting that the monitoring results are below the performance threshold.

 ステップS82において、gNB200の制御部230は、ステップS65で受信した微調整実行時間に基づいて、UE100において微調整を実行するか否かを判定する。判定自体は、ステップS77と同一でもよい。ここでは、制御部230は、微調整を実行することを決定するとして以下説明する。 In step S82, the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning in the UE 100 based on the fine-tuning execution time received in step S65. The determination itself may be the same as in step S77. Here, the following description will be given assuming that the control unit 230 decides to perform fine-tuning.

 ステップS83において、gNB200の送信部210は、微調整を実行することを指示する微調整実行指示をUE100へ送信する。微調整実行指示の送信自体はステップS78と同一でもよい。UE100の受信部110は、微調整実行指示を受信する。UE100の制御部130は、微調整実行指示に従って、微調整を実行することを決定してもよい。 In step S83, the transmitter 210 of the gNB 200 transmits a fine-tuning execution instruction to the UE 100, instructing the UE 100 to perform fine-tuning. The transmission of the fine-tuning execution instruction itself may be the same as step S78. The receiver 110 of the UE 100 receives the fine-tuning execution instruction. The control unit 130 of the UE 100 may decide to perform fine-tuning in accordance with the fine-tuning execution instruction.

 (1-4)微調整
 そして、ステップS84において、微調整が実行される。
(1-4) Fine Adjustment Then, in step S84, fine adjustment is performed.

 第1に、微調整は、UE100側で行われてもよい。すなわち、ステップS85において、UE100の制御部130は、微調整に用いられる学習用データを生成する。ステップS86において、制御部130は、当該学習用データを用いて、学習済AI/MLモデルに対する微調整を実行する。 First, fine-tuning may be performed on the UE 100 side. That is, in step S85, the control unit 130 of the UE 100 generates learning data to be used for fine-tuning. In step S86, the control unit 130 uses the learning data to perform fine-tuning on the trained AI/ML model.

 第2に、微調整は、OTTサーバ500側で行われてもよい。OTTサーバ500は、微調整対象の学習済AI/MLモデルを保持してもよい。この場合、ステップS87において、UE100の制御部130は、微調整に用いられる学習用データを生成する。ステップS88において、UE100の送信部120は、学習用データをOTTサーバ500へ送信する。OTTサーバ500は、学習用データを受信し、学習用データを用いて、学習済AI/MLモデルに対する微調整を実行する。 Secondly, the fine-tuning may be performed on the OTT server 500 side. The OTT server 500 may store the trained AI/ML model to be fine-tuned. In this case, in step S87, the control unit 130 of the UE 100 generates training data to be used for the fine-tuning. In step S88, the transmission unit 120 of the UE 100 transmits the training data to the OTT server 500. The OTT server 500 receives the training data and uses the training data to perform fine-tuning on the trained AI/ML model.

 (第1実施形態に係る他の動作例1)
 第1実施形態では、UE100側で学習済AI/MLモデルを用いた推論が行われるUEサイドモデル(UE-side Model)を例にして説明したが、推論の種別はUEサイドモデルに限定されない。
(Another Operation Example 1 According to the First Embodiment)
In the first embodiment, a UE-side model in which inference is performed using a trained AI/ML model on the UE 100 side has been described as an example, but the type of inference is not limited to the UE-side model.

 例えば、第1実施形態では、推論がUE100側とgNB200側の双方で行われる2サイドモデル(Two-sided Model)でも実施可能である。この場合、UE100側で行われる推論に対して、図14及び図15に示す動作例を適用すれば実施可能である。また、gNB200側で行われる推論に対しては、制御部230は、gNB200側の学習済AI/MLモデルに対して、微調整実行時間を計算し、モニタリングを行い、性能が性能閾値以下の場合に、微調整実行条件を満たすか否か(或いは微調整実行時間が微調整実行時間閾値以下か否か)を判定する。そして、制御部230は、判定結果に応じて、微調整を実行すれば、gNB200側で行われる推論に対しても実施可能である。また、第1実施形態は、ネットワーク側(gNB200、コアネットワーク、LMF(Location Management Function)、又はOTTサーバ)で推論が行われるネットワークサイドモデル(NW-side Model)でも適用可能である。例えば、図14及び図15において、「UE100」を「ネットワーク側」と置き替えることで、ネットワークサイドモデルでも実施可能である。この場合、ステップS60及びステップS61は、行われなくてもよく、ネットワーク装置400自身で、モデル及びパラメータなどを保持してもよい。 For example, the first embodiment can also be implemented in a two-sided model in which inference is performed on both the UE100 side and the gNB200 side. In this case, implementation is possible by applying the operation examples shown in Figures 14 and 15 to the inference performed on the UE100 side. Furthermore, for the inference performed on the gNB200 side, the control unit 230 calculates and monitors the fine-tuning execution time for the trained AI/ML model on the gNB200 side, and when performance is below the performance threshold, determines whether the fine-tuning execution condition is met (or whether the fine-tuning execution time is below the fine-tuning execution time threshold). Then, if the control unit 230 performs fine-tuning according to the determination result, implementation is also possible for the inference performed on the gNB200 side. Furthermore, the first embodiment can also be applied to a network-side model in which inference is performed on the network side (gNB200, core network, LMF (Location Management Function), or OTT server). For example, in Figures 14 and 15, by replacing "UE 100" with "network side," it is also possible to implement a network-side model. In this case, steps S60 and S61 do not need to be performed, and the network device 400 itself may hold the model, parameters, etc.

 (第1実施形態に係る他の動作例2)
 第1実施形態では、UE100が微調整実行時間をgNB200へ送信する例(ステップS65)について説明したが、UE100が微調整実行時間をgNB200へ送信しなくてもよい。
(Another Operation Example 2 According to the First Embodiment)
In the first embodiment, an example (step S65) in which UE100 transmits the fine-tuning execution time to gNB200 is described, but UE100 does not have to transmit the fine-tuning execution time to gNB200.

 例えば、UE100側でモニタリング及びモデル制御が行われる場合(図14のステップS68乃至ステップS71)において、UE100の制御部130は、微調整実行時間をgNB200へ送信することなく、メモリなどに保持しておき、モニタリング後(ステップS70)、gNB200から受信した微調整実行条件(ステップS69)に基づいて、微調整を実行するか否かを判定してもよい。 For example, when monitoring and model control are performed on the UE100 side (steps S68 to S71 in FIG. 14), the control unit 130 of UE100 may store the fine-tuning execution time in a memory or the like without transmitting it to the gNB200, and after monitoring (step S70), may determine whether to perform fine-tuning based on the fine-tuning execution conditions received from the gNB200 (step S69).

 (第1実施形態に係る他の動作例3)
 第1実施形態では、UE100側でモニタリングが行われ、gNB200側でモデル制御が行われる場合(図15のステップS75乃至ステップS78)において、UE100は、微調整実行時間(ステップS65)とモニタリング結果(ステップS76)とを別々に送信する例を説明した。例えば、UE100は、ステップS65において微調整実行時間を送信するのではなく、ステップS76においてモニタリング結果とともに微調整実行時間を送信してもよい。gNB200では、微調整実行時間を取得できるため、以降は第1実施形態と同様に実施可能である。
(Another Operation Example 3 According to the First Embodiment)
In the first embodiment, when monitoring is performed on the UE 100 side and model control is performed on the gNB 200 side (steps S75 to S78 in FIG. 15), an example has been described in which the UE 100 transmits the fine-tuning execution time (step S65) and the monitoring result (step S76) separately. For example, instead of transmitting the fine-tuning execution time in step S65, the UE 100 may transmit the fine-tuning execution time together with the monitoring result in step S76. Since the gNB 200 can acquire the fine-tuning execution time, the subsequent steps can be performed in the same manner as in the first embodiment.

 (第1実施形態に係る他の動作例4)
 第1実施形態では、ユースケースとして、ビーム管理を例にして説明したが、ユースケースはビーム管理に限定されない。例えば、第1実施形態は、CSIフィードバック向上(X1.1)又は位置精度向上(X1.3)にも適用可能である。
(Another Operation Example 4 According to the First Embodiment)
In the first embodiment, beam management has been described as an example of a use case, but the use case is not limited to beam management. For example, the first embodiment can also be applied to CSI feedback improvement (X1.1) or position accuracy improvement (X1.3).

 [第2実施形態]
 次に、第2実施形態について説明する。第2実施形態では、第1実施形態との相違点を中心にして説明する。
Second Embodiment
Next, a second embodiment will be described, focusing on the differences from the first embodiment.

 第1実施形態では、微調整実行時間を考慮して微調整を実行することについて説明した。第2実施形態では、学習済AI/MLモデルの性能を評価して、評価結果に基づいて微調整を実施することについて説明する。特に、第2実施形態では、性能評価を実行するときに、性能評価にかかる時間を計算し、性能評価にかかる時間に基づいて、性能評価を実行するか否かを判定するようにしている。 In the first embodiment, we have described performing fine-tuning while taking into account the time required to perform the fine-tuning. In the second embodiment, we will describe evaluating the performance of a trained AI/ML model and performing fine-tuning based on the evaluation results. In particular, in the second embodiment, when a performance evaluation is performed, the time required for the performance evaluation is calculated, and a decision is made as to whether or not to perform the performance evaluation based on the time required for the performance evaluation.

 具体的には、第1に、ユーザ装置(例えばUE100)が、学習済AI/MLモデルの性能評価にかかる時間を示す性能評価実行時間に基づいて、性能評価を実行する。第2に、ユーザ装置が、性能評価の評価結果に基づいて、学習済AI/MLモデルの微調整を実行する。ここで、微調整は、データ量閾値以下のデータ量の学習用データを用いて学習済AI/MLモデルを学習させることである。 Specifically, first, the user device (e.g., UE100) performs a performance evaluation based on a performance evaluation execution time that indicates the time required to evaluate the performance of the trained AI/ML model. Second, the user device performs fine-tuning of the trained AI/ML model based on the results of the performance evaluation. Here, fine-tuning means training the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 このように、UE100では、学習済AI/MLモデルの性能評価実行時間に基づいて、性能評価を実行するようにしている。そのため、例えば、UE100では、性能評価実行時間が性能評価時間閾値以下の場合に性能評価を実行し、性能評価実行時間が性能評価時間閾値よりも多くの時間がかかる場合は性能評価を実行しないようにすることも可能となる。これにより、例えば、UE100では、性能評価実行時間を抑制させることが可能となる。そして、UE100では、性能評価実行時間を抑制させることで、微調整の実行終了までの時間も抑制され、時間的な観点から微調整を適切に行うことが可能となる。 In this way, UE100 performs performance evaluation based on the performance evaluation execution time of the trained AI/ML model. Therefore, for example, UE100 can perform performance evaluation when the performance evaluation execution time is equal to or less than the performance evaluation time threshold, and can also not perform performance evaluation when the performance evaluation execution time is longer than the performance evaluation time threshold. This makes it possible, for example, for UE100 to reduce the performance evaluation execution time. Furthermore, by reducing the performance evaluation execution time, UE100 can also reduce the time until the fine-tuning execution is completed, making it possible to perform fine-tuning appropriately from a time perspective.

 また、UE100では、学習済AI/MLモデルの性能評価を行うことで、学習済AI/MLモデルが特定の時間又は場所においては最適な推論結果データを得るものの、それ以外の時間又は場所では必ずしも最適な推論結果データを得られない場合(一般的にはこれを「過学習」と呼ぶ。)を把握することも可能となる。一般的には、学習済AI/MLモデルは、特定の時間又は場所で得られた学習用データを用いて学習が行われた場合、そのような特定の時間又は場所で最適な推論結果が得られることが想定される。性能評価が行われることで、そのような学習済AI/MLモデルの特徴を捉えることも可能となる。そして、UE100では、例えば、学習済AI/MLモデルの性能評価の評価結果が閾値(例えば性能評価結果閾値)以上の場合に微調整を実行することで、更新済AI/MLモデルからは最適な推論結果データを得る可能性も一定以上に高くなる。従って、移動通信システム1において、微調整を適切に行うことが可能となる。 Furthermore, by evaluating the performance of the trained AI/ML model, UE100 can determine when a trained AI/ML model obtains optimal inference result data at a specific time or location, but does not necessarily obtain optimal inference result data at other times or locations (this is generally referred to as "overlearning"). Generally, when a trained AI/ML model is trained using training data obtained at a specific time or location, it is expected that optimal inference results will be obtained at that specific time or location. Performance evaluation can also capture the characteristics of such a trained AI/ML model. Furthermore, in UE100, for example, by performing fine-tuning when the evaluation result of the performance evaluation of the trained AI/ML model is equal to or greater than a threshold (e.g., a performance evaluation result threshold), the likelihood of obtaining optimal inference result data from the updated AI/ML model increases to a certain extent. Therefore, fine-tuning can be performed appropriately in mobile communication system 1.

 (第2実施形態で用いられる評価指標)
 ここで、第2実施形態で用いられる学習済AI/MLモデルの評価指標について説明する。
(Evaluation index used in the second embodiment)
Here, the evaluation index of the trained AI/ML model used in the second embodiment will be described.

 一般に、AI/MLモデルの評価指標として、回帰評価と分類評価とが用いられる場合がある。 In general, regression evaluation and classification evaluation are sometimes used as evaluation indicators for AI/ML models.

 回帰評価とは、例えば、予測値(例えば推論結果データ)と実際値(例えばAI/MLモデルを用いないで(すなわちレガシーにより)得られた出力結果)との差を利用して評価することである。回帰評価の例として、例えば、平均二乗誤差(MSE:Mean SquaredError)、正規化平均二乗誤差(NMSE:Normalized MSE)、或いは、平均絶対誤差(MAE:Mean Absolute Error)がある。MSEは、例えば、予測値と実際値との差の二乗平均を表している。また、NMSEは、例えば、予測値と実際値との差の二乗の平均を正規化したものである。NMSEは、例えば、予測値と実際値との差の絶対値の平均を表している。更に、MAEは、例えば、真の値と予測値との差の絶対値の平均を表す。いずれの評価指標も、「0」から「1」までの範囲を有し、「0」に近いほど性能がよいことを表し、「1」に近いほど性能がよくないことを表す。 Regression evaluation is, for example, evaluation using the difference between a predicted value (e.g., inference result data) and an actual value (e.g., an output result obtained without using an AI/ML model (i.e., legacy)). Examples of regression evaluation include mean squared error (MSE), normalized mean squared error (NMSE), and mean absolute error (MAE). MSE, for example, represents the root mean square of the difference between the predicted value and the actual value. NMSE, for example, represents the normalized root mean square of the difference between the predicted value and the actual value. NMSE, for example, represents the root mean square of the difference between the predicted value and the actual value. MAE, for example, represents the root mean square of the difference between the true value and the predicted value. All evaluation indices range from 0 to 1, with values closer to 0 indicating better performance and values closer to 1 indicating worse performance.

 一方、分類評価とは、例えば、予測に対する正解の割合などを利用して評価する手法である。分類評価として、例えば、確度(Precision)、適合率(Precision)、或いは再現率(Recall)などがある。確度は、例えば、全ての予測のうち正解の割合を表している。また、適合率は、例えば、正(Positive)と予測されたもののうち実際に正である割合を表している。更に、再現率は、例えば、実際に正であるもののうち正と予測された割合を表している。 On the other hand, classification evaluation is a method of evaluation using, for example, the proportion of correct answers to predictions. Examples of classification evaluation include precision, accuracy, and recall. Accuracy, for example, represents the proportion of correct answers out of all predictions. Precision, for example, represents the proportion of those predicted as positive that are actually correct. Recall, for example, represents the proportion of those predicted as correct out of those that are actually positive.

 第2実施形態において、学習済AI/MLモデルを評価することを、「性能評価」と呼ぶ。「性能評価」で用いられる評価手法は、第2実施形態では、NMSEを用いるものとして説明するが、NMSE以外の評価手法が用いられてもよい。 In the second embodiment, evaluating a trained AI/ML model is referred to as "performance evaluation." In the second embodiment, the evaluation method used in "performance evaluation" is described as using NMSE, but evaluation methods other than NMSE may also be used.

 上述したように、第2実施形態では、移動通信システム1において、性能評価にかかる性能評価実行時間に基づいて性能評価を実行するか否かを判定する。そして、移動通信システム1では、性能評価を実行することを判定した場合、学習済AI/MLモデルに対して性能評価を実行し、その評価結果に基づいて、微調整を実行するようにしている。 As described above, in the second embodiment, the mobile communication system 1 determines whether to perform a performance evaluation based on the performance evaluation execution time required for the performance evaluation. If the mobile communication system 1 determines to perform a performance evaluation, it performs a performance evaluation on the trained AI/ML model and performs fine-tuning based on the evaluation results.

 (第2実施形態に係る動作例)
 次に、第2実施形態に係る動作例について説明する。
(Operation example according to the second embodiment)
Next, an example of operation according to the second embodiment will be described.

 図16乃至図20は、第2実施形態に係る動作例を表す図である。図16乃至図20では、ビーム管理のユースケースであって、UEサイドモデルの場合の動作例について説明する。また、図17乃至図19に示すように、第1実施形態と同様に、(Z1)乃至(Z3)の各例により管理を説明する。 FIGS. 16 to 20 are diagrams showing examples of operation according to the second embodiment. In FIGS. 16 to 20, a use case of beam management is described, illustrating an example of operation in the case of a UE-side model. Furthermore, as shown in FIGS. 17 to 19, management is described using examples (Z1) to (Z3), similar to the first embodiment.

 図16に示すように、ステップS90において、ネットワーク装置400は、学習済AI/MLモデルをUE100へ転送(又は送信)する。UE100の受信部110は、学習済AI/MLモデルを受信する。 As shown in FIG. 16, in step S90, the network device 400 transfers (or transmits) the trained AI/ML model to the UE 100. The receiver 110 of the UE 100 receives the trained AI/ML model.

 ステップS91において、ネットワーク装置400は、性能評価時間計算用パラメータをUE100へ送信する。性能評価計算用パラメータは、性能評価実行時間を計算するために用いられるパラメータを表す。 In step S91, the network device 400 transmits performance evaluation time calculation parameters to the UE 100. The performance evaluation calculation parameters represent parameters used to calculate the performance evaluation execution time.

 第1に、性能評価計算用パラメータは、例えば、性能評価で用いられるデータセットの数(又はデータ量)を含んでもよい。性能評価で用いられるデータセットの数は学習済AI/MLモデルに用いた学習データセットと同じ数でもよいし、それより少なくてもよい。UE100ではデータセットに例えばNMSEなどの純粋に数学的手法で性能評価指標を計算出来るデータ、例えば予測値(推論により得られる値)と正解値(グランドトゥルースデータ)が含まれている場合、数学的手法で性能評価指標を計算し、その計算時間を性能評価実行時間としてもよい。また、UE100では、データセットが入力データと正解値の場合、データセットの数分のデータセットを、学習済AI/MLモデルに入力させて推論を行わせ、その推論結果と正解値に対して性能評価を実行して、性能評価実行時間を計算してもよい。性能評価実行時間は、学習済AI/MLモデルでの推論開始(又は学習済AI/MLモデルの評価開始)から、学習済AI/MLモデルに対する性能評価の評価結果を得るまでの時間を表してもよい。 First, the performance evaluation calculation parameters may include, for example, the number of datasets (or amount of data) used in the performance evaluation. The number of datasets used in the performance evaluation may be the same as or smaller than the number of training datasets used in the trained AI/ML model. In UE100, if the dataset contains data for which a performance evaluation index can be calculated using a purely mathematical method such as NMSE, for example, a predicted value (a value obtained by inference) and a correct value (ground truth data), the performance evaluation index may be calculated using a mathematical method, and the calculation time may be taken as the performance evaluation execution time. Furthermore, in UE100, if the dataset is input data and a correct value, the same number of datasets as the number of datasets may be input into the trained AI/ML model to perform inference, and performance evaluation may be performed on the inference results and the correct value to calculate the performance evaluation execution time. The performance evaluation execution time may represent the time from the start of inference with the trained AI/ML model (or the start of evaluation of the trained AI/ML model) to the acquisition of the performance evaluation results for the trained AI/ML model.

 第2に、性能評価計算用パラメータは、性能評価で用いられる評価手法(NMSEなど)を含んでもよい。UE100では、当該評価手法を用いて、性能評価を実行して、性能評価実行時間を計算することになる。なお、第1実施形態と同様に、ネットワーク装置400は、性能評価時間計算用パラメータで計算したサンプルをUE100へ送信してもよい。 Second, the performance evaluation calculation parameters may include an evaluation method (such as NMSE) used in performance evaluation. UE 100 uses this evaluation method to perform performance evaluation and calculate the performance evaluation execution time. As in the first embodiment, network device 400 may transmit samples calculated using the performance evaluation time calculation parameters to UE 100.

 なお、モデル転送と、性能評価計算用パラメータ及びサンプルの送信は、ネットワーク装置400からではなく、OTTサーバから行われてもよい(ステップS92及びステップS93)。 Note that model transfer and transmission of performance evaluation calculation parameters and samples may be performed from the OTT server rather than from the network device 400 (steps S92 and S93).

 ステップS94において、ネットワーク装置400は、性能評価時間計算用データセットをUE100へ送信する。性能評価時間計算用データセットは、性能評価実行時間を計算するために用いられるデータセットである。上述したように、UE100では、数学的手法(例えばNMSEなど)で性能評価指標を計算してその計算時間を性能評価実行時間としてもよい。UE100では、推論を行わせて性能評価実行時間を計算するようにしてもよい。UE100の受信部110は、性能評価時間計算用データセットを受信する。 In step S94, the network device 400 transmits a performance evaluation time calculation dataset to the UE 100. The performance evaluation time calculation dataset is a dataset used to calculate the performance evaluation execution time. As described above, the UE 100 may calculate a performance evaluation index using a mathematical method (e.g., NMSE) and use the calculation time as the performance evaluation execution time. The UE 100 may also perform inference to calculate the performance evaluation execution time. The receiving unit 110 of the UE 100 receives the performance evaluation time calculation dataset.

 なお、UE100では、当該データセットのデータ量が所定閾値以上の場合、当該データセットを利用して性能評価実行時間を計算することができない場合がある。或いは、UE100では、ステップS90で受信した学習済AI/MLモデルの大きさが所定以上に大きく、メモリに記憶できない場合もある。そのため、ステップS95において、UE100は受信した当該データセットをgNB200へ送信してもよい。gNB200において性能評価実行時間を計算させるためである。また、gNB200において性能評価実行時間を計算させるため、ステップS96において、gNB200以外のネットワーク装置400がgNB200へ当該データセットを送信してもよい。 Note that if the amount of data in the dataset is equal to or greater than a predetermined threshold, UE100 may not be able to use the dataset to calculate the performance evaluation execution time. Alternatively, UE100 may find that the size of the trained AI/ML model received in step S90 is larger than a predetermined value and cannot be stored in memory. Therefore, in step S95, UE100 may transmit the received dataset to gNB200. This is to allow gNB200 to calculate the performance evaluation execution time. Furthermore, in step S96, a network device 400 other than gNB200 may transmit the dataset to gNB200 to allow gNB200 to calculate the performance evaluation execution time.

 また、当該データセットは、OTTサーバ500からUE100へ送信されてもよい(ステップS97)。この場合、UE100は、受信した当該データセットをgNB200へ送信し(ステップS98)、gNB200において性能評価実行時間を計算させてもよい。 Alternatively, the data set may be transmitted from the OTT server 500 to the UE 100 (step S97). In this case, the UE 100 may transmit the received data set to the gNB 200 (step S98), causing the gNB 200 to calculate the performance evaluation execution time.

 ステップS99において、ネットワーク装置400は、現在の指標をUE100へ送信する。現在の指標は、現在において性能評価を行った場合の評価結果を表す。例えば、性能評価がNMSEを用いて行われる場合、NMSE=0.2などが現在の指標となる。ネットワーク装置400において学習が行われた場合、ネットワーク装置400では予測値と正解値のデータセットを所有しているため、モデルの性能評価を行うことが可能である。ネットワーク装置400は、取得した評価結果を、現在の指標として、UE100へ送信することができる。UE100では、現在の指標を用いて、後段の性能評価(図17のステップS117)に用いることができる。 In step S99, the network device 400 transmits the current index to the UE 100. The current index represents the evaluation result when performance evaluation is currently performed. For example, if performance evaluation is performed using NMSE, the current index would be NMSE = 0.2, etc. If learning is performed in the network device 400, the network device 400 possesses a data set of predicted values and correct values, and therefore is able to evaluate the performance of the model. The network device 400 can transmit the acquired evaluation result as the current index to the UE 100. The UE 100 can use the current index in subsequent performance evaluation (step S117 in Figure 17).

 なお、gNB200において性能評価実行時間の計算が行われてもよく、そのような場合を考慮して、UEは、ステップS99で受信した現在の指標を、gNB200へ送信してもよい(ステップS100)。また、gNB200以外のネットワーク装置400も、gNB200へ現在の指標を送信してもよい(ステップS101)。 Note that the performance evaluation execution time may be calculated in gNB200, and taking such cases into consideration, the UE may transmit the current indicators received in step S99 to gNB200 (step S100). Network devices 400 other than gNB200 may also transmit the current indicators to gNB200 (step S101).

 また、現在の指標は、OTTサーバ500からUE100へ送信されてもよく(ステップS102)、UE100は、gNB200において性能評価実行時間の計算を実行させるために、OTTサーバ500から受信した現在の指標をgNB200へ送信してもよい(ステップS103)。 The current indicator may also be transmitted from the OTT server 500 to the UE 100 (step S102), and the UE 100 may transmit the current indicator received from the OTT server 500 to the gNB 200 in order to cause the gNB 200 to perform calculation of the performance evaluation execution time (step S103).

 ステップS104において、UE100の制御部130は、性能評価時間計算用パラメータを利用して、性能評価の実行時間を計算する。上述したように、制御部130は、数学的手法(例えばNMSEなど)で性能評価指標を計算してその計算時間を性能評価実行時間としてもよい。制御部130は、推論を行わせて性能評価実行時間を計算するようにしてもよい。制御部130は、性能評価の実行にかかる時間を計算(又は測定)し、計算した時間を性能評価実行時間としてもよい。 In step S104, the control unit 130 of the UE 100 calculates the execution time of the performance evaluation using the parameters for calculating the performance evaluation time. As described above, the control unit 130 may calculate the performance evaluation index using a mathematical method (e.g., NMSE) and use the calculation time as the performance evaluation execution time. The control unit 130 may also perform inference to calculate the performance evaluation execution time. The control unit 130 may calculate (or measure) the time required to execute the performance evaluation and use the calculated time as the performance evaluation execution time.

 ステップS105において、UE100の送信部120は、性能評価実行時間をgNB200へ送信する。gNB200の受信部220は、性能評価実行時間を受信する。 In step S105, the transmitter 120 of the UE 100 transmits the performance evaluation execution time to the gNB 200. The receiver 220 of the gNB 200 receives the performance evaluation execution time.

 ステップS106において、UE100の制御部130は、ステップS90で受信した学習済AI/MLモデルに対して推論を実行する。 In step S106, the control unit 130 of the UE 100 performs inference on the trained AI/ML model received in step S90.

 そして、ステップS110(図17)において、移動通信システム1において、管理(Management)が行われる。 Then, in step S110 (Figure 17), management is performed in the mobile communication system 1.

 (2-1)UE100側においてモニタリング及びモデル制御が行われる場合((Z1)の場合) (2-1) When monitoring and model control are performed on the UE 100 side (case (Z1))

 (Z1)の場合、ステップS111乃至ステップS118が実行される。 In the case of (Z1), steps S111 to S118 are executed.

 すなわち、ステップS111において、gNB200の制御部230は、UE100において性能評価を実行するための条件を示す性能評価実行条件を決定する。制御部230は、ステップS105で受信した性能評価実行時間に基づいて、性能評価実行条件を決定してもよい。 That is, in step S111, the control unit 230 of the gNB 200 determines performance evaluation execution conditions that indicate the conditions for performing performance evaluation in the UE 100. The control unit 230 may determine the performance evaluation execution conditions based on the performance evaluation execution time received in step S105.

 第1に、性能評価実行条件は、性能評価時間閾値を含んでもよい。UE100では、性能評価実行時間が性能評価時間閾値以下のときに性能評価を実行してもよく、性能評価実行時間が性能評価時間閾値よりも多くの時間がかかるときは性能評価を実行しなくてもよい。性能評価実行条件は、性能評価時間閾値以下のときに性能評価を実行することを示す情報(或いは性能評価時間閾値よりも多くの時間がかかるときは性能評価を実行しないことを示す情報)が含まれてもよい。 First, the performance evaluation execution condition may include a performance evaluation time threshold. In UE 100, performance evaluation may be performed when the performance evaluation execution time is equal to or less than the performance evaluation time threshold, and performance evaluation may not be performed when the performance evaluation execution time is longer than the performance evaluation time threshold. The performance evaluation execution condition may include information indicating that performance evaluation is to be performed when the performance evaluation time is equal to or less than the performance evaluation time threshold (or information indicating that performance evaluation is not to be performed when the performance evaluation time is longer than the performance evaluation time threshold).

 第2に、性能評価実行条件は、性能評価を実行することを指示する情報を含んでもよい。或いは、性能評価実行条件は、性能評価を実行しないことを指示する情報を含んでもよい。gNB200の制御部230は、ステップS105で受信した性能評価実行時間に基づいて、UE100において性能評価を実行すること(或いは実行しないこと)を決定してもよい。 Second, the performance evaluation execution conditions may include information instructing that performance evaluation be performed. Alternatively, the performance evaluation execution conditions may include information instructing that performance evaluation not be performed. The control unit 230 of the gNB 200 may decide to perform (or not perform) performance evaluation in the UE 100 based on the performance evaluation execution time received in step S105.

 第3に、性能評価条件は、性能評価を実行する際の評価手法(例えばNMSE)に関する情報を含んでもよい。UE100では、当該評価手法を利用して、性能評価を実行する。 Third, the performance evaluation conditions may include information regarding the evaluation method (e.g., NMSE) used when performing the performance evaluation. UE 100 performs the performance evaluation using this evaluation method.

 第4に、性能評価条件は、性能評価を実行する対象となる学習済AI/MLモデルの識別情報(モデルID又は機能名など)を含んでもよい。 Fourth, the performance evaluation conditions may include identification information (such as a model ID or function name) of the trained AI/ML model for which performance evaluation is to be performed.

 ステップS112において、gNB200の送信部210は、性能評価実行条件をUE100へ送信する。UE100の受信部110は、性能評価実行条件を受信する。 In step S112, the transmitter 210 of the gNB 200 transmits the performance evaluation execution conditions to the UE 100. The receiver 110 of the UE 100 receives the performance evaluation execution conditions.

 ステップS113において、gNB200の制御部230は、UE100において微調整を実行するための条件を示す微調整実行条件を決定する。微調整実行条件は、第1実施形態で説明した微調整実行条件(図14のステップS68)と同一内容であってもよい。 In step S113, the control unit 230 of the gNB 200 determines fine-tuning execution conditions that indicate the conditions for performing fine-tuning in the UE 100. The fine-tuning execution conditions may be the same as the fine-tuning execution conditions described in the first embodiment (step S68 in FIG. 14).

 ただし、第2実施形態に係る微調整実行条件には、性能評価の評価結果に対する閾値を表す性能評価結果閾値を含む。例えば、UE100では、性能評価結果閾値を利用して、微調整の実行有無を判定する。第2実施形態に係る微調整実行条件には、性能評価の評価結果が性能評価結果閾値以上のときに微調整を実行することを示す情報(或いは当該評価結果が性能評価結果閾値未満のときに微調整を実行しないことを示す情報)が含まれてもよい。或いは、微調整を実行しない場合に再学習を実行することを指示する情報が含まれてもよい。 However, the fine-tuning execution conditions according to the second embodiment include a performance evaluation result threshold that indicates a threshold for the evaluation result of the performance evaluation. For example, the UE 100 uses the performance evaluation result threshold to determine whether or not to perform fine-tuning. The fine-tuning execution conditions according to the second embodiment may include information indicating that fine-tuning is to be performed when the evaluation result of the performance evaluation is equal to or greater than the performance evaluation result threshold (or information indicating that fine-tuning is not to be performed when the evaluation result is less than the performance evaluation result threshold). Alternatively, they may include information instructing that relearning be performed if fine-tuning is not to be performed.

 なお、第2実施形態に係る微調整実行条件には、第1実施形態で説明した微調整実行時間閾値が含まれてなくてもよい。 Note that the fine-tuning execution conditions in the second embodiment do not necessarily have to include the fine-tuning execution time threshold described in the first embodiment.

 ステップS114において、gNB200の送信部210は、微調整実行条件をUE100へ送信する。UE100の受信部110は、微調整実行条件を受信する。 In step S114, the transmitter 210 of the gNB 200 transmits the fine-tuning execution conditions to the UE 100. The receiver 110 of the UE 100 receives the fine-tuning execution conditions.

 ステップS115において、UE100の制御部130は、学習済AI/MLモデルの推論(ステップS106)に対してモニタリングを行う。制御部130は、モニタリングの結果、学習済AI/MLモデルの性能が性能閾値以下であること(すなわち、性能がよくないこと)を検出する。制御部130は、学習済AI/MLモデルの性能が性能閾値以下であることを検出することで、後段のステップS116を行ってもよい。 In step S115, the control unit 130 of the UE 100 monitors the inference of the trained AI/ML model (step S106). As a result of the monitoring, the control unit 130 detects that the performance of the trained AI/ML model is below the performance threshold (i.e., the performance is poor). The control unit 130 may perform the subsequent step S116 by detecting that the performance of the trained AI/ML model is below the performance threshold.

 ステップS116において、UE100の制御部130は、ステップS112で受信した性能評価実行条件に基づいて、性能評価を実行するか否かを決定する。具体的には、制御部130は、ステップS104で計算した性能評価実行時間と、ステップS112で受信した性能評価実行条件とに基づいて、性能評価を実行するか否かを決定する。例えば、制御部130は、性能評価実行時間が、性能評価実行条件に含まれる性能評価時間閾値以下のときは性能評価を実行し、性能評価実行時間が、性能評価時間閾値を超えるときは性能評価を実行しない。以下では、制御部130は、性能評価を実行するものとして説明する。 In step S116, the control unit 130 of the UE 100 determines whether or not to perform performance evaluation based on the performance evaluation execution conditions received in step S112. Specifically, the control unit 130 determines whether or not to perform performance evaluation based on the performance evaluation execution time calculated in step S104 and the performance evaluation execution conditions received in step S112. For example, the control unit 130 performs performance evaluation when the performance evaluation execution time is equal to or less than the performance evaluation time threshold included in the performance evaluation execution conditions, and does not perform performance evaluation when the performance evaluation execution time exceeds the performance evaluation time threshold. In the following description, the control unit 130 is assumed to perform performance evaluation.

 ステップS117において、UE100の制御部130は、学習済AI/MLモデルに対する性能評価を実行する。例えば、制御部130は、性能評価条件に含まれる評価手法(例えばNMSE)を利用して、性能評価を実行する。 In step S117, the control unit 130 of the UE 100 performs a performance evaluation of the trained AI/ML model. For example, the control unit 130 performs the performance evaluation using an evaluation method (e.g., NMSE) included in the performance evaluation conditions.

 ステップS118において、UE100の制御部130は、微調整を実行するか否かを決定する。具体的には、制御部130は、ステップS117で実行した性能評価の評価結果と、微調整実行条件とに基づいて、微調整を実行するか否かを決定する。例えば、制御部130では、性能評価の評価結果が、性能評価結果閾値以上のとき(すなわち、評価結果が良いこと)に微調整を実行し、性能評価の評価結果が性能評価結果閾値未満のとき(すなわち、評価結果が良くないこと)は微調整を実行しない。これは、例えば、当該評価結果が性能評価結果閾値未満のときに、学習済AI/Mモデルに対して微調整を行うと、性能閾値以下の学習済AI/MLモデル(ステップS115)に対して影響が一定以上に大きくなり、微調整を行っても学習済AI/MLモデルの改善を図ることができない、或いは過学習が発生するなど全体としてのAI/MLモデルの性能が低下することが予測されるからである。このような場合、微調整ではなく、再学習が行われた方が良い場合がある。一方で、当該評価結果が性能評価結果閾値以上のときであれば、当該学習済AI/MLモデルに対して微調整を行っても、影響は一定以下に抑制させることができ、性能の改善を図ることが予測できるからである。制御部130は、ステップS118において、微調整を実行することを決定するものとして、以下説明する。 In step S118, the control unit 130 of the UE 100 determines whether to perform fine-tuning. Specifically, the control unit 130 determines whether to perform fine-tuning based on the evaluation result of the performance evaluation performed in step S117 and the fine-tuning execution conditions. For example, the control unit 130 performs fine-tuning when the evaluation result of the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good), and does not perform fine-tuning when the evaluation result is less than the performance evaluation result threshold (i.e., the evaluation result is poor). This is because, for example, if fine-tuning is performed on the trained AI/ML model when the evaluation result is less than the performance evaluation result threshold, the impact on the trained AI/ML model (step S115) that is below the performance threshold will be greater than a certain level, and it is predicted that fine-tuning will not improve the trained AI/ML model, or that over-training will occur, resulting in a decrease in the overall performance of the AI/ML model. In such cases, re-training may be preferable to fine-tuning. On the other hand, if the evaluation result is equal to or greater than the performance evaluation result threshold, even if fine-tuning is performed on the trained AI/ML model, the impact can be kept below a certain level, and it is predicted that performance will be improved. The following explanation assumes that the control unit 130 decides to perform fine-tuning in step S118.

 (2-2)UE100側でモニタリングが行われ、gNB200側でモデル制御が行われる場合((Z2)の場合) (2-2) When monitoring is performed on the UE 100 side and model control is performed on the gNB 200 side (case (Z2))

 (Z2)の場合、図18に示すステップS120乃至ステップS127が実行される。 In the case of (Z2), steps S120 to S127 shown in Figure 18 are executed.

 すなわち、ステップS120において、UE100の制御部130は、学習済AI/MLモデルの推論に対してモニタリングを行う。 That is, in step S120, the control unit 130 of the UE 100 monitors the inference of the trained AI/ML model.

 ステップS121において、UE100の送信部120は、モニタリング結果をgNB200へ送信する。gNB200の受信部220は、モニタリング結果を受信する。 In step S121, the transmitter 120 of the UE 100 transmits the monitoring results to the gNB 200. The receiver 220 of the gNB 200 receives the monitoring results.

 ステップS122において、gNB200の制御部230は、モニタリング結果に基づいて、学習済AI/MLモデルの性能が性能閾値以下であること(すなわち、性能がよくないこと)を検出する。そして、制御部230は、UE100において性能評価を実行させる否かを決定する。具体的には、制御部230は、ステップS105(図16)で受信した性能評価実行時間に基づいて、性能評価を実行するか否かを決定する。性能評価を実行するか否かの決定は、ステップS116(図17)と同一でもよい。すなわち、制御部230は、ステップS105で受信した性能評価実行時間が性能評価時間閾値以下のときは性能評価を実行することを決定し、ステップS105で受信した性能評価実行時間が性能評価時間閾値を超えるときは性能評価を実行しないことを決定してもよい。以下では、制御部230が、性能評価実行時間に基づいて性能評価を実行することを決定したものとして説明する。 In step S122, the control unit 230 of the gNB 200 detects, based on the monitoring results, that the performance of the trained AI/ML model is below a performance threshold (i.e., performance is poor). The control unit 230 then decides whether to cause the UE 100 to perform performance evaluation. Specifically, the control unit 230 decides whether to perform performance evaluation based on the performance evaluation execution time received in step S105 (Figure 16). The decision on whether to perform performance evaluation may be the same as that in step S116 (Figure 17). That is, the control unit 230 may decide to perform performance evaluation when the performance evaluation execution time received in step S105 is below the performance evaluation time threshold, and may decide not to perform performance evaluation when the performance evaluation execution time received in step S105 exceeds the performance evaluation time threshold. The following description is based on the assumption that the control unit 230 decides to perform performance evaluation based on the performance evaluation execution time.

 ステップS123において、gNB200の送信部210は、性能評価を実行することを指示する性能評価実行指示(又は性能評価実行指示)をUE100へ送信する。性能評価実行指示は、性能評価を行う対象となる学習済AI/MLモデルの識別情報(例えばモデルID又は機能名など)が含まれてもよい。性能評価実行指示は、性能評価を実行しないことを指示する指示情報であってもよい。UE100の受信部110は、性能評価実行指示を受信する。 In step S123, the transmitter 210 of the gNB 200 transmits a performance evaluation execution instruction (or performance evaluation execution instruction) to the UE 100, instructing the UE 100 to perform a performance evaluation. The performance evaluation execution instruction may include identification information (e.g., a model ID or function name) of the trained AI/ML model for which performance evaluation is to be performed. The performance evaluation execution instruction may also be instruction information instructing the UE 100 not to perform performance evaluation. The receiver 110 of the UE 100 receives the performance evaluation execution instruction.

 ステップS124において、UE100の制御部130は、性能評価実行指示を受信したことに応じて性能評価を実行する。性能評価の実行自体は、ステップS117(図17)と同一でもよい。 In step S124, the control unit 130 of the UE 100 performs performance evaluation in response to receiving the performance evaluation execution instruction. The performance evaluation itself may be performed in the same manner as in step S117 (Figure 17).

 ステップS125において、UE100の送信部120は、性能評価の評価結果をgNB200へ送信する。gNB200の受信部220は、評価結果を受信する。 In step S125, the transmitter 120 of the UE 100 transmits the performance evaluation results to the gNB 200. The receiver 220 of the gNB 200 receives the evaluation results.

 ステップS126において、gNB200の制御部230は、ステップS125で受信した性能評価の評価結果に基づいて、UE100において微調整を実行するか否かを決定する。微調整を実行するか否かの決定は、ステップS118(図17)と同一でもよい。すなわち、制御部230は、ステップS125で受信した評価結果が、性能評価結果閾値以上のときに微調整を実行することを決定し、ステップS125で受信した評価結果が性能評価結果閾値未満のときは微調整を実行しないことを決定してもよい。或いは、制御部230は、微調整を実行しない場合に再学習を実行することを決定してもよい。以下では、制御部230は、評価結果に基づいて微調整を実行することを決定したとして説明する。 In step S126, the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning in the UE 100 based on the evaluation result of the performance evaluation received in step S125. The decision on whether or not to perform fine-tuning may be the same as that in step S118 (Figure 17). That is, the control unit 230 may decide to perform fine-tuning when the evaluation result received in step S125 is equal to or greater than the performance evaluation result threshold, and may decide not to perform fine-tuning when the evaluation result received in step S125 is less than the performance evaluation result threshold. Alternatively, the control unit 230 may decide to perform re-learning if fine-tuning is not to be performed. In the following, it is assumed that the control unit 230 decides to perform fine-tuning based on the evaluation result.

 ステップS127において、gNB200の送信部210は、微調整を実行することを指示する微調整実行指示をUE100へ送信する。微調整実行指示は、微調整を実行する対象となる学習済AI/MLモデルの識別情報(例えばモデルID又は機能名など)が含まれてもよい。微調整実行指示は、微調整を実行しないことを指示する指示情報であってもよい。UE100の受信部110は、微調整実行指示を受信する。UE100の制御部130は、微調整実行指示を受信したことに応じて微調整を実行することを決定してもよい。 In step S127, the transmitter 210 of the gNB 200 transmits a fine-tuning execution instruction to the UE 100 to instruct the UE 100 to perform fine-tuning. The fine-tuning execution instruction may include identification information (e.g., a model ID or a function name) of the trained AI/ML model for which fine-tuning is to be performed. The fine-tuning execution instruction may also be instruction information instructing the UE 100 not to perform fine-tuning. The receiver 110 of the UE 100 receives the fine-tuning execution instruction. The controller 130 of the UE 100 may decide to perform fine-tuning in response to receiving the fine-tuning execution instruction.

 (2-3)gNB200側でモニタリング及びモデル制御が行われる場合((Z3)の場合) (2-3) When monitoring and model control are performed on the gNB200 side (case (Z3))

 (Z3)の場合、図19に示すステップS130乃至ステップS138が実行される。 In the case of (Z3), steps S130 to S138 shown in Figure 19 are executed.

 すなわち、ステップS130において、UE100の制御部130は、学習済AI/MLモデルの推論(ステップS106)に対して性能メトリックを計算する。 That is, in step S130, the control unit 130 of the UE 100 calculates a performance metric for the inference of the trained AI/ML model (step S106).

 ステップS131において、UE100の送信部120は、性能メトリックをgNB200へ送信する。gNB200の受信部220は、性能メトリックを受信する。 In step S131, the transmitter 120 of the UE 100 transmits the performance metric to the gNB 200. The receiver 220 of the gNB 200 receives the performance metric.

 ステップS132において、gNB200の制御部230は、性能メトリックを利用して、UE100で実行されている推論(ステップS106)のモニタリングを行う。制御部230は、モニタリング結果が性能閾値以下であること、すなわち、学習済AI/MLモデルの性能がよくないことを検出する。 In step S132, the control unit 230 of the gNB 200 uses the performance metrics to monitor the inference being performed by the UE 100 (step S106). The control unit 230 detects that the monitoring results are below the performance threshold, i.e., that the performance of the trained AI/ML model is poor.

 ステップS133において、gNB200の制御部230は、性能評価を実行するか否かを決定する。当該決定は、ステップS122と同一でもよい。すなわち、制御部230は、性能評価実行時間と性能評価時間閾値とを用いて性能評価を実行するか否かを決定してもよい。 In step S133, the control unit 230 of the gNB 200 determines whether or not to perform performance evaluation. This determination may be the same as that in step S122. That is, the control unit 230 may determine whether or not to perform performance evaluation using the performance evaluation execution time and the performance evaluation time threshold.

 以降のステップS134乃至ステップS138は、(Z2)の場合の例(ステップS123乃至ステップS127)と同一である。UE100の制御部130は、微調整実行指示を受信(ステップS138)したことに応じて、微調整を実行することを決定してもよい。 The subsequent steps S134 to S138 are the same as those in the example of case (Z2) (steps S123 to S127). In response to receiving the fine-tuning execution instruction (step S138), the control unit 130 of the UE 100 may decide to execute the fine-tuning.

 (2-4)微調整
 そして、図20のステップS140において、微調整が実行される。微調整の実行自体は、第1実施形態と同様に、UE100側で行われてもよいし(ステップS141及びステップS142)、OTTサーバ500側で行われてもよい(ステップS143乃至ステップS145)。各動作(ステップS141乃至ステップS145)も、第1実施形態の各動作(ステップS85乃至ステップS89)と同一である。
(2-4) Fine Adjustment Then, in step S140 of Fig. 20, fine adjustment is performed. The fine adjustment itself may be performed on the UE 100 side (steps S141 and S142) as in the first embodiment, or may be performed on the OTT server 500 side (steps S143 to S145). Each operation (steps S141 to S145) is also the same as each operation (steps S85 to S89) in the first embodiment.

 (第2実施形態に係る他の動作例1)
 第2実施形態では、モデル転送(ステップS90)と、性能評価時間計算用パラメータの送信(ステップS91)と、性能評価時間計算用データセットの送信(ステップS94)と、現在の指標の送信(ステップS99)とが別々のメッセージで行われる例を説明した。例えば、当該パラメータと当該データセットと当該指標のうち少なくともいずれか1つと、モデル転送とが1つのメッセージで行われてもよい。
(Another Operation Example 1 According to the Second Embodiment)
In the second embodiment, an example has been described in which the model transfer (step S90), the transmission of the parameters for calculating the performance evaluation time (step S91), the transmission of the data set for calculating the performance evaluation time (step S94), and the transmission of the current index (step S99) are performed using separate messages. For example, the model transfer and at least one of the parameters, the data set, and the index may be performed using a single message.

 (第2実施形態に係る他の動作例2)
 第2実施形態では、UEサイドモデルの例で説明したが、これに限定されず、2サイドモデルの場合も実施可能である。すなわち、UE100側で行われる推論に対して、図16乃至図20に示す動作例を適用すれば実施可能である。また、gNB200側で行われる推論に対しては、制御部230は、gNB200側の学習済AI/MLモデルに対して、性能評価実行時間を計算し、モニタリングを行い、モニタリング結果が性能閾値以下の場合に、性能評価実行条件を満たすか否か(或いは性能評価実行時間が性能評価時間閾値以下か否か)を判定する。そして、制御部230は、判定結果に応じて性能評価を実行し、例えば、ステップS126と同様に、性能評価の評価結果と性能評価結果閾値とを比較して、微調整を実行するか否かを判定すればよい。また、第2実施形態は、ネットワークサイドモデルでも適用可能である。例えば、図16乃至図20において、「UE100」を「ネットワーク側」と置き替えることで、ネットワークサイドモデルでも実施可能である。この場合、モデル転送(ステップS90)、パラメータ送信(ステップS91)、データセットの送信(ステップS94)、現在指標の送信(ステップS99)は行われなくてもよく、ネットワーク装置400自身で、学習済AI/MLモデル、パラメータ、データセット、及び現在指標を保持してもよい。
(Another Operation Example 2 According to the Second Embodiment)
In the second embodiment, an example of a UE-side model has been described, but this is not limited thereto and can also be implemented in the case of a two-side model. That is, the inference performed on the UE 100 side can be implemented by applying the operation examples shown in FIGS. 16 to 20. Furthermore, for the inference performed on the gNB 200 side, the control unit 230 calculates the performance evaluation execution time for the trained AI/ML model on the gNB 200 side, performs monitoring, and when the monitoring result is equal to or less than the performance threshold, determines whether the performance evaluation execution condition is met (or whether the performance evaluation execution time is equal to or less than the performance evaluation time threshold). Then, the control unit 230 performs performance evaluation according to the determination result, and, for example, as in step S126, compares the evaluation result of the performance evaluation with the performance evaluation result threshold and determines whether to perform fine-tuning. Furthermore, the second embodiment can also be applied to a network-side model. For example, in FIGS. 16 to 20, the network-side model can also be implemented by replacing "UE 100" with "network side." In this case, model transfer (step S90), parameter transmission (step S91), data set transmission (step S94), and current indicator transmission (step S99) do not need to be performed, and the network device 400 itself may hold the trained AI/ML model, parameters, data set, and current indicator.

 (第2実施形態に係る他の動作例3)
 第2実施形態では、UE100が性能評価実行時間をgNB200へ送信する例について説明したが、これに限定されない。例えば、UE100側でモニタリング及びモデル制御が行われる場合(図17)、UE100の制御部130は、性能評価実行時間を送信することなく、メモリなどに保持しておき、モニタリング(ステップS120)後、gNB200から受信した性能評価実行条件(ステップS114)に基づいて、性能評価を実行するか否かを判定してもよい。
(Another Operation Example 3 According to Second Embodiment)
In the second embodiment, an example has been described in which the UE 100 transmits the performance evaluation execution time to the gNB 200, but this is not limiting. For example, when monitoring and model control are performed on the UE 100 side (FIG. 17), the control unit 130 of the UE 100 may store the performance evaluation execution time in a memory or the like without transmitting it, and after monitoring (step S120), may determine whether or not to perform performance evaluation based on the performance evaluation execution conditions (step S114) received from the gNB 200.

 (第2実施形態に係る他の動作例4)
 UE100の送信部120は、ステップS105において、性能評価実行時間を送信するのではなく、ステップS121において、モニタリング結果とともに、性能評価実行時間を送信してもよい。UE100は、1つのメッセージにより、モニタリング結果と性能評価実行時間とを送信することができる。
(Another Operation Example 4 According to the Second Embodiment)
The transmitter 120 of the UE 100 may transmit the performance evaluation execution time together with the monitoring result in step S121, instead of transmitting the performance evaluation execution time in step S105. The UE 100 can transmit the monitoring result and the performance evaluation execution time by one message.

 (第2実施形態に係る他の動作例5)
 第2実施形態では、ユースケースとして、ビーム管理を例にして説明したが、ユースケースはビーム管理に限定されない。例えば、第1実施形態は、CSIフィードバック向上(X1.1)又は位置精度向上(X1.3)にも適用可能である。
(Another Operation Example 5 According to the Second Embodiment)
In the second embodiment, beam management is used as an example of a use case, but the use case is not limited to beam management. For example, the first embodiment can also be applied to CSI feedback improvement (X1.1) or position accuracy improvement (X1.3).

 [第3実施形態]
 次に、第3実施形態について説明する。第3実施形態は、第1実施形態との相違点を中心に説明する。
[Third embodiment]
Next, a third embodiment will be described, focusing on the differences from the first embodiment.

 第1実施形態では、微調整実行時間に基づいて微調整を実行することについて説明した(ステップS68乃至ステップS71)。第3実施形態では、学習済AI/MLモデルの推論結果が性能閾値以下であること(すなわち、推論の精度がよくないこと)を検出した回数に基づいて、微調整を実行するか否かを判定する例について説明する。 In the first embodiment, we described performing fine-tuning based on the fine-tuning execution time (steps S68 to S71). In the third embodiment, we describe an example in which we determine whether to perform fine-tuning based on the number of times it is detected that the inference results of the trained AI/ML model are below the performance threshold (i.e., the inference accuracy is poor).

 具体的には、第1に、ユーザ装置(例えばUE100)が、学習済AI/MLモデルの微調整を実行するための条件を示す微調整実行条件をネットワークノード(例えばgNB200)から受信する。第2に、ユーザ装置が、学習済AI/MLモデルを用いて推論を実行する。第3に、ユーザ装置が、微調整を実行する。ここで、微調整実行条件は、性能閾値及び所定回数を含む。第4に、学習済AI/MLモデルの推論結果が性能閾値以下であることを所定回数検出したことに応じて、微調整を実行する。ここで、微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである。 Specifically, first, the user device (e.g., UE100) receives fine-tuning execution conditions from a network node (e.g., gNB200) that indicate the conditions for performing fine-tuning of the trained AI/ML model. Second, the user device performs inference using the trained AI/ML model. Third, the user device performs fine-tuning. Here, the fine-tuning execution conditions include a performance threshold and a predetermined number of times. Fourth, fine-tuning is performed in response to detecting a predetermined number of times that the inference result of the trained AI/ML model is below the performance threshold. Here, fine-tuning means training the trained AI/ML model using training data with a data volume below a data volume threshold.

 このように、UE100では、学習済AI/MLモデルの推論結果が性能閾値以下であること、すなわち、学習済AI/MLモデルの性能がよくないことを所定回数検出したことに応じて微調整を実行している。これにより、例えば、UE100では、学習済AI/MLモデルの性能が良くないことを検出する毎に微調整の実行有無を判定する(図14のステップS70及びステップS71)ことがなくなり、UE100の処理軽減を図ることも可能となる。また、例えば、UE100では、gNB200からの指示に従って、微調整の実行有無を判定することができるため、微調整を適切に実行することも可能となる。 In this way, UE100 performs fine-tuning when the inference result of the trained AI/ML model is below the performance threshold, i.e., when it detects a predetermined number of times that the performance of the trained AI/ML model is poor. This eliminates the need for UE100 to determine whether to perform fine-tuning (steps S70 and S71 in FIG. 14) each time it detects that the performance of the trained AI/ML model is poor, thereby reducing the processing load of UE100. Furthermore, for example, UE100 can determine whether to perform fine-tuning in accordance with instructions from gNB200, making it possible to perform fine-tuning appropriately.

 (第3実施形態に係る動作例)
 次に、第3実施形態に係る動作例を説明する。
(Operation example according to the third embodiment)
Next, an example of operation according to the third embodiment will be described.

 図21は、第3実施形態に係る動作例を表す図である。 FIG. 21 shows an example of operation according to the third embodiment.

 図21に示すように、ステップS150において、ネットワーク装置400は、学習済AI/MLモデルをUE100へ転送(又は送信)する。UE100の受信部110は、学習済AI/MLモデルを受信する。 As shown in FIG. 21, in step S150, the network device 400 transfers (or transmits) the trained AI/ML model to the UE 100. The receiver 110 of the UE 100 receives the trained AI/ML model.

 ステップS151において、gNB200の送信部210は、微調整実行条件をUE100へ送信する。 In step S151, the transmitter 210 of the gNB 200 transmits the fine-tuning execution conditions to the UE 100.

 第1に、微調整実行条件は、上述した性能閾値を含む。性能閾値は、第1実施形態と同様に、例えば、学習済AI/MLモデルの性能を判定するための閾値である。例えば、UE100では、学習済AI/MLモデルの推論結果が性能閾値以下のときは学習済AI/MLモデルの性能が良くない(第3実施形態では、推論の精度が良くない)と判定し、推論結果が性能閾値よりも大きいときは学習済AI/MLモデルの推論結果が良い(第3実施形態では、推論の精度が良い)と判定する。ここで、推論結果は、例えば、推論を実行した際のCPUの使用率又はメモリの使用率、推論を実行したときに使用した推論用データのデータ量、又は推論結果データのデータ量などを含んでもよい。また、性能閾値は、推論結果の各指標に応じた閾値であってもよい。 First, the fine-tuning execution conditions include the above-mentioned performance threshold. As in the first embodiment, the performance threshold is, for example, a threshold for determining the performance of the trained AI/ML model. For example, UE100 determines that the performance of the trained AI/ML model is poor (in the third embodiment, the inference accuracy is poor) when the inference result of the trained AI/ML model is below the performance threshold, and determines that the inference result of the trained AI/ML model is good (in the third embodiment, the inference accuracy is good) when the inference result is greater than the performance threshold. Here, the inference result may include, for example, the CPU usage rate or memory usage rate when the inference was performed, the amount of inference data used when the inference was performed, or the amount of inference result data. Furthermore, the performance threshold may be a threshold corresponding to each indicator of the inference result.

 第2に、微調整実行条件は、回数に関する閾値を表す所定回数を含む。UE100では、学習済AI/MLモデルの推論結果が性能閾値以下であることを所定回数検出したときに微調整を実行する。所定回数は連続回数でもよいし累計の回数でもよい。累計の回数の場合、微調整実行条件に、期間が含まれてもよい。 Second, the fine-tuning execution conditions include a predetermined number of times representing a threshold for the number of times. UE100 executes fine-tuning when it detects that the inference result of the trained AI/ML model is below the performance threshold a predetermined number of times. The predetermined number of times may be a consecutive number of times or a cumulative number of times. In the case of a cumulative number of times, the fine-tuning execution conditions may also include a period of time.

 第3に、微調整実行条件は、微調整の実行有無を報告することを指示(又は要求)する報告指示(又は報告要求)を含んでもよい。UE100は、微調整を実行したときに、報告指示に従って、微調整を実行したことを示す情報をネットワーク装置400へ送信する。報告指示は、当該報告をどのノードに送信するかを示す送信先が含まれてもよい。或いは、報告指示には、微調整の実行有無とともに、推論に用いた推論用データのデータセットを送信することを指示する情報が含まれてもよい。 Third, the fine-tuning execution condition may include a report instruction (or report request) that instructs (or requests) a report on whether or not fine-tuning has been performed. When fine-tuning has been performed, UE 100 transmits information indicating that fine-tuning has been performed to network device 400 in accordance with the report instruction. The report instruction may include a destination indicating to which node the report should be sent. Alternatively, the report instruction may include information instructing transmission of the inference data set used for inference, along with whether or not fine-tuning has been performed.

 第4に、微調整実行条件には、第1実施形態(又は第2実施形態)で説明した微調整実行条件と同一の情報が含まれてもよい。 Fourth, the fine-tuning execution conditions may include the same information as the fine-tuning execution conditions described in the first embodiment (or second embodiment).

 ステップS152-1において、UE100の制御部130は、ステップS150で受信した学習済AI/MLモデルを用いて推論を行う。 In step S152-1, the control unit 130 of the UE 100 performs inference using the trained AI/ML model received in step S150.

 ステップS153-1において、UE100の制御部130は、推論結果を評価する。ステップS153-1は、第1実施形態におけるモニタリング(ステップS70)であってもよい。 In step S153-1, the control unit 130 of the UE 100 evaluates the inference result. Step S153-1 may be the monitoring (step S70) in the first embodiment.

 ステップS154-1において、UE100の制御部130は、推論結果が性能閾値以下であることを検出する。 In step S154-1, the control unit 130 of the UE 100 detects that the inference result is below the performance threshold.

 UE100の制御部130は、ステップS152-1乃至ステップS154-1をn回(nは自然数)検出する(ステップS152-n乃至ステップS154-n)。 The control unit 130 of the UE 100 performs steps S152-1 through S154-1 n times (n is a natural number) (steps S152-n through S154-n).

 すなわち、ステップS155において、UE100の制御部130は、推論結果が性能閾値以下であることを所定回数(例えばn回)検出することになる。 In other words, in step S155, the control unit 130 of the UE 100 detects that the inference result is below the performance threshold a predetermined number of times (e.g., n times).

 ステップS156において、UE100の制御部130は、微調整実行条件を満たす(推論結果が性能閾値以下であることを所定回数検出した)ため、ステップS150で受信した学習済AI/MLモデルに対して微調整を実行する。 In step S156, the control unit 130 of UE 100 performs fine-tuning on the trained AI/ML model received in step S150 because the fine-tuning execution conditions are met (the inference result has been detected to be below the performance threshold a predetermined number of times).

 ステップS157において、UE100の送信部120は、微調整を実行したことを示す情報をgNB200へ送信する。送信部120は、微調整実行条件に含まれる報告指示に従って、当該情報を送信してもよい。 In step S157, the transmitter 120 of the UE 100 transmits information indicating that fine-tuning has been performed to the gNB 200. The transmitter 120 may transmit the information in accordance with a reporting instruction included in the fine-tuning execution conditions.

 ステップS158において、UE100の送信部120は、微調整を実行したことを示す情報と、推論で使用した推論用データのデータセットとをネットワーク装置400へ送信する。送信部120は、微調整実行条件に含まれる報告指示に従って、これらの情報を送信してもよい。 In step S158, the transmitter 120 of the UE 100 transmits to the network device 400 information indicating that fine-tuning has been performed and a data set of the inference data used in the inference. The transmitter 120 may transmit this information in accordance with a reporting instruction included in the fine-tuning execution conditions.

 (第3実施形態に係る他の動作例1)
 第3実施形態では、微調整に関する動作例を説明した。例えば、第3実施形態は、第2実施形態で説明した性能評価を適用することが可能である。すなわち、UE100において、学習済AI/MLモデルの推論結果が性能閾値以下であることを検出した回数に基づいて、性能評価を実行するか否かを判定する。
(Another Operation Example 1 According to the Third Embodiment)
In the third embodiment, an example of an operation related to fine-tuning has been described. For example, the third embodiment can apply the performance evaluation described in the second embodiment. That is, in the UE 100, whether or not to perform performance evaluation is determined based on the number of times that the inference result of the trained AI/ML model is detected to be equal to or less than the performance threshold.

 具体的には、第1に、ユーザ装置(例えばUE100)が、学習済AI/MLモデルの性能評価を実行するための条件を示す性能評価実行条件をネットワークノード(例えばgNB200)から受信する。第2に、ユーザ装置が、学習済AI/MLモデルを用いて推論を実行する。第3に、ユーザ装置が、学習済AI/MLモデルの推論結果が性能閾値以下であることを所定回数検出したことに応じて、性能評価を実行する。ここで、性能評価実行条件は、性能閾値及び所定回数を含む。 Specifically, first, the user equipment (e.g., UE100) receives performance evaluation execution conditions from a network node (e.g., gNB200) that indicate the conditions for performing performance evaluation of the trained AI/ML model. Second, the user equipment performs inference using the trained AI/ML model. Third, the user equipment performs performance evaluation in response to detecting a predetermined number of times that the inference result of the trained AI/ML model is below the performance threshold. Here, the performance evaluation execution conditions include the performance threshold and the predetermined number of times.

 このように、UE100では、学習済AI/MLモデルの推論結果が性能閾値以下であること、すなわち、学習済AI/MLモデルの性能がよくないことを所定回数検出したことに応じて性能評価を実行する。これにより、例えば、UE100では、学習済AI/MLモデルの性能が良くないことを検出する毎に性能評価の実行有無を判定する(図17のステップS115及びステップS116)ことがなくなり、UE100の処理軽減を図ることができる。また、例えば、UE100では、gNB200からの指示に従って、性能評価の実行有無を判定することができるため、性能評価を適切に実行することも可能となる。 In this way, UE100 performs performance evaluation when it detects that the inference result of the trained AI/ML model is below the performance threshold, i.e., when it detects a predetermined number of times that the performance of the trained AI/ML model is poor. This eliminates the need for UE100 to determine whether or not to perform performance evaluation each time it detects that the performance of the trained AI/ML model is poor (steps S115 and S116 in FIG. 17), thereby reducing the processing load of UE100. Furthermore, for example, UE100 can determine whether or not to perform performance evaluation in accordance with instructions from gNB200, making it possible to appropriately perform performance evaluation.

 図22は、第3実施形態に係る他の動作例を表す図である。 FIG. 22 shows another example of operation according to the third embodiment.

 gNB200の送信部210は、モデル転送(図21のステップS150)を行った後、ステップS160において、性能評価実行条件をUE100へ送信する。UE100の受信部110は、性能評価実行条件を受信する。 After performing model transfer (step S150 in FIG. 21), the transmitter 210 of gNB 200 transmits the performance evaluation execution conditions to UE 100 in step S160. The receiver 110 of UE 100 receives the performance evaluation execution conditions.

 第1に、性能評価実行条件は、性能閾値を含む。性能閾値は、第1実施形態と同様に、例えば、学習済AI/MLモデルの推論の性能を判定するための閾値である。性能の判定方法は第3実施形態と同一でもよい。 First, the performance evaluation execution conditions include a performance threshold. As in the first embodiment, the performance threshold is, for example, a threshold for determining the inference performance of the trained AI/ML model. The performance determination method may be the same as in the third embodiment.

 第2に、性能評価実行条件は、回数に関する閾値を表す所定回数を含む。UE100では、例えば、学習済AI/MLモデルの推論結果が性能閾値以下であることを所定回数検出したときに性能評価を実行する。所定回数は連続回数でもよいし累計の回数でもよい。累計の回数の場合、性能評価条件に、期間が含まれてもよい。 Second, the performance evaluation execution conditions include a predetermined number of times that represents a threshold for the number of times. UE100 executes performance evaluation, for example, when it detects that the inference result of the trained AI/ML model is below the performance threshold a predetermined number of times. The predetermined number of times may be a consecutive number of times or a cumulative number of times. In the case of a cumulative number of times, the performance evaluation conditions may also include a period of time.

 第3に、性能評価実行条件は、性能評価の実行有無を報告することを指示する報告指示が含まれてもよい。報告指示には、報告内容として、性能評価の評価結果を報告することを指示する情報が含まれてもよい。 Third, the performance evaluation execution conditions may include a reporting instruction to report whether or not performance evaluation has been performed. The reporting instruction may include information to report the results of the performance evaluation as the report content.

 第4に、性能評価実行条件は、性能評価を実行する際の評価手法(例えばNMSE)が含まれてもよい。 Fourth, the performance evaluation execution conditions may include the evaluation method (e.g., NMSE) to be used when performing the performance evaluation.

 第5に、性能評価実行条件は、性能評価を実行する対象となる学習済AI/MLモデルの識別情報(例えばモデルID又は機能名など)が含まれてもよい。 Fifth, the performance evaluation execution conditions may include identification information (e.g., model ID or function name) of the trained AI/ML model for which performance evaluation is to be performed.

 ステップS161-1乃至ステップS164は、第3実施形態のステップS152-1乃至ステップS155と同一である。 Steps S161-1 to S164 are the same as steps S152-1 to S155 in the third embodiment.

 ステップS164において、UE100の制御部130は、推論結果が性能閾値以下であることを所定回数(例えばn回)検出する。 In step S164, the control unit 130 of the UE 100 detects that the inference result is below the performance threshold a predetermined number of times (e.g., n times).

 ステップS165において、UE100の制御部130は、性能評価実行条件を満たすため、性能評価を実行する。 In step S165, the control unit 130 of the UE 100 performs performance evaluation to satisfy the performance evaluation execution conditions.

 ステップS166において、UE100の送信部120は、推論結果が性能閾値以下であること(すなわち推論の精度が良くないこと)を示す情報及び評価結果をgNB200へ送信する。送信部120は、性能評価実行条件に含まれる報告指示に従って、これらの情報を送信してもよい。gNB200の受信部220は、推論結果が性能閾値以下であることを示す情報及び評価結果を受信する。 In step S166, the transmitter 120 of the UE 100 transmits to the gNB 200 information indicating that the inference result is below the performance threshold (i.e., the accuracy of the inference is poor) and the evaluation result. The transmitter 120 may transmit this information in accordance with a reporting instruction included in the performance evaluation execution conditions. The receiver 220 of the gNB 200 receives the information indicating that the inference result is below the performance threshold and the evaluation result.

 ステップS167において、gNB200の制御部230は、推論結果が性能閾値以下であること及び評価結果に基づいて微調整を実行することを決定し、送信部210は、微調整を実行することを指示する微調整実行指示をUE100へ送信する。或いは、制御部230は、評価結果に応じて微調整ではなく再学習を行うことを決定し、送信部210は、再学習を実行することを示す再学習実行指示をUE100へ送信してもよい。評価結果が一定以上に良くない結果となった場合に、UE100において微調整ではなく再学習が行われる方がよいケースもあるからである。 In step S167, the control unit 230 of gNB200 determines to perform fine-tuning based on the fact that the inference result is below the performance threshold and the evaluation result, and the transmission unit 210 transmits a fine-tuning execution instruction to UE100 instructing it to perform fine-tuning. Alternatively, the control unit 230 may determine to perform re-learning instead of fine-tuning based on the evaluation result, and the transmission unit 210 may transmit a re-learning execution instruction to UE100 indicating that re-learning will be performed. This is because, if the evaluation result is worse than a certain level, it may be better for UE100 to perform re-learning rather than fine-tuning.

 [第4実施形態]
 次に、第4実施形態について説明する。
[Fourth embodiment]
Next, a fourth embodiment will be described.

 第4実施形態では、UE100が記録したログをgNB200へ報告する例について説明する。具体的には、第1に、ユーザ装置(例えばUE100)が、微調整に関する情報(及び/又は性能評価に関する情報)を報告するための条件を示す報告条件をネットワークノード(例えばgNB200)から受信する。第2に、ユーザ装置が、報告条件に従って、微調整に関する情報(及び/又は性能評価に関する情報)をネットワークノードへ送信する。 In the fourth embodiment, an example will be described in which the UE100 reports the recorded log to the gNB200. Specifically, first, the user equipment (e.g., the UE100) receives reporting conditions from the network node (e.g., the gNB200) indicating the conditions for reporting information related to fine-tuning (and/or information related to performance evaluation). Second, the user equipment transmits information related to fine-tuning (and/or information related to performance evaluation) to the network node in accordance with the reporting conditions.

 このように、第4実施形態では、UE100は、gNB200から受信した報告条件に従って、微調整に関する情報(及び/又は性能評価に関する情報)をgNB200へ適切に報告することができる。そして、gNB200では、報告された情報に基づいて、微調整の実行条件及び/又は性能評価の実行条件を変更したりすることも可能となる。これにより、例えば、移動通信システム1において、AI/MLモデルを用いたユースケースを適切に実行することも可能となる。 In this way, in the fourth embodiment, UE100 can appropriately report information regarding fine-tuning (and/or information regarding performance evaluation) to gNB200 in accordance with the reporting conditions received from gNB200. Furthermore, gNB200 can also change the execution conditions for fine-tuning and/or the execution conditions for performance evaluation based on the reported information. This makes it possible, for example, to appropriately execute use cases using an AI/ML model in mobile communication system 1.

 (第4実施形態に係る動作例)
 図23は、第4実施形態に係る動作例を表す図である。
(Operation example according to the fourth embodiment)
FIG. 23 is a diagram illustrating an example of operation according to the fourth embodiment.

 図23に示すように、ステップS170において、ネットワーク装置400は、学習済AI/MLモデルをUE100へ転送(又は送信)する。UE100の受信部110は、学習済AI/MLモデルを受信する。 As shown in FIG. 23, in step S170, the network device 400 transfers (or transmits) the trained AI/ML model to the UE 100. The receiver 110 of the UE 100 receives the trained AI/ML model.

 ステップS171において、gNB200は報告条件をUE100へ送信する。UE100の受信部110は報告条件を受信する。 In step S171, gNB200 transmits the reporting conditions to UE100. The receiver 110 of UE100 receives the reporting conditions.

 第1に、報告条件は、報告対象の情報の種別を示す情報が含まれてもよい。種別を示す情報として、例えば、微調整に関する情報を報告すべきか、性能評価に関する情報を報告すべきか、或いは、微調整も性能評価も双方の情報を報告すべきか、を示す情報がある。gNB200の送信部210は、UE100で行われるのは、微調整であるのか、性能評価であるのか、或いは双方とも行われるのかに応じて、種別を示す情報を送信してもよい。 First, the reporting conditions may include information indicating the type of information to be reported. Examples of information indicating the type include information indicating whether information related to fine-tuning should be reported, information related to performance evaluation, or information related to both fine-tuning and performance evaluation should be reported. The transmitter 210 of the gNB 200 may transmit information indicating the type depending on whether the UE 100 is performing fine-tuning, performance evaluation, or both.

 第2に、報告条件は、報告対象の情報を示す報告対象情報が含まれてもよい。報告対象情報には、少なくとも以下のいずれかが含まれてもよい。なお、報告対象情報がUE100においてログ情報として送信すべき情報を表してもよい。また、報告対象情報が、性能評価に関する情報であってもよい。当該報告対象情報が、微調整に関する情報であってもよい。 Secondly, the reporting conditions may include report target information indicating information to be reported. The report target information may include at least any of the following. Note that the report target information may represent information to be transmitted as log information by the UE 100. The report target information may also be information related to performance evaluation. The report target information may also be information related to fine-tuning.

 (U1)性能評価及び/又は微調整の実行有無、 (U1) Whether or not performance evaluation and/or fine-tuning is performed,

 (U2)性能評価及び/又は微調整にかかった時間、 (U2) Time required for performance evaluation and/or fine-tuning,

 (U3)性能評価及び/又は微調整に使用したデータセット、 (U3) Datasets used for performance evaluation and/or fine-tuning,

 (U4)性能評価及び/又は微調整の実行要因(又は原因)、 (U4) Factors (or causes) for performance evaluation and/or fine-tuning,

 (U5)タイムスタンプ、 (U5) Timestamp,

 (U6)位置情報、 (U6) Location information,

 (U7)性能評価及び/又は微調整に使用した学習済AI/MLモデルの識別情報(例えば、モデル名、モデルID、又は機能名)、 (U7) Identification information of the trained AI/ML model used for performance evaluation and/or fine-tuning (e.g., model name, model ID, or function name),

 (U8)性能評価に用いた評価手法
 第3に、報告条件は、gNB200からのログ送信要求に応じてログを送信すること示す情報が含まれてもよい。
(U8) Evaluation method used for performance evaluation Third, the reporting conditions may include information indicating that a log is to be transmitted in response to a log transmission request from gNB200.

 第4に、報告条件は、ログを送信する条件を示すログ送信条件を含んでもよい。ログ送信条件は、報告対象情報のうち少なくともいずれかを取得したこと、であってもよい。当該ログ送信条件は、報告対象情報のうち少なくともいずれかについて、そのデータ量がデータ量閾値以上になったこと、であってもよい。後者の場合、データ量閾値がログ送信条件に含まれてもよい。 Fourth, the reporting conditions may include log transmission conditions that indicate the conditions for sending a log. The log transmission condition may be that at least one of the pieces of information to be reported has been acquired. The log transmission condition may also be that the data volume of at least one of the pieces of information to be reported has reached or exceeded a data volume threshold. In the latter case, the data volume threshold may be included in the log transmission condition.

 第5に、報告条件は、UE100がRRCコネクティッド状態の場合に報告すべきか、UE100がRRCアイドル状態又はRRCインアクティブ状態の場合に報告すべきかを示す情報が含まれてもよい。前者の場合、即時(Immediate)MDT(Minimalization of Drive Tests)として、個別RRCメッセージ(例えばRRC再設定(RRCReconfiguration)メッセージ又はRRC再開(RRCResume)メッセージなど)の報告設定(MeansConfig)に報告条件が含まれて送信されてもよい。後者の場合、ログMDT(Logged MDT)として、ログ用測定設定(LoggedMeasurementConfiguration)メッセージに報告条件が含まれて送信されてもよい。 Fifth, the reporting conditions may include information indicating whether the report should be made when UE100 is in the RRC connected state, or when UE100 is in the RRC idle state or the RRC inactive state. In the former case, the reporting conditions may be included in the reporting configuration (MeansConfig) of an individual RRC message (such as an RRCReconfiguration message or an RRCResume message) and transmitted as an immediate MDT (Minimalization of Drive Tests). In the latter case, the reporting conditions may be included in a logged measurement configuration (LoggedMeasurementConfiguration) message and transmitted as a logged MDT.

 ステップS172において、UE100の制御部130は、ステップS170で受信した学習済AI/MLモデルに対して推論を行う。 In step S172, the control unit 130 of the UE 100 performs inference on the trained AI/ML model received in step S170.

 ステップS173において、UE100の制御部130は、推論結果に基づいて性能評価を実行する。 In step S173, the control unit 130 of the UE 100 performs performance evaluation based on the inference results.

 ステップS174において、UE100の制御部130は、当該学習済AI/MLモデルに対して微調整を実行する。 In step S174, the control unit 130 of the UE 100 performs fine-tuning on the trained AI/ML model.

 ステップS175において、UE100の制御部130は、性能評価及び微調整の際に使用したログをメモリに記録する。制御部130は、報告条件に含まれる報告対象情報に従って、ログをメモリに記録してもよい。 In step S175, the control unit 130 of the UE 100 records in memory the log used during performance evaluation and fine-tuning. The control unit 130 may record the log in memory in accordance with the report target information included in the reporting conditions.

 ステップS176において、UE100の制御部130は、ログ送信条件に合致することを検出する。 In step S176, the control unit 130 of the UE 100 detects that the log transmission conditions are met.

 ステップS177において、gNB200の送信部210は、ログ送信要求をUE100へ送信する。UE100の受信部110は、ログ送信要求を受信する。 In step S177, the transmitter 210 of the gNB 200 transmits a log transmission request to the UE 100. The receiver 110 of the UE 100 receives the log transmission request.

 ステップS178において、UE100の送信部120は、ログ送信要求を受信したことに応じて、ステップS175で記録したログをgNB200へ送信する。送信部120は、測定報告(MeasurementReport)にログを含めて送信してもよい。 In step S178, in response to receiving the log transmission request, the transmitter 120 of the UE 100 transmits the log recorded in step S175 to the gNB 200. The transmitter 120 may also transmit the log together with a measurement report (MeasurementReport).

 [第5実施形態]
 次に、第5実施形態について説明する。
Fifth Embodiment
Next, a fifth embodiment will be described.

 第5実施形態は、第1実施形態(微調整の実施形態)と第2実施形態(性能評価の実施形態)とを組み合わせた実施形態である。すなわち、第5実施形態では、微調整実行時間と、性能評価実行時間と、性能評価の評価結果と、に基づいて、UE100において微調整を実行するか否かが決定される例である。 The fifth embodiment is an embodiment that combines the first embodiment (the fine-tuning embodiment) and the second embodiment (the performance evaluation embodiment). That is, the fifth embodiment is an example in which the UE 100 determines whether to perform fine-tuning based on the fine-tuning execution time, the performance evaluation execution time, and the evaluation results of the performance evaluation.

 具体的には、ユーザ装置(例えばUE100)が、第1学習済AI/MLモデル(例えばUE100側の学習済AI/MLモデル)の微調整の実行にかかる第1時間と、第1学習済AI/MLモデルの性能評価の実行にかかる第2時間と、性能評価の評価結果とに基づいて、第1学習済AI/MLモデルに対する微調整を実行する。ここで、微調整は、データ量閾値以下のデータ量の学習用データを用いて第1学習済AI/MLモデルを学習させることである。 Specifically, a user device (e.g., UE100) performs fine-tuning of a first trained AI/ML model (e.g., a trained AI/ML model on the UE100 side) based on a first time required to perform fine-tuning of the first trained AI/ML model, a second time required to perform a performance evaluation of the first trained AI/ML model, and the evaluation results of the performance evaluation. Here, fine-tuning means training the first trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 このように、第5実施形態では、第1時間と第2時間と性能評価の評価結果とに基づいて、微調整を実行するか否かを決定するため、これらのパラメータを考慮することなく微調整を行う場合と比較して、時間をかけずに微調整を実行させることが可能となる。また、第5実施形態では、例えば、第1時間が微調整実行時間閾値以下で、第2時間も性能評価時間閾値以下であり、評価結果が性能閾値以上のとき、微調整が実行されてもよく、それ以外の条件では微調整が実行されてなくてもよい。従って、移動通信システム1において、微調整が一定の判断の下で行われるため、学習済AI/MLモデルに対する微調整を適切に実行することが可能となる。 In this way, in the fifth embodiment, whether or not to perform fine-tuning is determined based on the first and second times and the evaluation results of the performance evaluation, making it possible to perform fine-tuning in less time than when fine-tuning is performed without considering these parameters. Also, in the fifth embodiment, for example, fine-tuning may be performed when the first time is equal to or less than the fine-tuning execution time threshold, the second time is also equal to or less than the performance evaluation time threshold, and the evaluation result is equal to or greater than the performance threshold, and fine-tuning may not be performed under other conditions. Therefore, in the mobile communication system 1, fine-tuning is performed under certain judgments, making it possible to appropriately perform fine-tuning on the trained AI/ML model.

 (第5実施形態に係る動作例)
 次に、第5実施形態に係る動作例について説明する。
(Operation example according to the fifth embodiment)
Next, an example of operation according to the fifth embodiment will be described.

 図24乃至図26は、第5実施形態に係る動作例を表す図である。なお、図24乃至図26に示す動作例は、CSIフィードバックのサブユースケースであるCSI圧縮(CSI Compression)の例であって、2サイドモデルの例を表している。 FIGS. 24 to 26 are diagrams showing an example of operation according to the fifth embodiment. Note that the example of operation shown in FIG. 24 to 26 is an example of CSI compression, which is a sub-use case of CSI feedback, and represents an example of a two-sided model.

 CSI圧縮は、例えば、UE100が圧縮(compression)されたCSIをgNB200へ送信し、gNB200では圧縮前のCSIを再構築(reconstruction)する。CSI圧縮とCSI再構築にAI/ML手法が用いられ、CSI圧縮を行うUE100側の推論部と、CSI再構築を行うUE100側の推論部とにより2サイドモデルが構成される。圧縮対象のCSIは、例えば、CSI生成部131により生成されたレガシー処理によるCSIフィードバック情報である。 For example, CSI compression is performed by UE100 transmitting compressed CSI to gNB200, which then reconstructs the pre-compressed CSI. The AI/ML method is used for CSI compression and CSI reconstruction, and a two-sided model is constructed by an inference unit on the UE100 side that performs CSI compression and an inference unit on the UE100 side that performs CSI reconstruction. The CSI to be compressed is, for example, CSI feedback information generated by legacy processing by CSI generation unit 131.

 図24に示すように、2サイドモデルのため、ネットワーク装置400は、UE100用の学習済AI/MLモデル(例えば第1学習済AI/MLモデル)をUE100へ送信し(ステップS180)、gNB200用の学習済AI/MLモデル(例えば第2学習済AI/MLモデル)をgNB200へ送信する(ステップS181)。 As shown in FIG. 24, for a two-sided model, the network device 400 transmits a trained AI/ML model for the UE 100 (e.g., a first trained AI/ML model) to the UE 100 (step S180), and transmits a trained AI/ML model for the gNB 200 (e.g., a second trained AI/ML model) to the gNB 200 (step S181).

 ネットワーク装置400は、第1実施形態と同様に、微調整実行時間計算用パラメータ(例えば第1パラメータ)をUE100へ送信する(ステップS182)。また、ネットワーク装置400は、gNB200において微調整実行時間を計算するために、微調整実行時間計算用パラメータ(例えば第3パラメータ)をgNB200にも送信する(ステップS185)。 As in the first embodiment, the network device 400 transmits a parameter for calculating the fine-tuning execution time (e.g., the first parameter) to the UE 100 (step S182). The network device 400 also transmits a parameter for calculating the fine-tuning execution time (e.g., the third parameter) to the gNB 200 in order to calculate the fine-tuning execution time at the gNB 200 (step S185).

 UE100の制御部130は、微調整実行時間計算用パラメータを利用して微調整実行時間(例えば第1時間)を計算し(ステップS183)、UE100の送信部120は、UE100側の微調整実行時間をgNB200へ送信する(ステップS184)。一方、gNB200の制御部230も、微調整実行時間計算用パラメータを利用して微調整実行時間(例えば第3時間)を計算する(ステップS186)。 The control unit 130 of the UE 100 calculates the fine-tuning execution time (e.g., the first time) using the fine-tuning execution time calculation parameters (step S183), and the transmission unit 120 of the UE 100 transmits the fine-tuning execution time on the UE 100 side to the gNB 200 (step S184). Meanwhile, the control unit 230 of the gNB 200 also calculates the fine-tuning execution time (e.g., the third time) using the fine-tuning execution time calculation parameters (step S186).

 ネットワーク装置400は、第2実施形態と同様に、性能評価時間計算用パラメータ(例えば第2パラメータ)と、性能評価時間計算用のデータセットと、現在の指標とを、UE100へ送信する(ステップS187乃至ステップS189)。UE100の制御部130は、受信したこれらのパラメータを利用して、UE100側の学習済AI/MLモデルに対する性能評価実行時間(例えば第2時間)を計算する(ステップS190)。UE100の送信部120は、UE100側の性能評価実行時間をgNB200へ送信する(ステップS191)。 As in the second embodiment, the network device 400 transmits parameters for calculating the performance evaluation time (e.g., second parameters), a dataset for calculating the performance evaluation time, and the current indicators to the UE 100 (steps S187 to S189). The control unit 130 of the UE 100 uses these received parameters to calculate the performance evaluation execution time (e.g., second time) for the trained AI/ML model on the UE 100 side (step S190). The transmission unit 120 of the UE 100 transmits the performance evaluation execution time on the UE 100 side to the gNB 200 (step S191).

 一方、ネットワーク装置400は、gNB200においても、gNB200用の学習済AI/MLモデルの推論が行われ、性能評価実行時間を計算することから、性能評価時間計算用パラメータ(例えば第4パラメータ)と、性能評価時間計算用のデータセットと、現在の指標とを、gNB200へ送信する(ステップS192乃至ステップS194)。gNB200の制御部230は、受信したこれらのパラメータを利用して、gNB200側の学習済AI/MLモデルに対する性能評価実行時間(例えば第4時間)を計算する(ステップS195)。 Meanwhile, since gNB200 also performs inference on the trained AI/ML model for gNB200 and calculates the performance evaluation execution time, network device 400 transmits parameters for calculating the performance evaluation time (e.g., the fourth parameter), a dataset for calculating the performance evaluation time, and the current indicators to gNB200 (steps S192 to S194). The control unit 230 of gNB200 uses these received parameters to calculate the performance evaluation execution time (e.g., the fourth time) for the trained AI/ML model on the gNB200 side (step S195).

 ステップS200(図25)において、移動通信システム1では推論が行われる。2サイドモデルのため、UE100とgNB200とにおいて推論が行われる(ステップS202及びステップS204)。図25の例では、UE100の制御部130が、UE側の学習済AI/MLモデルで用いられる推論用データを生成し(ステップS201)、当該推論用データを用いて推論を行う(ステップS202)。そして、UE100の送信部120は、推論結果データをgNB200側の推論用データとして、gNB200へ送信する(ステップS203)。gNB200の制御部230は、当該推論結果データをgNB200側の学習済AI/MLモデルの推論用データとして入力させて、推論を行う(ステップS204)。 In step S200 (Figure 25), inference is performed in the mobile communication system 1. Because it is a two-sided model, inference is performed in the UE 100 and the gNB 200 (steps S202 and S204). In the example of Figure 25, the control unit 130 of the UE 100 generates inference data to be used in the trained AI/ML model on the UE side (step S201) and performs inference using the inference data (step S202). Then, the transmission unit 120 of the UE 100 transmits the inference result data to the gNB 200 as inference data on the gNB 200 side (step S203). The control unit 230 of the gNB 200 inputs the inference result data as inference data for the trained AI/ML model on the gNB 200 side and performs inference (step S204).

 ステップS205において、移動通信システム1においてモニタリングが行われる。2サイドモデルのため、UE100の制御部130は、UE100側の推論(ステップS202)に対してモニタリングを行い(ステップS206)、gNB200の制御部230は、gNB200側の推論(ステップS204)に対してモニタリングを行う(ステップS208)。UE100の送信部120は、自身のモニタリング結果を、gNB200へ送信する。 In step S205, monitoring is performed in the mobile communication system 1. Because of the two-sided model, the control unit 130 of the UE 100 monitors the inference on the UE 100 side (step S202) (step S206), and the control unit 230 of the gNB 200 monitors the inference on the gNB 200 side (step S204) (step S208). The transmission unit 120 of the UE 100 transmits its own monitoring results to the gNB 200.

 ステップS210(図26)において、移動通信システム1において管理(Management)が行われる。第5実施形態では、UE100側の学習済AI/MLモデルに対する微調整と、gNB200側の学習済AI/MLモデルに対する微調整とがある。ただし、UE100側で行われる微調整については、gNB200が微調整の判定を行う場合と、UE100自身が微調整の判定を行う場合とがある。 In step S210 (Figure 26), management is performed in the mobile communication system 1. In the fifth embodiment, there is fine-tuning of the trained AI/ML model on the UE100 side, and fine-tuning of the trained AI/ML model on the gNB200 side. However, with regard to the fine-tuning performed on the UE100 side, there are cases where the gNB200 makes the fine-tuning decision, and cases where the UE100 itself makes the fine-tuning decision.

 (V1)UE100側の微調整をgNB200が判定する場合
 UE100側の微調整をgNB200が判定する場合、gNB200は、ステップS211乃至ステップS213を行う。
(V1) When gNB200 determines fine-tuning on the UE100 side When gNB200 determines fine-tuning on the UE100 side, gNB200 performs steps S211 to S213.

 すなわち、ステップS211において、gNB200の制御部230は、UE100において性能評価を実行させるか否かを判定する。判定自体は、第2実施形態のステップS122(図18)と同一でもよい。すなわち、制御部230は、ステップS207で受信したモニタリング結果に基づいて、UE100側の学習済AI/MLモデルの性能が性能閾値以下であることを検出する。そして、制御部230は、ステップS191で受信した性能評価実行時間と性能評価時間閾値とに基づいてUE100において性能評価を実行させるか否かを決定する。 That is, in step S211, the control unit 230 of the gNB 200 determines whether or not to cause the UE 100 to perform performance evaluation. The determination itself may be the same as step S122 (Figure 18) of the second embodiment. That is, based on the monitoring results received in step S207, the control unit 230 detects that the performance of the trained AI/ML model on the UE 100 side is below the performance threshold. Then, the control unit 230 determines whether or not to cause the UE 100 to perform performance evaluation based on the performance evaluation execution time and performance evaluation time threshold received in step S191.

 ステップS212において、gNB200の制御部230は、微調整を実行するか否かを判定する。制御部230は、性能評価実行時間が性能評価時間閾値以下であり(すなわち、性能評価を実行すること)、微調整実行時間が微調整実行時間閾値以下であり、かつ、性能評価による評価結果が性能評価結果閾値以上である(すなわち、評価結果が良い)ときに、微調整を実行する。このように、制御部230は、性能評価実行時間、微調整実行時間、及び性能評価による評価結果を組み合わせて、微調整の実行有無を判定する。 In step S212, the control unit 230 of the gNB 200 determines whether or not to perform fine-tuning. The control unit 230 performs fine-tuning when the performance evaluation execution time is equal to or less than the performance evaluation time threshold (i.e., to perform performance evaluation), the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and the evaluation result from the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good). In this way, the control unit 230 combines the performance evaluation execution time, the fine-tuning execution time, and the evaluation result from the performance evaluation to determine whether or not to perform fine-tuning.

 なお、性能評価による評価結果に関しては、UE100側の学習済AI/MLモデルに対する評価結果である。そのため、UE100の制御部130が当該学習済AI/MLモデルを評価し、UE100の送信部120が評価結果をgNB200へ送信する。これにより、gNB200は、UE100側の学習済AI/MLモデルの評価結果を取得できる。そして、gNB200の制御部230は、当該評価結果を利用して、微調整実行有無を判定すればよい。 Note that the evaluation results from the performance evaluation are evaluation results for the trained AI/ML model on the UE100 side. Therefore, the control unit 130 of the UE100 evaluates the trained AI/ML model, and the transmission unit 120 of the UE100 transmits the evaluation results to the gNB200. This allows the gNB200 to obtain the evaluation results of the trained AI/ML model on the UE100 side. The control unit 230 of the gNB200 can then use the evaluation results to determine whether or not to perform fine-tuning.

 以下では、制御部230は、微調整を実行することを判定したとして説明する。 In the following, it is assumed that the control unit 230 has determined to perform fine adjustment.

 ステップS213において、gNB200の送信部210は、微調整を実行することを指示する微調整実行指示をUE100へ送信する。UE100の受信部110は、微調整実行指示を受信し、UE100の制御部130は、微調整を実行することを決定する。 In step S213, the transmitter 210 of the gNB 200 transmits a fine-tuning execution instruction to the UE 100 to instruct the UE 100 to perform fine-tuning. The receiver 110 of the UE 100 receives the fine-tuning execution instruction, and the controller 130 of the UE 100 decides to perform fine-tuning.

 (V2)UE100側の微調整をUE100自身で判定する場合
 UE100側の微調整をUE100自身で判定する場合、UE100は、ステップS214及びステップS215を行う。
(V2) When the UE 100 Determines Fine Adjustment on the UE 100 Side by Itself When the UE 100 determines fine adjustment on the UE 100 side by itself, the UE 100 performs step S214 and step S215.

 すなわち、ステップS214において、UE100の制御部130は、性能評価を実行するか否かを判定する。性能評価の実行判定自体は、ステップS211と同一であってもよい。すなわち、制御部130は、UE側の学習済AI/MLモデルをモニタリング(ステップS206)した結果、当該モデルの性能が性能閾値以下であることを検出し、ステップS190で計算した性能評価実行時間と性能評価時間閾値とを比較して、性能評価を実行するか否かを判定する。ここでは、制御部130が性能評価を実行することを判定したとして以下を説明する。 In other words, in step S214, the control unit 130 of the UE 100 determines whether or not to perform performance evaluation. The determination of whether or not to perform performance evaluation may be the same as step S211. That is, as a result of monitoring the trained AI/ML model on the UE side (step S206), the control unit 130 detects that the performance of the model is below the performance threshold, and compares the performance evaluation execution time calculated in step S190 with the performance evaluation time threshold to determine whether or not to perform performance evaluation. Here, the following explanation will be given assuming that the control unit 130 has determined to perform performance evaluation.

 ステップS215において、UE100の制御部130は、微調整を実行するか否かを判定する。微調整実行有無の判定自体は、ステップS212と同一でもよい。すなわち、制御部130は、性能評価実行時間が性能評価時間閾値以下であり(すなわち、性能評価を実行すること)、微調整実行時間が微調整実行時間閾値以下であり、かつ、性能評価による評価結果が性能評価結果閾値以上である(すなわち、評価結果が良い)ときに、微調整を実行すればよい。以下では、制御部130は、微調整を実行することを判定し、微調整を実行することを決定したものとして説明する。 In step S215, the control unit 130 of the UE 100 determines whether or not to perform fine-tuning. The determination of whether or not to perform fine-tuning may itself be the same as in step S212. That is, the control unit 130 may perform fine-tuning when the performance evaluation execution time is equal to or less than the performance evaluation time threshold (i.e., performance evaluation is to be performed), the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and the evaluation result from the performance evaluation is equal to or greater than the performance evaluation result threshold (i.e., the evaluation result is good). In the following description, it is assumed that the control unit 130 determines to perform fine-tuning and decides to perform fine-tuning.

 以上、管理(ステップS210)について説明した。なお、gNB200の制御部230も、自身の学習済AI/MLモデルに対する微調整の実行有無を判定してもよい。この場合、制御部230は、gNB200側の学習済AI/MLモデルをモニタリング(ステップS208)した結果、当該学習済AI/MLモデルの性能が性能閾値以下(すなわち、性能が良くないこと)を検出すると、微調整の実行有無を判定する。すなわち、制御部230は、ステップS186で計算した微調整実行時間(例えば第3時間)と、ステップS195で計算した性能評価実行時間(例えば第4時間)と、gNB200側の学習済AI/MLモデルに対する性能評価の評価結果とに基づいて、当該学習済AI/MLモデルに対する微調整の実行有無を判定すればよい。具体的には、制御部230は、性能評価実行時間が性能評価時間閾値以下であり、微調整実行時間が微調整実行時間閾値以下であり、かつ、性能評価による評価結果が性能評価結果閾値以上であるときに、gNB200側の学習済AI/MLモデルに対する微調整を実行する。 The above describes management (step S210). Note that the control unit 230 of gNB200 may also determine whether or not to perform fine-tuning on its own trained AI/ML model. In this case, when the control unit 230 monitors the trained AI/ML model on the gNB200 side (step S208) and detects that the performance of the trained AI/ML model is below the performance threshold (i.e., poor performance), it determines whether or not to perform fine-tuning. That is, the control unit 230 may determine whether or not to perform fine-tuning on the trained AI/ML model based on the fine-tuning execution time (e.g., the third time) calculated in step S186, the performance evaluation execution time (e.g., the fourth time) calculated in step S195, and the evaluation results of the performance evaluation of the trained AI/ML model on the gNB200 side. Specifically, the control unit 230 performs fine-tuning on the trained AI/ML model on the gNB 200 side when the performance evaluation execution time is equal to or less than the performance evaluation time threshold, the fine-tuning execution time is equal to or less than the fine-tuning execution time threshold, and the evaluation result from the performance evaluation is equal to or greater than the performance evaluation result threshold.

 ステップS216において、移動通信システム1において微調整が実行される。すなわち、UE100側においては、制御部130が学習用データを生成し(ステップS217)、生成した学習用データを用いて、UE100側の学習済AI/MLモデルに対して微調整を実行する(ステップS218)。一方、gNB200側においては、制御部230が学習用データを生成し(ステップS219)、生成した学習用データを用いて、gNB200側の学習済AI/MLモデルにして微調整を実行する(ステップS220)。 In step S216, fine-tuning is performed in the mobile communication system 1. That is, on the UE100 side, the control unit 130 generates learning data (step S217) and uses the generated learning data to perform fine-tuning on the trained AI/ML model on the UE100 side (step S218). Meanwhile, on the gNB200 side, the control unit 230 generates learning data (step S219) and uses the generated learning data to perform fine-tuning on the trained AI/ML model on the gNB200 side (step S220).

 (第5実施形態に係る他の動作例1)
 第5実施形態では、2サイドモデルの場合で説明したが、これに限定されない。例えば、第5実施形態は、UEサイドモデルでも適用可能である。この場合、図24乃至図26において、gNB200側で行われる一部の処理(ステップS186、ステップS195、ステップS219、及びステップS220など)が行われないようにすることで実施可能である。また、第5実施形態は、ネットワークサイドモデルでも適用可能である。例えば、図24乃至図26において、「UE100」を「ネットワーク側」と置き替えることで、ネットワークサイドモデルでも実施可能である。この場合、モデル転送(ステップS180)、パラメータ送信(ステップS182及びステップS187)、データセットの送信(ステップS188)、現在指標の送信(ステップS189)は行われなくてもよく、ネットワーク装置400自身で、学習済AI/MLモデル、パラメータ、データセット、及び現在指標を保持してもよい。
(Another Operation Example 1 According to Fifth Embodiment)
Although the fifth embodiment has been described in the case of a two-side model, this is not limiting. For example, the fifth embodiment can also be applied to a UE-side model. In this case, in FIGS. 24 to 26, some of the processing performed on the gNB 200 side (such as steps S186, S195, S219, and S220) can be prevented from being performed. The fifth embodiment can also be applied to a network-side model. For example, in FIGS. 24 to 26, the network-side model can also be implemented by replacing "UE 100" with "network side." In this case, model transfer (step S180), parameter transmission (steps S182 and S187), data set transmission (step S188), and current indicator transmission (step S189) do not need to be performed, and the network device 400 itself may retain the trained AI/ML model, parameters, data set, and current indicator.

 また、第5実施形態では、CSI圧縮のユースケースについて説明したが、CSI圧縮以外のユースケースでも適用可能である。 Furthermore, in the fifth embodiment, a use case for CSI compression was described, but it can also be applied to use cases other than CSI compression.

 (第5実施形態に係る他の動作例2)
 第5実施形態は、第3実施形態を適用することができる。すなわち、移動通信システム1において、学習済AI/MLモデルの推論結果(又はモニタリング結果)が性能閾値以下であること(すなわち、推論の精度がよくないこと)を検出した回数に基づいて、微調整を実行するか否かを判定してもよい。具体的には、図26のステップS211乃至ステップS215に代えて、図21に示すステップS151乃至ステップS158が実行されればよい。
(Another Operation Example 2 According to Fifth Embodiment)
The fifth embodiment can be applied to the third embodiment. That is, in the mobile communication system 1, it may be determined whether to perform fine-tuning based on the number of times that the inference result (or monitoring result) of the trained AI/ML model is detected to be equal to or lower than the performance threshold (i.e., the inference accuracy is poor). Specifically, steps S151 to S158 shown in FIG. 21 may be executed instead of steps S211 to S215 in FIG. 26.

 また、第5実施形態は、第4実施形態を適用することができる。すなわち、gNB200は、UE100へ報告条件を送信し、UE100では報告条件に従って、記録したログをgNB200へ送信してもよい。具体的には、図24のステップS180(モデル転送)と図25のステップS200(推論)との間において、図23のステップS171(報告条件の送信)が実行され、図26のステップS216(微調整)の後、図23のステップS175(ログ記録)以降が実行されればよい。 Furthermore, the fifth embodiment can be applied to the fourth embodiment. That is, gNB200 may transmit reporting conditions to UE100, and UE100 may transmit the recorded log to gNB200 in accordance with the reporting conditions. Specifically, step S171 (transmission of reporting conditions) in FIG. 23 may be executed between step S180 (model transfer) in FIG. 24 and step S200 (inference) in FIG. 25, and step S175 (log recording) and subsequent steps in FIG. 23 may be executed after step S216 (fine-tuning) in FIG. 26.

 なお、第1実施形態に係る他の動作例及び第2実施形態に係る他の動作例は第5実施形態でも適用可能である。 Note that other operational examples according to the first embodiment and other operational examples according to the second embodiment can also be applied to the fifth embodiment.

 [その他の実施形態]
 上述した第1実施形態では、主に、教師あり学習について説明したがこれに限定されない。例えば、第1実施形態は、教師なし学習又は強化学習が適用されてもよい。
[Other embodiments]
In the first embodiment described above, supervised learning has been mainly described, but the present invention is not limited to this. For example, unsupervised learning or reinforcement learning may be applied to the first embodiment.

 上述の各動作フローは、別個独立に実施する場合に限らず、2以上の動作フローを組み合わせて実施可能である。例えば、1つの動作フローの一部のステップを他の動作フローに追加してもよいし、1つの動作フローの一部のステップを他の動作フローの一部のステップと置換してもよい。各フローにおいて、必ずしもすべてのステップを実行する必要は無く、一部のステップのみを実行してもよい。 The above-mentioned operational flows do not necessarily have to be implemented separately and independently, but can also be implemented by combining two or more operational flows. For example, some steps in one operational flow may be added to another operational flow, or some steps in one operational flow may be replaced with some steps in another operational flow. In each flow, it is not necessary to execute all steps; only some steps may be executed.

 上述の実施形態及び実施例において、基地局がNR基地局(gNB)である一例について説明したが基地局がLTE基地局(eNB)又は6G基地局であってもよい。また、基地局は、IAB(Integrated Access and Backhaul)ノード等の中継ノードであってもよい。基地局は、IABノードのDUであってもよい。また、UE100は、IABノードのMT(Mobile Termination)であってもよい。 In the above-described embodiments and examples, an example was described in which the base station is an NR base station (gNB), but the base station may also be an LTE base station (eNB) or a 6G base station. Furthermore, the base station may also be a relay node such as an IAB (Integrated Access and Backhaul) node. The base station may also be a DU of an IAB node. Furthermore, UE100 may also be an MT (Mobile Termination) of an IAB node.

 すなわち、UE100は、信号中継を行う中継器を基地局が制御するための端末機能部(通信モジュールの一種)であってもよい。このような端末機能部をMTと称する。MTの例としては、IAB-MT以外に、例えば、NCR(Network Controlled Repeater)-MT、RIS(Reconfigurable Intelligent Surface)-MTなどがある。 In other words, UE100 may be a terminal function unit (a type of communication module) that allows a base station to control a repeater that relays signals. Such a terminal function unit is referred to as an MT. In addition to IAB-MT, examples of MT include NCR (Network Controlled Repeater)-MT and RIS (Reconfigurable Intelligent Surface)-MT.

 また、用語「ネットワークノード」は、主として基地局を意味するが、コアネットワークの装置又は基地局の一部(CU、DU、又はRU)を意味してもよい。また、ネットワークノードは、コアネットワークの装置の少なくとも一部と基地局の少なくとも一部との組み合わせにより構成されてもよい。 Furthermore, the term "network node" primarily refers to a base station, but may also refer to a core network device or part of a base station (CU, DU, or RU). A network node may also be composed of a combination of at least part of a core network device and at least part of a base station.

 UE100、gNB200、又はネットワーク装置400が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROM及び/又はDVD-ROM等の記録媒体であってもよい。また、UE100、gNB200、又はネットワーク装置400が行う各処理を実行する回路を集積化し、UE100、gNB200、又はネットワーク装置400の少なくとも一部を半導体集積回路(チップセット、SoC:System on a chip)として構成してもよい。 A program may be provided that causes a computer to execute each process performed by UE100, gNB200, or network device 400. The program may be recorded on a computer-readable medium. Using the computer-readable medium, the program can be installed on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a CD-ROM and/or DVD-ROM. In addition, circuits that execute each process performed by UE100, gNB200, or network device 400 may be integrated, and at least a portion of UE100, gNB200, or network device 400 may be configured as a semiconductor integrated circuit (chipset, SoC: System on a chip).

 本開示で使用されている「に基づいて(based on)」、「に応じて(depending on/in response to)」という記載は、別段に明記されていない限り、「のみに基づいて」、「のみに応じて」を意味しない。「に基づいて」という記載は、「のみに基づいて」及び「に少なくとも部分的に基づいて」の両方を意味する。同様に、「に応じて」という記載は、「のみに応じて」及び「に少なくとも部分的に応じて」の両方を意味する。「含む(include)」、「備える(comprise)」、及びそれらの変形の用語は、列挙する項目のみを含むことを意味せず、列挙する項目のみを含んでもよいし、列挙する項目に加えてさらなる項目を含んでもよいことを意味する。また、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。さらに、本開示で使用されている「第1」、「第2」等の呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。本開示において、例えば、英語でのa,an,及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 As used in this disclosure, the terms "based on" and "depending on/in response to" do not mean "based only on" or "depending only on," unless expressly stated otherwise. The term "based on" means both "based only on" and "based at least in part on." Similarly, the term "depending on" means both "depending only on" and "depending at least in part on." The terms "include," "comprise," and variations thereof do not mean including only the listed items, but may mean including only the listed items or including additional items in addition to the listed items. Additionally, as used in this disclosure, the term "or" is not intended to mean an exclusive or. Furthermore, any reference to elements using designations such as "first," "second," etc., as used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient method of distinguishing between two or more elements. Thus, a reference to a first and a second element does not imply that only two elements may be employed therein, or that the first element must precede the second element in some way. In this disclosure, where articles are added by translation, such as a, an, and the in English, these articles shall include the plural unless the context clearly indicates otherwise.

 UE100又は基地局200(ネットワークノード)により実現される機能は、当該記載された機能を実現するようにプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs (Application Specific Integrated Circuits)、CPU (a Central Processing Unit)、従来型の回路、および/又はそれらの組合せを含む、circuitry又はprocessing circuitryにおいて実装されてもよい。プロセッサは、トランジスタ及び/又はその他の回路を含み、circuitry又はprocessing circuitryとみなされる。プロセッサは、メモリに格納されたプログラムを実行する、programmed processorであってもよい。 The functions performed by UE 100 or base station 200 (network node) may be implemented in circuitry or processing circuitry, including general-purpose processors, application-specific processors, integrated circuits, ASICs (Application Specific Integrated Circuits), CPUs (Central Processing Units), conventional circuits, and/or combinations thereof, programmed to perform the described functions. A processor includes transistors and/or other circuits and is considered to be circuitry or processing circuitry. A processor may also be a programmed processor that executes programs stored in memory.

 本明細書において、circuitry、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。 In this specification, a circuit, unit, or means refers to hardware that is programmed to realize or executes the described functions. The hardware may be any hardware disclosed in this specification or any hardware known to be programmed to realize or execute the described functions.

 当該ハードウェアがcircuitryのタイプであるとみなされるプロセッサである場合、当該circuitry、手段、又はユニットは、ハードウェアと、当該ハードウェア及び/又はプロセッサを構成する為に用いられるソフトウェアの組合せである。 If the hardware is a processor, which is considered to be a type of circuitry, the circuitry, means, or unit is the combination of the hardware and the software used to configure the hardware and/or processor.

 以上、図面を参照して一実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。また、各実施形態、各動作例、又は各処理は、矛盾しない範囲で適宜組み合わせることも可能である。 Although one embodiment has been described in detail above with reference to the drawings, the specific configuration is not limited to that described above, and various design changes can be made without departing from the spirit of the invention. Furthermore, the various embodiments, operational examples, and processes can be combined as appropriate within the scope of consistent principles.

 本願は、日本国特許出願第2024-018853号(2024年2月9日出願)の優先権を主張し、その内容の全てが本願明細書に組み込まれている。 This application claims priority from Japanese Patent Application No. 2024-018853 (filed February 9, 2024), the entire contents of which are incorporated herein by reference.

 (付記)
 以上まとめると付記のようになる。
(Additional Note)
The above can be summarized as follows:

 (付記1)
 移動通信システムのユーザ装置における通信制御方法であって、
 前記ユーザ装置が、学習済AI/MLモデルの微調整を実行するのにかかる時間を示す微調整実行時間に基づいて、前記学習済AI/MLモデルに対して前記微調整を実行するステップ、を有し、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
(Appendix 1)
A communication control method in a user device of a mobile communication system, comprising:
The user device performs the fine-tuning on the trained AI/ML model based on a fine-tuning execution time indicating a time required to perform the fine-tuning of the trained AI/ML model;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 (付記2)
 前記微調整は、前記学習用データを用いて前記学習済AI/MLモデルを学習させることであって、更に、前記学習済AI/MLモデルを構成する最終層までの複数の層のうち、当該最終層を含む層であって層閾値以下の層に対して前記学習を行わせることである
 付記1記載の通信制御方法。
(Appendix 2)
The fine-tuning is to train the trained AI/ML model using the training data, and further to perform the training on layers that are equal to or less than a layer threshold and include a final layer among multiple layers up to the final layer that constitute the trained AI/ML model.

 (付記3)
 前記ユーザ装置が、前記微調整実行時間を計算するステップと、
 前記ユーザ装置が、前記微調整実行時間をネットワークノードへ送信するステップと、を更に有する
 付記1又は付記2に記載の通信制御方法。
(Appendix 3)
the user device calculating the fine-tuning execution time;
The communication control method according to claim 1 or 2, further comprising the step of the user equipment transmitting the fine-tuning execution time to a network node.

 (付記4)
 前記ユーザ装置が、前記学習済AI/MLモデルと前記微調整実行時間を計算するためのパラメータとを、前記ネットワークノードから受信するステップ、を更に有し、
 前記計算するステップは、前記ユーザ装置が、前記パラメータを利用して、前記微調整実行時間を計算するステップを含む
 付記1乃至付記3のいずれかに記載の通信制御方法。
(Appendix 4)
The method further comprises receiving, by the user device, the trained AI/ML model and parameters for calculating the fine-tuning execution time from the network node;
The communication control method according to any one of Supplementary Note 1 to Supplementary Note 3, wherein the calculating step includes a step in which the user device calculates the fine-tuning execution time using the parameters.

 (付記5)
 前記ユーザ装置が、前記微調整を実行するための条件を示す微調整実行条件を前記ネットワークノードから受信するステップ、を更に有し、
 前記実行するステップは、前記ユーザ装置が、前記微調整実行条件に基づいて、前記微調整を実行する
 付記1乃至付記4のいずれかに記載の通信制御方法。
(Appendix 5)
The method further comprises receiving, by the user equipment, a fine-tuning execution condition indicating a condition for performing the fine-tuning from the network node;
5. The communication control method according to claim 1, wherein the performing step comprises the user device performing the fine-tuning based on the fine-tuning execution condition.

 (付記6)
 前記ユーザ装置が、前記微調整を実行することを指示する微調整実行指示を前記ネットワークノードから受信するステップ、を更に有し、
 前記実行するステップは、前記ユーザ装置が、前記微調整実行指示に従って、前記微調整を実行する
 付記1乃至付記5のいずれかに記載の通信制御方法。
(Appendix 6)
The method further comprises receiving, by the user equipment, a fine-tuning execution instruction from the network node, the fine-tuning execution instruction instructing the user equipment to perform the fine-tuning;
6. The communication control method according to claim 1, wherein the performing step comprises the user device performing the fine-tuning in accordance with the fine-tuning execution instruction.

 (付記7)
 前記ユーザ装置が、前記微調整に関する情報を報告するための条件を示す報告条件をネットワークノードから受信するステップと、
 前記ユーザ装置が、前記報告条件に従って、前記微調整に関する情報を前記ネットワークノードへ送信するステップと、を更に有する
 付記1乃至付記6のいずれかに記載の通信制御方法。
(Appendix 7)
receiving, by the user equipment, a reporting condition from a network node indicating a condition for reporting information related to the fine-tuning;
The communication control method according to any one of Supplementary Note 1 to Supplementary Note 6, further comprising the step of the user equipment transmitting information relating to the fine-tuning to the network node in accordance with the reporting condition.

 (付記8)
 移動通信システムのネットワークノードにおける通信制御方法であって、
 前記ネットワークノードが、学習済AI/MLモデルの微調整の実行にかかる時間を示す微調整実行時間に基づいて、ユーザ装置において前記学習済AI/MLモデルに対する前記微調整を実行するための条件を示す微調整実行条件を決定するステップと、
 前記ネットワークノードが、前記微調整実行条件を前記ユーザ装置へ送信するステップと、を有し、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
(Appendix 8)
A communication control method in a network node of a mobile communication system, comprising:
a step in which the network node determines fine-tuning execution conditions indicating conditions for performing the fine-tuning on the trained AI/ML model in the user device based on a fine-tuning execution time indicating the time required to perform the fine-tuning of the trained AI/ML model;
the network node transmitting the fine-tuning execution condition to the user equipment;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 (付記9)
 前記ネットワークノードが、前記微調整実行時間を前記ユーザ装置から受信するステップ、を更に有する
 付記1乃至付記8のいずれかに記載の通信制御方法。
(Appendix 9)
9. The communication control method according to any one of Supplementary Note 1 to Supplementary Note 8, further comprising the step of the network node receiving the fine-tuning execution time from the user equipment.

 (付記10)
 前記ネットワークノードが、前記微調整に関する情報を報告するための条件を示す報告条件を前記ユーザ装置へ送信するステップ、を更に有する
 付記1乃至付記9のいずれかに記載の通信制御方法。
(Appendix 10)
The communication control method according to any one of Supplementary Note 1 to Supplementary Note 9, further comprising the step of the network node transmitting to the user equipment a reporting condition indicating a condition for reporting information related to the fine-tuning.

 (付記11)
 移動通信システムにおけるネットワークノードの通信制御方法であって、
 前記ネットワークノードが、学習済AI/MLモデルの微調整の実行にかかる時間を示す微調整実行時間に基づいて、ユーザ装置において前記学習済AI/MLモデルの微調整を実行することを決定するステップと、
 前記ネットワークノードが、前記微調整を実行することを指示する微調整実行指示を前記ユーザ装置へ送信するステップと、を有し、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
(Appendix 11)
A communication control method for a network node in a mobile communication system, comprising:
The network node determines to perform fine-tuning of the trained AI/ML model in the user device based on a fine-tuning execution time indicating a time required to perform fine-tuning of the trained AI/ML model;
the network node transmitting a fine-tuning execution instruction to the user equipment instructing the user equipment to perform the fine-tuning;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 (付記12)
 前記ネットワークノードが、前記微調整実行時間を前記ユーザ装置から受信するステップ、を更に有する
 付記1乃至付記11のいずれかに記載の通信制御方法。
(Appendix 12)
12. The communication control method according to any one of Supplementary Note 1 to Supplementary Note 11, further comprising the step of the network node receiving the fine-tuning execution time from the user equipment.

 (付記13)
 前記ネットワークノードが、前記微調整に関する情報を報告するための条件を示す報告条件を前記ユーザ装置へ送信するステップ、を更に有する
 付記1乃至付記12のいずれかに記載の通信制御方法。
(Appendix 13)
The communication control method according to any one of Supplementary Note 1 to Supplementary Note 12, further comprising the step of the network node transmitting to the user equipment a reporting condition indicating a condition for reporting information related to the fine-tuning.

 (付記14)
 移動通信システムのユーザ装置における通信制御方法であって、
 前記ユーザ装置が、学習済AI/MLモデルの微調整を実行するための条件を示す微調整実行条件をネットワークノードから受信するステップと、
 前記ユーザ装置が、前記学習済AI/MLモデルを用いて推論を実行するステップと、
 前記ユーザ装置が、前記微調整を実行するステップと、を有し、
 前記微調整実行条件は、性能閾値及び所定回数を含み、
 前記実行するステップは、前記ユーザ装置が、前記学習済AI/MLモデルの推論結果が前記性能閾値以下であることを前記所定回数検出したことに応じて、前記微調整を実行するステップを含み、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
(Appendix 14)
A communication control method in a user device of a mobile communication system, comprising:
The user equipment receives, from a network node, a fine-tuning execution condition indicating a condition for executing fine-tuning of the trained AI/ML model;
The user device performs inference using the trained AI/ML model;
and performing the fine-tuning by the user device;
the fine-tuning execution conditions include a performance threshold and a predetermined number of times;
the performing step includes a step of performing the fine-tuning in response to the user device detecting that the inference result of the trained AI/ML model is equal to or less than the performance threshold a predetermined number of times;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

 (付記15)
 移動通信システムのネットワークノードにおける通信制御方法であって、
 前記ネットワークノードが、学習済AI/MLモデルの微調整を実行するための条件を示す微調整実行条件をユーザ装置へ送信するステップ、を有し、
 前記微調整実行条件は、性能閾値及び所定回数を含み、
 前記ユーザ装置において、前記学習済AI/MLモデルの推論結果が前記性能閾値以下であることを前記所定回数検出したことに応じて、前記微調整が実行され、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
(Appendix 15)
A communication control method in a network node of a mobile communication system, comprising:
The network node transmits to the user device a fine-tuning execution condition indicating a condition for performing fine-tuning of the trained AI/ML model;
the fine-tuning execution conditions include a performance threshold and a predetermined number of times;
In the user device, the fine-tuning is performed in response to detecting that the inference result of the trained AI/ML model is equal to or less than the performance threshold a predetermined number of times;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.

1:移動通信システム
20:5GC(CN)
100:UE
110:受信部
120:送信部
130:制御部
200:gNB
210:送信部
220:受信部
230:制御部
400:ネットワーク装置
500:OTTサーバ
1: Mobile communication system 20: 5GC (CN)
100:UE
110: Receiving unit 120: Transmitting unit 130: Control unit 200: gNB
210: Transmitter 220: Receiver 230: Controller 400: Network device 500: OTT server

Claims (15)

 移動通信システムのユーザ装置における通信制御方法であって、
 前記ユーザ装置が、学習済AI(Artificial Intelligence)/ML(Machine Learning)モデルの微調整を実行するのにかかる時間を示す微調整実行時間に基づいて、前記学習済AI/MLモデルに対して前記微調整を実行すること、を有し、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
A communication control method in a user device of a mobile communication system, comprising:
The user device performs the fine-tuning on the trained AI (Artificial Intelligence)/ML (Machine Learning) model based on a fine-tuning execution time indicating a time required to perform the fine-tuning of the trained AI/ML model;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
 前記微調整は、前記学習用データを用いて前記学習済AI/MLモデルを学習させることであって、更に、前記学習済AI/MLモデルを構成する最終層までの複数の層のうち、当該最終層を含む層であって層閾値以下の層に対して前記学習を行わせることである
 請求項1記載の通信制御方法。
2. The communication control method according to claim 1, wherein the fine-tuning involves training the trained AI/ML model using the training data, and further comprising performing the training on layers including the final layer and below a layer threshold, among multiple layers up to the final layer that constitute the trained AI/ML model.
 前記ユーザ装置が、前記微調整実行時間を計算することと、
 前記ユーザ装置が、前記微調整実行時間をネットワークノードへ送信することと、を更に有する
 請求項1記載の通信制御方法。
the user device calculating the fine-tuning execution time;
The communication control method according to claim 1 , further comprising: the user equipment transmitting the fine-tuning execution time to a network node.
 前記ユーザ装置が、前記学習済AI/MLモデルと前記微調整実行時間を計算するためのパラメータとを、前記ネットワークノードから受信すること、を更に有し、
 前記計算することは、前記ユーザ装置が、前記パラメータを利用して、前記微調整実行時間を計算することを含む
 請求項3記載の通信制御方法。
The user device further comprises receiving the trained AI/ML model and parameters for calculating the fine-tuning runtime from the network node;
The communication control method according to claim 3 , wherein the calculating step includes the user device calculating the fine-tuning execution time using the parameters.
 前記ユーザ装置が、前記微調整を実行するための条件を示す微調整実行条件を前記ネットワークノードから受信すること、を更に有し、
 前記実行することは、前記ユーザ装置が、前記微調整実行条件に基づいて、前記微調整を実行する
 請求項3記載の通信制御方法。
The method further includes receiving, by the user equipment, a fine-tuning execution condition from the network node, the fine-tuning execution condition indicating a condition for performing the fine-tuning;
The communication control method according to claim 3 , wherein the executing step comprises the user device executing the fine-tuning based on the fine-tuning execution condition.
 前記ユーザ装置が、前記微調整を実行することを指示する微調整実行指示を前記ネットワークノードから受信すること、を更に有し、
 前記実行することは、前記ユーザ装置が、前記微調整実行指示に従って、前記微調整を実行する
 請求項3記載の通信制御方法。
The method further includes receiving, by the user equipment, a fine-tuning execution instruction from the network node, the fine-tuning execution instruction instructing the user equipment to perform the fine-tuning;
The communication control method according to claim 3 , wherein the executing step comprises the user device executing the fine-tuning in accordance with the fine-tuning execution instruction.
 前記ユーザ装置が、前記微調整に関する情報を報告するための条件を示す報告条件をネットワークノードから受信することと、
 前記ユーザ装置が、前記報告条件に従って、前記微調整に関する情報を前記ネットワークノードへ送信することと、を更に有する
 請求項1記載の通信制御方法。
receiving, by the user equipment, a reporting condition from a network node indicating a condition for reporting information related to the fine-tuning;
The communication control method according to claim 1 , further comprising: the user equipment transmitting information relating to the fine-tuning to the network node in accordance with the reporting condition.
 移動通信システムのネットワークノードにおける通信制御方法であって、
 前記ネットワークノードが、学習済AI/MLモデルの微調整の実行にかかる時間を示す微調整実行時間に基づいて、ユーザ装置において前記学習済AI/MLモデルに対する前記微調整を実行するための条件を示す微調整実行条件を決定することと、
 前記ネットワークノードが、前記微調整実行条件を前記ユーザ装置へ送信することと、を有し、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
A communication control method in a network node of a mobile communication system, comprising:
The network node determines a fine-tuning execution condition indicating a condition for executing the fine-tuning of the trained AI/ML model in the user device based on a fine-tuning execution time indicating a time required to execute the fine-tuning of the trained AI/ML model;
the network node transmitting the fine-tuning execution condition to the user equipment;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
 前記ネットワークノードが、前記微調整実行時間を前記ユーザ装置から受信すること、を更に有する
 請求項8記載の通信制御方法。
The communication control method according to claim 8 , further comprising: the network node receiving the fine-tuning execution time from the user equipment.
 前記ネットワークノードが、前記微調整に関する情報を報告するための条件を示す報告条件を前記ユーザ装置へ送信すること、を更に有する
 請求項8記載の通信制御方法。
The communication control method according to claim 8 , further comprising the network node transmitting, to the user equipment, a reporting condition indicating a condition for reporting information related to the fine-tuning.
 移動通信システムのネットワークノードのおける通信制御方法であって、
 前記ネットワークノードが、学習済AI(Artificial Intelligence)/ML(Machine Learning)モデルの微調整の実行にかかる時間を示す微調整実行時間に基づいて、ユーザ装置において前記学習済AI/MLモデルの微調整を実行することを決定することと、
 前記ネットワークノードが、前記微調整を実行することを指示する微調整実行指示を前記ユーザ装置へ送信することと、を有し、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
A communication control method in a network node of a mobile communication system, comprising:
The network node determines to perform fine-tuning of the trained AI/ML model in the user device based on a fine-tuning execution time indicating a time required to perform fine-tuning of the trained AI/ML model; and
the network node transmitting a fine-tuning execution instruction to the user equipment instructing the user equipment to perform the fine-tuning;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
 前記ネットワークノードが、前記微調整実行時間を前記ユーザ装置から受信すること、を更に有する
 請求項11記載の通信制御方法。
The communication control method according to claim 11 , further comprising the network node receiving the fine-tuning execution time from the user equipment.
 前記ネットワークノードが、前記微調整に関する情報を報告するための条件を示す報告条件を前記ユーザ装置へ送信すること、を更に有する
 請求項11記載の通信制御方法。
The communication control method according to claim 11 , further comprising: the network node transmitting, to the user equipment, a reporting condition indicating a condition for reporting information related to the fine-tuning.
 移動通信システムのユーザ装置における通信制御方法であって、
 前記ユーザ装置が、学習済AI(Artificial Intelligence)/ML(Machine Learning)モデルの微調整を実行するための条件を示す微調整実行条件をネットワークノードから受信することと、
 前記ユーザ装置が、前記学習済AI/MLモデルを用いて推論を実行することと、
 前記ユーザ装置が、前記微調整を実行することと、を有し、
 前記微調整実行条件は、性能閾値及び所定回数を含み、
 前記実行することは、前記ユーザ装置が、前記学習済AI/MLモデルの推論結果が前記性能閾値以下であることを前記所定回数検出したことに応じて、前記微調整を実行することを含み、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
A communication control method in a user device of a mobile communication system, comprising:
The user equipment receives, from a network node, a fine-tuning execution condition indicating a condition for performing fine-tuning of a trained AI (Artificial Intelligence)/ML (Machine Learning) model;
The user device performs inference using the trained AI/ML model;
the user device performing the fine-tuning;
the fine-tuning execution conditions include a performance threshold and a predetermined number of times;
The performing includes performing the fine-tuning in response to the user device detecting that the inference result of the trained AI/ML model is equal to or less than the performance threshold a predetermined number of times;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
 移動通信システムのネットワークノードにおける通信制御方法であって、
 前記ネットワークノードが、学習済AI(Artificial Intelligence)/ML(Machine Learning)モデルの微調整を実行するための条件を示す微調整実行条件をユーザ装置へ送信すること、を有し、
 前記微調整実行条件は、性能閾値及び所定回数を含み、
 前記ユーザ装置において、前記学習済AI/MLモデルの推論結果が前記性能閾値以下であることを前記所定回数検出したことに応じて、前記微調整が実行され、
 前記微調整は、データ量閾値以下のデータ量の学習用データを用いて前記学習済AI/MLモデルを学習させることである
 通信制御方法。
A communication control method in a network node of a mobile communication system, comprising:
The network node transmits, to a user equipment, a fine-tuning execution condition indicating a condition for performing fine-tuning of a trained AI (Artificial Intelligence)/ML (Machine Learning) model;
the fine-tuning execution conditions include a performance threshold and a predetermined number of times;
In the user device, the fine-tuning is performed in response to detecting that the inference result of the trained AI/ML model is equal to or less than the performance threshold a predetermined number of times;
The fine-tuning is to train the trained AI/ML model using training data with a data volume equal to or less than a data volume threshold.
PCT/JP2025/004061 2024-02-09 2025-02-07 Communication control method Pending WO2025170021A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2024-018853 2024-02-09
JP2024018853 2024-02-09

Publications (1)

Publication Number Publication Date
WO2025170021A1 true WO2025170021A1 (en) 2025-08-14

Family

ID=96700101

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2025/004061 Pending WO2025170021A1 (en) 2024-02-09 2025-02-07 Communication control method

Country Status (1)

Country Link
WO (1) WO2025170021A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020062914A (en) * 2018-10-15 2020-04-23 トヨタ自動車株式会社 Information providing device
WO2021084623A1 (en) * 2019-10-29 2021-05-06 富士通株式会社 Degradation suppression program, degradation suppression method, and information processing device
WO2022237822A1 (en) * 2021-05-11 2022-11-17 维沃移动通信有限公司 Training data set acquisition method, wireless transmission method, apparatus, and communication device
JP2023503111A (en) * 2019-11-22 2023-01-26 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Personalized air interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020062914A (en) * 2018-10-15 2020-04-23 トヨタ自動車株式会社 Information providing device
WO2021084623A1 (en) * 2019-10-29 2021-05-06 富士通株式会社 Degradation suppression program, degradation suppression method, and information processing device
JP2023503111A (en) * 2019-11-22 2023-01-26 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Personalized air interface
WO2022237822A1 (en) * 2021-05-11 2022-11-17 维沃移动通信有限公司 Training data set acquisition method, wireless transmission method, apparatus, and communication device

Similar Documents

Publication Publication Date Title
CN112512059B (en) Network optimization method, server, network side device, system and storage medium
US12133156B2 (en) Method and base station for determining transmission path in wireless communication system
WO2020233405A1 (en) Method and device in node used for wireless communication
US20250168706A1 (en) Communication method
US20250168663A1 (en) Communication method and communication apparatus
WO2025170021A1 (en) Communication control method
WO2025170023A1 (en) Communication control method
WO2025170024A1 (en) Communication control method
US20250184822A1 (en) Ran node and method
WO2025135132A1 (en) Communication control method and user device
US20250365634A1 (en) Communication control method, network node and user equipment
WO2025211434A1 (en) Communication control method
WO2025211279A1 (en) Communication method, user equipment, and network node
WO2025211435A1 (en) Communication control method and network device
WO2025234453A1 (en) Communication control method, network device, and user equipment
WO2025211436A1 (en) Communication control method and network device
WO2025234455A1 (en) Communication control method, network device, and user device
WO2025234454A1 (en) Communication control method, network device, and user device
WO2025211268A1 (en) Communication method, user equipment, and network node
WO2024210193A1 (en) Communication control method
WO2025211269A1 (en) Communication method, user device, and network node
WO2025211432A1 (en) Communication method, user equipment, and network node
US20250374087A1 (en) Communication control method, network node and user equipment
WO2024166864A1 (en) Communication control method
WO2024232433A1 (en) Communication control method and user device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25752244

Country of ref document: EP

Kind code of ref document: A1