Tech-invite3GPPspaceIETFspace
21222324252627282931323334353637384‑5x
Top   in Index   Prev   Next

TR 28.858
Study on Artificial Intelligence / Machine Learning (AI/ML) management Phase 2

V19.0.0 (Wzip)  2024/12  47 p.
Rapporteur:
Dr. Al-kanani, Hassan
NEC Europe Ltd

full Table of Contents for  TR 28.858  Word version:  19.0.0

each clause number in 'red' refers to the equivalent title in the Partial Content
Here   Top
1Scope  p. 9
2References  p. 9
3Definitions of terms, symbols and abbreviations  p. 9
3.1Terms  p. 9
3.2Symbols  p. 10
3.3Abbreviations  p. 10
4Concepts and overview  p. 10
4.1Overview  p. 10
4.2Energy consumption of AI/ML  p. 11
4.3Management of AI/ML capabilities for RAN and 5GC  p. 12
4.3.1Management of ML model training and AI/ML inference function for RAN  p. 12
4.3.1.1Managing NG-RAN AI/ML based Coverage and Capacity Optimization  p. 12
4.3.1.2Managing NG-RAN AI/ML-based Network Slicing  p. 12
4.3.2Management of ML model training and AI/ML inference function for 5GC  p. 12
4.4AI/ML trustworthiness  p. 12
5Management capabilities for AI/ML lifecycle  p. 13
5.1ML model training  p. 13
5.1.1ML-Knowledge-based Transfer Learning  p. 13
5.1.1.1Description  p. 13
5.1.1.2Use cases  p. 14
5.1.1.2.1Discovering sharable Knowledge  p. 14
5.1.1.2.2Knowledge sharing and transfer learning  p. 14
5.1.1.3Potential requirements  p. 15
5.1.1.4Possible solutions  p. 15
5.1.1.5Evaluation  p. 16
5.1.2ML pre-training  p. 16
5.1.2.1Description  p. 16
5.1.2.2Use cases  p. 17
5.1.2.2.1Consumer requested ML pre-training  p. 17
5.1.2.3Potential requirements  p. 17
5.1.2.4Possible solutions  p. 17
5.1.2.4.1Possible solution #1  p. 17
5.1.2.4.2Possible solution #2  p. 17
5.1.2.5Evaluation  p. 18
5.1.3ML Fine-tuning  p. 18
5.1.3.1Description  p. 18
5.1.3.2Use cases  p. 18
5.1.3.2.1 ML fine-tuning for a pre-trained ML model  p. 18
5.1.3.3Potential requirements  p. 18
5.1.3.4Possible solution  p. 18
5.1.3.4.1Possible solution #1  p. 18
5.1.3.4.2Possible solutions #2  p. 19
5.1.3.5Evaluation  p. 19
5.1.4ML model training for multiple contexts  p. 19
5.1.4.1Description  p. 19
5.1.4.2Use cases  p. 19
5.1.4.2.1ML model training for multiple contexts  p. 19
5.1.4.3Potential Requirements  p. 20
5.1.4.4Possible solutions  p. 20
5.1.4.5Evaluation  p. 20
5.1.5ML training data statistics  p. 20
5.1.5.1Description  p. 20
5.1.5.2Use Cases  p. 20
5.1.5.2.1 Training data statistical properties for ML training  p. 20
5.1.5.3Potential requirements  p. 21
5.1.5.4Possible solutions  p. 21
5.1.5.5Evaluation  p. 21
5.1.6ML model confidence  p. 21
5.1.6.1Description  p. 21
5.1.6.2Use Cases  p. 21
5.1.6.2.1Model Confidence Threshold in ML Training  p. 21
5.1.6.3Potential requirements  p. 22
5.1.6.4Possible solutions  p. 22
5.1.6.5Evaluation  p. 22
5.1.7Management of Reinforcement Learning  p. 22
5.1.7.1Description  p. 22
5.1.7.2Use cases  p. 23
5.1.7.2.1Exploration in Reinforcement Learning  p. 23
5.1.7.2.2Training Conflict in Reinforcement Learning  p. 23
5.1.7.3Potential Requirements  p. 23
5.1.7.4Possible solutions  p. 24
5.1.7.4.1Possible solution #1: Exploration in Reinforcement Learning  p. 24
5.1.7.4.2Possible solution #2: Training Conflict in Reinforcement Learning  p. 24
5.1.7.5Evaluation  p. 24
5.1.7.5.1Exploration in Reinforcement Learning  p. 24
5.1.7.5.2Training Conflict in Reinforcement Learning  p. 25
5.1.8Sustainable AI/ML for ML training  p. 25
5.1.8.1Description  p. 25
5.1.8.2Use cases  p. 25
5.1.8.2.1AI/ML energy consumption evaluation and reporting for ML model training  p. 25
5.1.8.3Potential Requirements  p. 25
5.1.8.4Possible solutions  p. 26
5.1.8.4.1Possible solution #1  p. 26
5.1.8.4.2Possible solution #2  p. 26
5.1.8.5Evaluation  p. 26
5.1.9ML model distributed training  p. 26
5.1.9.1Description  p. 26
5.1.9.2Use cases  p. 26
5.1.9.2.1ML model distributed training  p. 26
5.1.9.3Potential requirements  p. 27
5.1.9.4Possible solutions  p. 27
5.1.9.4.1ML model distributed training  p. 27
5.1.9.5Evaluation  p. 27
5.1.10Management of Federated Learning  p. 27
5.1.10.1Description  p. 27
5.1.10.2Use cases  p. 28
5.1.10.2.1Management of different roles in Federated Learning  p. 28
5.1.10.3Potential requirements  p. 28
5.1.10.4Possible solutions  p. 29
5.1.10.5Evaluation  p. 29
5.1.11ML Authentication  p. 30
5.1.11.1Description  p. 30
5.1.11.2Potential Requirements  p. 30
5.1.11.3Possible Solution  p. 30
5.1.11.4Evaluation  p. 30
5.1.12AI/ML prediction latency  p. 30
5.1.12.1Description  p. 30
5.1.12.2Use cases  p. 30
5.1.12.2.1AI/ML prediction latency during ML model training  p. 30
5.1.12.3Potential requirements  p. 31
5.1.12.4Possible solutions  p. 31
5.1.12.5Evaluation  p. 31
5.2AI/ML inference emulation  p. 31
5.2.1ML inference emulation  p. 31
5.2.1.1Description  p. 31
5.2.1.2Use cases  p. 31
5.2.1.2.1AI/ML inference emulation  p. 31
5.2.1.2.2Managing ML inference emulation  p. 32
5.2.1.3Potential requirements  p. 32
5.2.1.4Possible solutions  p. 33
5.2.1.5Evaluation  p. 34
5.2.2ML inference emulation environment selection  p. 34
5.2.2.1Description  p. 34
5.2.2.2Use cases  p. 34
5.2.2.2.1ML inference emulation environment selection  p. 34
5.2.2.3Potential requirements  p. 34
5.2.2.4Possible solutions  p. 35
5.2.2.5Evaluation  p. 35
5.3AI/ML deployment  p. 35
5.3.1Enhance the ML model loading use case  p. 35
5.3.1.1Description  p. 35
5.3.1.2Use cases  p. 35
5.3.1.3Potential requirements  p. 35
5.3.1.4Possible solutions  p. 35
5.3.2Managing ML Model Transfer/delivery  p. 35
5.3.2.1Description  p. 35
5.3.2.2Use cases  p. 36
5.3.2.2.1Relation of ML model delivery in RAN to ML model loading in SA5  p. 36
5.3.2.3Potential Requirements  p. 36
5.3.2.4 Possible solutions  p. 36
5.3.2.5 Evaluation  p. 36
5.4AI/ML inference  p. 36
5.4.1Coordination between the ML capabilities  p. 36
5.4.1.1Description  p. 36
5.4.1.2Use cases  p. 37
5.4.1.2.1Alignment of the ML capability between 5GC/RAN and 3GPP management system  p. 37
5.4.1.3Potential requirements  p. 37
5.4.1.4Possible solutions  p. 37
5.4.1.4.1Possible solution #1  p. 37
5.4.1.5Evaluation  p. 38
5.4.2Sustainable AI/ML for AI/ML inference  p. 38
5.4.2.1Description  p. 38
5.4.2.2Use cases  p. 38
5.4.2.2.1AI/ML energy consumption evaluation and reporting for AI/ML inference  p. 38
5.4.2.3Potential requirements  p. 39
5.4.2.4Possible solutions  p. 39
5.4.2.4.1Possible solution #1  p. 39
5.4.2.4.2Possible solution #2  p. 39
5.4.2.5Evaluation  p. 39
5.4.3ML remedial action management  p. 39
5.4.3.1Description  p. 39
5.4.3.2Use cases  p. 39
5.4.3.2.1ML remedial actions due to performance degradation and energy consumption  p. 39
5.4.3.3Potential requirements  p. 40
5.4.3.4Possible solutions  p. 40
5.4.3.5Evaluation  p. 40
5.4.4Managing ML models in use in a live network  p. 40
5.4.4.1Description  p. 40
5.4.4.2Use Cases  p. 40
5.4.4.2.1Handling of underperforming ML trained models in live networks  p. 40
5.4.4.2.2Performance monitoring of Network Functions with ML trained models in live networks  p. 40
5.4.4.3Potential requirements  p. 41
5.4.4.4Possible solutions  p. 41
5.4.4.5Evaluation  p. 42
5.4.5AI/ML prediction latency  p. 42
5.4.5.1 Description  p. 42
5.4.5.2Use cases  p. 42
5.4.5.2.1AI/ML prediction latency during inference  p. 42
5.4.5.3Potential requirements  p. 42
5.4.5.4Possible solutions  p. 42
5.4.5.5Evaluation  p. 42
5.4.6ML explainability  p. 42
5.4.6.1 Description  p. 42
5.4.6.2Use cases  p. 43
5.4.6.2.1Local explanation in AI/ML inference  p. 43
5.4.6.3Potential requirements  p. 43
5.4.6.4Possible solutions  p. 43
5.4.6.5Evaluation  p. 43
6Conclusions and recommendations  p. 43
$Change history  p. 45

Up   Top