La vitrine de diffusion des mémoires et thèses de l'ÉTS
RECHERCHER

Dynamic prediction of resource consumption in virtualized environments

Téléchargements

Téléchargements par mois depuis la dernière année

Bellili, Asma (2024). Dynamic prediction of resource consumption in virtualized environments. Thèse de doctorat électronique, Montréal, École de technologie supérieure.

[thumbnail of BELLILI_Asma.pdf]
Prévisualisation
PDF
Télécharger (2MB) | Prévisualisation

Résumé

Today’s cloud environments host various services and applications. In such an environment, the consumption of resources is growing exponentially which makes their management a challenging task especially in a dynamic cloud environment (e.g., resource availability, traffic volatility) and under different Quality of Service (QoS) requirements that are specified in Service-Level- Agreements (SLAs) for various applications (e.g., highly latency-sensitive applications). These applications designed as chains of microservices are deployed in a dynamic cloud environment. In this thesis, we focus on adapting resources for service function chains (SFCs) which consist of a set of Virtual Network functions (VNFs). High traffic load variations of applications lead to uncertainty in resource utilization. Consequently, the need for efficient data-driven mechanisms for automatic resource management becomes paramount. These mechanisms enable distributed systems to anticipate and efficiently respond to resource consumption fluctuations. They rely on accurate prediction techniques to satisfy the resource needs, to meet the QoS requirements for cloud applications and service infrastructures. These mechanisms are requiered to handle with the heterogeneity and the dynamic of resource demands. In this context, a mono-prediction model based on only historical consumption is inefficient for a volatile traffic workload. In this thesis, we propose a new prediction technique for dynamic workload variation. This technique allows the choice from various prediction techniques, the efficient one to trigger. Our solution applies a multi-task selector based on a meta-learning strategy MT-MLS. The MT-MLS introduces a new concept by analyzing similarities of resource consumption between various VNFs of an SFC. Additionally, an attention mechanism is employed to assign a weight to each Virtual Network Function (VNF) through similarity analysis. The MT-MLS is designed as a multi-task classifier, concurrently and independently assigning the most suitable predictor for forecasting multidimensional resource consumption for each Virtual Network Function (VNF) in a given workload. The best predictor is selected among a set of predictor models supported by our solution. Among the predictor models supported by our solution, the solution comprises an efficient Graph Neural Network (GNN) Model that uses SFC topological features demonstrating its performance under high-load traffic. The solution also includes an Long Short Term Memory (LSTM) model, a Convolutional Neural Network (CNN) model, and a hybrid model. These base predictors are used to generate metadata to train the MT-MLS. The performances of each model were compared with MT-MLS performances. The analysis of the various experimental results shows clearly that the proposed solution outperforms the other models.

Titre traduit

Prédiction dynamique de la consommation des ressources dans les environnements virtualisés

Résumé traduit

Les environnements infonuagiques d’aujourd’hui offrent d’énormes capacités d’hébergement de services et d’applications. Dans de tels environnements, l’augmentation exponentielle de la consommation de ressources (ex., de calcul, de stockage) rend leur gestion très difficile. Cette dernière doit respecter différentes contraintes de Qualité de Service (QdS) qui sont négociées dans le cadre de divers contrats de service (Service Level Agreements, SLA) pour différentes applications (ex., application hautement sensible au délai). Ces applications représentées par des chaînes de microservices sont déployées dans ces environnements qui sont dynamiques (ex., variabilité de la disponibilité des ressources, volatilité des charges de trafic). Dans cette thèse, nous nous intéressons à l’adaptation de ressources pour des chaînes de fonctions de services (Service Function Chain -SFCs) composées de plusieurs fonctions de réseau virtualisées (Virtual Network Function -VNF). Les variations élevées de la charge de trafic des applications entraînent une incertitude quant à l’utilisation des ressources. Il devient donc crucial de disposer de mécanismes efficaces basés sur les données pour la gestion automatique des ressources. Ces mécanismes permettent aux systèmes complexes d’anticiper et de réagir efficacement aux fluctuations de ces charges. Ils s’appuient sur des techniques efficaces de prévision de l’utilisation des ressources afin de répondre aux exigences de QdS des applications. Ils doivent anticiper la consommation de différentes ressources (ex., CPU, mémoire) tout en tenant compte de la variabilité. Dans ce contexte, une solution basée sur un modèle de mono-prédiction basé uniquement sur l’historique de la consommation de ressource peut échouer en cas de changement brut de la consomation de resource. Pour permettre au mécanisme de prédiction de s’adapter à la variation des demandes en ressources. Dans cette thèse,nous proposons une nouvelle solution de prédiction qui s’adapte à la variation de la consomation en sélectionnant parmi plusieurs méthodes de prédiction, celle qui est la mieux adaptée à la charge de trafic reçue. Notre solution applique un sélecteur multitâche basé sur la stratégie de méta-learning MT-MLS. Le MT-MLS introduit un nouveau concept en analysant les similitudes de consommation de différentes ressources entre les VNFs Les environnements infonuagiques d’aujourd’hui offrent d’énormes capacités d’hébergement de services et d’applications. Dans de tels environnements, l’augmentation exponentielle de la consommation de ressources (ex., de calcul, de stockage) rend leur gestion très difficile. Cette dernière doit respecter différentes contraintes de Qualité de Service (QdS) qui sont négociées dans le cadre de divers contrats de service (Service Level Agreements, SLA) pour différentes applications (ex., application hautement sensible au délai). Ces applications représentées par des chaînes de microservices sont déployées dans ces environnements qui sont dynamiques (ex., variabilité de la disponibilité des ressources, volatilité des charges de trafic). Dans cette thèse, nous nous intéressons à l’adaptation de ressources pour des chaînes de fonctions de services (Service Function Chain -SFCs) composées de plusieurs fonctions de réseau virtualisées (Virtual Network Function -VNF). Les variations élevées de la charge de trafic des applications entraînent une incertitude quant à l’utilisation des ressources. Il devient donc crucial de disposer de mécanismes efficaces basés sur les données pour la gestion automatique des ressources. Ces mécanismes permettent aux systèmes complexes d’anticiper et de réagir efficacement aux fluctuations de ces charges. Ils s’appuient sur des techniques efficaces de prévision de l’utilisation des ressources afin de répondre aux exigences de QdS des applications. Ils doivent anticiper la consommation de différentes ressources (ex., CPU, mémoire) tout en tenant compte de la variabilité. Dans ce contexte, une solution basée sur un modèle de mono-prédiction basé uniquement sur l’historique de la consommation de ressource peut échouer en cas de changement brut de la consomation de resource. Pour permettre au mécanisme de prédiction de s’adapter à la variation des demandes en ressources. Dans cette thèse,nous proposons une nouvelle solution de prédiction qui s’adapte à la variation de la consomation en sélectionnant parmi plusieurs méthodes de prédiction, celle qui est la mieux adaptée à la charge de trafic reçue. Notre solution applique un sélecteur multitâche basé sur la stratégie de méta-learning MT-MLS. Le MT-MLS introduit un nouveau concept en analysant les similitudes de consommation de différentes ressources entre les VNFs d’une SFC (une application). Un mécanisme d’attention est utilisé pour identifier un poid pour chaque VNF sur la base de l’analyse de similarité. Le MT-MLS est conçu comme un classifieur multitâche,qui attribue simultanément et indépendamment à chaque VNF un meilleur prédicteur pour prévoir les besoins en ressources dans une situation de charge de trafic donnée. Le meilleur prédicteur est sélectionné parmi un ensemble de modèles de prédicteurs proposés par notre solution, mais sans s’y limiter. En effet, notre solution peut etre appliquée avec de nombreux predicteurs qui sont capables de fournir une prediction de la consomation future des resources. Parmi les prédicteurs de base proposés par notre solution: un modèle GNN efficace qui utilise les caractéristiques de la topologie d’une SFC et qui a démontré ses performances dans le cas de charges de trafics élevé. Nous avons également développé d’autres modèles, un modèle CNN, un modèle LSTM et un modèle hybride. Ces prédicteurs de base ont été utilisés pour générer des métadonnées afin de développer le MT-MLS. L’analyse et VIII la comparaison des résultats expérimentaux montrent clairement l’efficacité et la performance de nos solutions.d’une SFC (une application). Un mécanisme d’attention est utilisé pour identifier un poid pour chaque VNF sur la base de l’analyse de similarité. Le MT-MLS est conçu comme un classifieur multitâche,qui attribue simultanément et indépendamment à chaque VNF un meilleur prédicteur pour prévoir les besoins en ressources dans une situation de charge de trafic donnée. Le meilleur prédicteur est sélectionné parmi un ensemble de modèles de prédicteurs proposés par notre solution, mais sans s’y limiter. En effet, notre solution peut etre appliquée avec de nombreux predicteurs qui sont capables de fournir une prediction de la consomation future des resources. Parmi les prédicteurs de base proposés par notre solution: un modèle GNN efficace qui utilise les caractéristiques de la topologie d’une SFC et qui a démontré ses performances dans le cas de charges de trafics élevé. Nous avons également développé d’autres modèles, un modèle CNN, un modèle LSTM et un modèle hybride. Ces prédicteurs de base ont été utilisés pour générer des métadonnées afin de développer le MT-MLS. L’analyse et la comparaison des résultats expérimentaux montrent clairement l’efficacité et la performance de nos solutions.

Type de document: Mémoire ou thèse (Thèse de doctorat électronique)
Renseignements supplémentaires: "Thesis presented to École de technologie supérieure in partial fulfillment for the degree of doctor of philosophy". Comprend des références bibliographiques (pages 79-96).
Mots-clés libres: gestion des ressources, prédiction des ressources, apprentissage automatique, dépendances entre VNFs, chaîne de fonctions de service, classification multitâche, affinité VNF, GNN
Directeur de mémoire/thèse:
Directeur de mémoire/thèse
Kara, Nadjia
Programme: Doctorat en génie > Génie
Date de dépôt: 06 janv. 2025 14:42
Dernière modification: 06 janv. 2025 14:42
URI: https://espace.etsmtl.ca/id/eprint/3527

Gestion Actions (Identification requise)

Dernière vérification avant le dépôt Dernière vérification avant le dépôt