The complexity of tasks of modern embedded systems changed from simple control algorithms to image-processing or even Artificial Intelligence. During design optimization of Heterogeneous Multi-Processor Systems-on-a-Chip early performance analysis is required to guarantee a certain quality of service. The proposed simulation based approach to analyze timing behavior of software addresses accuracy by maintaining scalability. Hardware is modeled as a set of composable tiles. The software model differentiates between computation and communication phases. This allows to determine interference on shared resources. Measured delays are used for the performance model. By keeping the distribution of execution delay the analysis results are more representative to the actual behavior of the real system. The approach presented in this thesis allowed a prediction of the average execution time of a HW/SW configuration with an error less than 5%.
Die Komplexität der Aufgaben moderner eingebetteter Systeme hat sich von einfachen Steuerungsalgorithmen bis hin zu Bildverarbeitung oder gar KI geändert. Bei der Designoptimierung von Heterogenen Multi-Processor Systems-on-a-Chip ist eine frühzeitige Performanzanalyse erforderlich, um eine bestimmte Qualität zu gewährleisten. Der vorgestellte simulationsbasierte Ansatz zur Zeitverhaltensanalyse von Software erlaubt hohe Genauigkeit sowie Skalierbarkeit. Hardware wird als zusammensetzbare Kacheln modelliert. Das Softwaremodell unterscheidet Berechnungs- und Kommunikationsphasen. Dies ermöglicht die Bestimmung von Interferenzen auf gemeinsamen Ressourcen. Gemessene Zeiten werden für das Performanzmodell verwendet. Indem die Verteilung der Ausführungszeiten erhalten bleibt, sind die Ergebnisse repräsentativer für das reale System. Der vorgestellte Ansatz ermöglicht eine Vorhersage der durchschnittlichen Ausführungszeit einer HW/SW-Konfiguration mit einem Fehler von weniger als 5%.
The rising number of data centers in Germany drives up the demand for ICT components, like servers and storage units. This leads to an increasing use of valuable raw materials and primary energy. However, assessing this resource demands is challenging due to data quality issues and a focus on operational phases, neglecting manufacturing and End-of-Life in the evaluations. This dissertation aims to analyze the lifecycle resource demands of data centers and their equipment, including strategies for resource savings. Conducting Life Cycle Assessments of various data center systems and components involves gathering updated data and modeling analysis. Different scenarios for End-of-Life treatment and recycling technologies are evaluated, requiring automation of model building and results evaluation due to data volume. Input data quality assessment ensures result validity, contributing to a comprehensive resource consumption evaluation methodology.
Die steigende Zahl von Rechenzentren in Deutschland treibt die Nachfrage nach IKT-Komponenten wie Servern und Speichereinheiten. Dies führt zu einem zunehmenden Einsatz kritischer Rohstoffe und Primärenergie. Die Bewertung dieses Ressourcenbedarfs ist jedoch aufgrund von Datenqualitätsproblemen und der Fokus auf Betriebsphasen eine Herausforderung. Ziel dieser Dissertation ist die Analyse des Ressourcenbedarfs von Rechenzentren und ihren Komponenten, einschließlich Strategien zur Ressourceneinsparung. Die Durchführung von Ökobilanzierungen von Rechenzentrumssystemen und -komponenten umfasst das Sammeln aktualisierter Daten und die Modellanalyse. Es werden verschiedene Szenarien für das End-of-Life bewertet, die aufgrund des Datenvolumens eine Automatisierung der Modellbildung und Ergebnisauswertung erfordern. Die Qualitätsbewertung der Eingabedaten stellt die Gültigkeit der Ergebnisse sicher und trägt zu einer umfassenden Methodik zur Bewertung des Ressourcenverbrauchs bei.
HochschulschriftEingebettetes SystemZeitgesteuertes SystemSicherheitskritisches SystemComputersimulationSimulationSystemKritische InformationsinfrastrukturEchtzeitsystemCyber-physisches System
Zeitgesteuerte Architekturen werden wegen ihres deterministischen und vorhersehbaren Verhaltens häufig in sicherheitskritischen Systemen eingesetzt. Den bestehenden Lösungen mangelt es jedoch an Beobachtungs- und Fehlerbehebungsmöglichkeiten. Um dieses Problem zu lösen, schlagen wir GALI vor, eine neuartige Simulationstechnik. GALI steht für "Globally Accurate, Locally Inaccurate" (global genau, lokal ungenau) und beschleunigt die Simulation von zeitgesteuerten Systemen bei gleichzeitiger Verbesserung der Beobachtbarkeit und Fehlersuche. Es nutzt eine befehlsgenaue Simulation mit einer vorbestimmten zeitgesteuerten Systemkonfiguration und wendet diskrete zeitgesteuerte Ausführung an, um schnelle und genaue Ergebnisse zu erzielen. Das unterstützende Tooling-Ökosystem generiert die erforderliche Infrastruktur. Unsere Evaluierung zeigt, dass GALI ein präzises Verhalten wie zyklusgenaue Simulationen erreicht und einen minimalen Overhead wie ungezeitete Simulationen hat.
Time-Triggered (TT) architectures are widely used in safety-critical computer systems for their deterministic and predictable behavior. However, existing solutions lack observability and debugging capabilities. To address this, we propose GALI, a novel simulation technique. GALI, which stands for "Globally Accurate, Locally Inaccurate," speeds up the simulation of time-triggered systems while enhancing observability and debugging. It utilizes an instruction-accurate simulation with a predetermined time-triggered system configuration and applies discrete timed execution to produce fast and accurate results. The supporting tooling ecosystem generates platform and application components, including board-support packages, binary files, communication channels, and required infrastructure. Our evaluation demonstrates that GALI achieves precise behavior similar to cycle-accurate simulations while incurring minimal overhead, comparable to untimed simulations.
Die heute verfügbaren Hardwareplattformen für eingebettete Systeme sind bereits in der Lage unterschiedliche Klassen von Anwendungen zu realisieren. Dies können zum einen Echtzeitanwendungen sein, bei denen die Einhaltung gegebener Zeitschranken garantiert werden muss, und zum andere Hochleistungsanwendungen, bei denen es darum geht möglichst viele Instruktionen pro Zeiteinheit auszuführen. Ziel dieser Arbeit ist es, eine hybride Hardwareplattform vorzuschlagen, die in der Lage ist, die beiden o.g. Anwendungsklassen auszuführen. Diese Arbeit stellt eine Reihe von Anforderungen an eine solche hybride Hardwareplattform für eingebettete Systeme vor. Basierend auf diesen Anforderungen werden verschiedene existierende Plattformen, von eingebetteten Hochleistungsarchitekturen, bis hin zeitvorhersagbarer Architekturen, analysiert. Basierend auf dieser Analyse wird eine neue hybride Architektur vorgeschlagen, welche zur Laufzeit zwischen einem Echtzeit- und Hochleistungsausführungsmodus umschalten kann.
The hardware platforms available today for embedded systems are already capable of implementing different classes of applications. These can be real-time applications, in which compliance with given time limits must be guaranteed, and high-performance applications, in which the aim is to execute as many instructions as possible per unit of time. The goal of this work is to propose a hybrid hardware platform that is capable of executing the above two classes of applications without suffering from mutually negative timing predictability and execution time optimization requirements. This work presents a set of requirements for such a hybrid hardware platform for embedded systems. Based on these requirements, various existing platforms, ranging from high-performance embedded to fully time-predictable architectures, are analyzed and compared. Based on this analysis, a new hybrid architecture is proposed that can switch between a real-time and high-performance execution mode at runtime.
Die heute verfügbaren Hardwareplattformen für eingebettete Systeme sind bereits in der Lage unterschiedliche Klassen von Anwendungen zu realisieren. Dies können zum einen Echtzeitanwendungen sein, bei denen die Einhaltung gegebener Zeitschranken garantiert werden muss, und zum andere Hochleistungsanwendungen, bei denen es darum geht möglichst viele Instruktionen pro Zeiteinheit auszuführen. Ziel dieser Arbeit ist es, eine hybride Hardwareplattform vorzuschlagen, die in der Lage ist, die beiden o.g. Anwendungsklassen auszuführen. Diese Arbeit stellt eine Reihe von Anforderungen an eine solche hybride Hardwareplattform für eingebettete Systeme vor. Basierend auf diesen Anforderungen werden verschiedene existierende Plattformen, von eingebetteten Hochleistungsarchitekturen, bis hin zeitvorhersagbarer Architekturen, analysiert. Basierend auf dieser Analyse wird eine neue hybride Architektur vorgeschlagen, welche zur Laufzeit zwischen einem Echtzeit- und Hochleistungsausführungsmodus umschalten kann.
The hardware platforms available today for embedded systems are already capable of implementing different classes of applications. These can be real-time applications, in which compliance with given time limits must be guaranteed, and high-performance applications, in which the aim is to execute as many instructions as possible per unit of time. The goal of this work is to propose a hybrid hardware platform that is capable of executing the above two classes of applications without suffering from mutually negative timing predictability and execution time optimization requirements. This work presents a set of requirements for such a hybrid hardware platform for embedded systems. Based on these requirements, various existing platforms, ranging from high-performance embedded to fully time-predictable architectures, are analyzed and compared. Based on this analysis, a new hybrid architecture is proposed that can switch between a real-time and high-performance execution mode at runtime.
1 Online-Ressource (2,5 MB, III, 195 Seiten) Illustrationen, Diagramme.
Dissertation Universität Oldenburg 2022
HochschulschriftEingebettetes SystemLeistungsbedarfEndlicher AutomatBlackboxIPKommunikationsprotokollSystemtheorieAutomatCyber-physisches System
Heutige digitale Schaltungssysteme werden immer leistungsfähiger, wodurch ihre Leistungsaufnahme stetig steigt. Daher werden Methoden benötigt, die die Leistungsaufnahme abhängig von der tatsächlichen Nutzung sichtbar und analysierbar machen, um diese optimieren zu können. Dies kann durch Simulationen auf Systemebene ermöglicht werden. Diese Arbeit stellt eine Methodik vor, welche die gezielte Modellierung und Simulation der Leistungsaufnahme von Systemkomponenten auf Systemebene, im Besonderen auch von Black-Box-IP-Komponenten, ermöglicht. Für den Einsatz der Methodik sind keine Änderungen der Komponenten oder des Systems erforderlich. Die Simulationsmodelle können einfach integriert und an weitere extra-funktionale Modelle gekoppelt werden. Die Evaluation der Experimente zeigt, dass die entwickelte Methodik einen sinnvollen Kompromiss zwischen hoher Genauigkeit und geringem Aufwand erreicht.
Today’s digital circuits get more and more performant which steadily increases the power consumption. Therefore, methodologies are required which show and enable the analysis of the power consumption depending on the real usage in order to optimize it. This can be facilitated with simulations on system level. This work presents a methodology which enables the power consumption modelling and simulation of system components at system level, especially of black-box-IP components. In order to use this methodology neither a change of the components nor of the system is necessary. The simulation models can be easily integrated and connected to further extra-functional models. The evaluation of the experiments shows that the developed methodology achieves a reasonable trade-off between high accuracy and low effort.
HochschulschriftEingebettetes SystemLeistungsbedarfEndlicher AutomatBlackboxIPKommunikationsprotokollSystemtheorieAutomatCyber-physisches System
Heutige digitale Schaltungssysteme werden immer leistungsfähiger, wodurch ihre Leistungsaufnahme stetig steigt. Daher werden Methoden benötigt, die die Leistungsaufnahme abhängig von der tatsächlichen Nutzung sichtbar und analysierbar machen, um diese optimieren zu können. Dies kann durch Simulationen auf Systemebene ermöglicht werden. Diese Arbeit stellt eine Methodik vor, welche die gezielte Modellierung und Simulation der Leistungsaufnahme von Systemkomponenten auf Systemebene, im Besonderen auch von Black-Box-IP-Komponenten, ermöglicht. Für den Einsatz der Methodik sind keine Änderungen der Komponenten oder des Systems erforderlich. Die Simulationsmodelle können einfach integriert und an weitere extra-funktionale Modelle gekoppelt werden. Die Evaluation der Experimente zeigt, dass die entwickelte Methodik einen sinnvollen Kompromiss zwischen hoher Genauigkeit und geringem Aufwand erreicht.
Today’s digital circuits get more and more performant which steadily increases the power consumption. Therefore, methodologies are required which show and enable the analysis of the power consumption depending on the real usage in order to optimize it. This can be facilitated with simulations on system level. This work presents a methodology which enables the power consumption modelling and simulation of system components at system level, especially of black-box-IP components. In order to use this methodology neither a change of the components nor of the system is necessary. The simulation models can be easily integrated and connected to further extra-functional models. The evaluation of the experiments shows that the developed methodology achieves a reasonable trade-off between high accuracy and low effort.
IEEE International Conference on Emerging Technologies and Factory Automation (27. : 2022 : Stuttgart) 2022 27th IEEE International Conference on Emerging Technologies and Factory Automation (ETFA) [Piscataway, NJ] : IEEE, 2022 (2022) 1 Online Ressource
Die Leistungsaufnahme von Rechenzentren wächst stetig und stellt ein relevantes Volumen im Energiesektor dar, sie lässt sich allerdings nicht bzw. nur unzureichend steuern. Maßgeblich wird die Leistungsaufnahme von der Rechenleistung bestimmt, die durch die jeweils betriebenen Applikationen abgerufen wird. In dieser Arbeit wird das auf dem Prinzip einer Ressourcen-Überprovisionierung beruhende Online Heuristic Machine Allocation (OHMA)-Verfahren vorgestellt. Mittels Server-Virtualisierung als Basis-Technologie werden virtuelle Maschinen als Vehikel zum Verschieben von Rechenlast verwendet und so eine Serverauslastung erzeugt, die einer geforderten Leistungsaufnahme entspricht. Eine Steuerung der Serverleistungsaufnahme wird so ermöglicht. Das Verfahren wird als Automaten-Modell in der Simulationsumgebung Uppaal modelliert und anhand von Datensätzen aus der Industrie evaluiert. Es wird eine Leistungsanpassung von bis zu 50% mit der Technik einer Ressourcen-Überprovisionierung bei linearer Komplexität des Verfahrens erreicht.
The power consumption of data centers is growing steadily and represents a relevant volume in the energy sector, but it cannot be controlled or can only be controlled insufficiently. The power consumption is largely determined by the computing power that is demanded by the applications being operated. This thesis presents the Online Heuristic Machine Allocation (OHMA) approach, which is based on the principle of resource over-provisioning. Using server virtualization as a base technology, virtual machines are used as a vehicle to shift computational load and thus generate a server workload that corresponds to a required power consumption. Control of server power consumption is thus enabled. The method is modeled as an automaton model in the Uppaal simulation environment and evaluated against industry data sets. A power adjustment of up to 50% is achieved using the technique of resource over-provisioning with linear complexity of the approach.