The cooperative maneuver coordination allows for automated and connected vehicles to execute cooperative driving maneuvers, in order to increase the traffic safety and efficiency on the roads. The development of the associated cooperative driving functions requires a comprehensive testing, due to a large number of aspects needed to be considered. This dissertation introduces a novel methodology for the verification and validation of the cooperative driving functions with an intelligent co-simulation framework, including the approaches considering the preparation of scenarios through machine learning, the coupled simulation of vehicle and traffic, as well as the application of relevant traffic quality metrics. Eventually, a simulation-based Remote-Adaptable Prototype-in-the-Loop method is presented in the context of mixed reality, offering a solution for a fast and effort-efficient testing of the cooperative driving functions.
Die kooperative Manöverkoordinierung ermöglicht es den automatisierten und vernetzten Fahrzeugen kooperative Fahrmanöver auszuführen, um die Verkehrssicherheit und -effizienz auf den Straßen zu erhöhen. Die Entwicklung von dazugehörigen kooperativen Fahrfunktionen bedarf eines umfassenden Testens aufgrund einer großen Anzahl zu berücksichtigender Aspekte. Diese Dissertation schlägt eine neuartige Methodik zur Verifizierung und Validierung von kooperativen Fahrfunktionen durch ein Intelligent Co-Simulation Framework vor, inklusive der Ansätze hinsichtlich der Vorbereitung von Szenarien durch maschinelles Lernen, der gekoppelten Simulation von Fahrzeug und Verkehr sowie der Anwendung von relevanten Metriken der Verkehrsqualität. Schließlich wird eine simulationsbasierte Remote-Adaptable Prototype-in-the-Loop Methode im Kontext der gemischten Realität vorgestellt, die eine Lösung für schnelles und aufwandseffizientes Testen von kooperativen Fahrfunktionen bietet.
The rising number of data centers in Germany drives up the demand for ICT components, like servers and storage units. This leads to an increasing use of valuable raw materials and primary energy. However, assessing this resource demands is challenging due to data quality issues and a focus on operational phases, neglecting manufacturing and End-of-Life in the evaluations. This dissertation aims to analyze the lifecycle resource demands of data centers and their equipment, including strategies for resource savings. Conducting Life Cycle Assessments of various data center systems and components involves gathering updated data and modeling analysis. Different scenarios for End-of-Life treatment and recycling technologies are evaluated, requiring automation of model building and results evaluation due to data volume. Input data quality assessment ensures result validity, contributing to a comprehensive resource consumption evaluation methodology.
Die steigende Zahl von Rechenzentren in Deutschland treibt die Nachfrage nach IKT-Komponenten wie Servern und Speichereinheiten. Dies führt zu einem zunehmenden Einsatz kritischer Rohstoffe und Primärenergie. Die Bewertung dieses Ressourcenbedarfs ist jedoch aufgrund von Datenqualitätsproblemen und der Fokus auf Betriebsphasen eine Herausforderung. Ziel dieser Dissertation ist die Analyse des Ressourcenbedarfs von Rechenzentren und ihren Komponenten, einschließlich Strategien zur Ressourceneinsparung. Die Durchführung von Ökobilanzierungen von Rechenzentrumssystemen und -komponenten umfasst das Sammeln aktualisierter Daten und die Modellanalyse. Es werden verschiedene Szenarien für das End-of-Life bewertet, die aufgrund des Datenvolumens eine Automatisierung der Modellbildung und Ergebnisauswertung erfordern. Die Qualitätsbewertung der Eingabedaten stellt die Gültigkeit der Ergebnisse sicher und trägt zu einer umfassenden Methodik zur Bewertung des Ressourcenverbrauchs bei.
XVI, 285 Seiten Illustrationen, Diagramme 21 cm x 14.8 cm, 453 g.
Literaturverzeichnis: Seiten 225-254 ; Dissertation Carl von Ossietzky Universität Oldenburg 2024
Wirtschaftsmathematik und -informatik, IT-Management; Big Data; Big Data Analytics; Künstliche Intelligenz; Lieferketten; Risikomanagement; Supply Chain; Supply Chain Risk Management; Hochschulschrift
Angesichts von Nachhaltigkeitsrisiken, wie der Verletzung von Menschenrechten in der Lieferkette (LkSG), und der zunehmenden Komplexität und Regulatorik, wie der Corporate Social Responsibility Directive (CSRD), müssen Organisationen, ihre Geschäftsführer und Vorstände im Zeitalter der künstlichen Intelligenz ihre Sorgfaltspflicht neu interpretieren, um Schaden abzuwenden. Diese Dissertation untersucht die Charakteristika von Risiken in unternehmensübergreifenden Wertschöpfungsketten, um Big Data- und KI-basierte Risikoinformationssysteme zu entwickeln, die den Verpflichteten helfen, weiterhin den Schutz der Business Judgment Rule zu genießen. Die Arbeit bietet einen tiefen Einblick in die Herausforderungen und Potenziale moderner Mustererkennungsverfahren im Risikomanagement und präsentiert innovative Architekturen sowie Anwendungsfälle zur Verbesserung der Informationsbasis für erfolgskritische Entscheidungen
Oldenburger Schriften zur Wirtschaftsinformatik
Oldenburger Schriften zur Wirtschaftsinformatik ; Band 37
XVIII, 195 Seiten Diagramme 21 cm x 14.8 cm, 323 g.
Literaturverzeichnis: Seite 179-194 ; Interessenniveau: 06, Professional and scholarly: For an expert adult audience, including academic research. (06) ; Dissertation Universität Oldenburg 2022
Angewandte Informatik; Unternehmensanwendungen; Data Science; Datenintegration; Künstliche Intelligenz; Record Linkage; data matching; HochschulschriftUnternehmenBetriebsdatenStammdatenDatenintegrationDokumentenverwaltungssystemData ScienceDatenverknüpfungBüroinformationssystemArchivsystemDatenBetriebGewerbebetriebIndustriebetriebFirmaIntegrationBig Data
In dieser Arbeit wird ein Record Linkage-System erforscht und entwickelt welches die Ziele hat, (1) Datenquellen-unabhängig zu sein und (2) den manuellen Prüfaufwand zu reduzieren, um die Automatisierung der Datenintegration weiter voranzutreiben. Die Kernidee des Konzepts zur Entwicklung des Record Linkage-Systems basiert auf der Einschränkung der zu integrierenden Datenquellen über eine Realwelt-Entität wie bspw. Unternehmen. Für diese Realwelt-Entität können dann die häufig vorkommenden Informationen abgeleitet werden und von diesen können die häufig vorkommenden Datenintegrationsprobleme abgeleitet werden, für die geeignete Algorithmen und Verfahren entwickelt werden können. Innerhalb von neun Feldexperimenten wurde das Konzept in ein prototypisches Record Linkage-System überführt. Das prototypische Record Linkage-System, der Unternehmen-Matcher, wurde in vier Fallstudien mit den Industriepartnern Volkswagen AG, EWE TEL GmbH, CEWE Stiftung & Co. KGaA und Oldenburgisch Ostfriesischer Wasserverband evaluiert. Die Evaluation des Unternehmen-Matcher hat gezeigt, dass dieser die Automatisierung der Datenintegration ermöglicht und diese Arbeit damit einen Beitrag zur Forschung der Datenintegration leistet
Oldenburger Schriften zur Wirtschaftsinformatik
Oldenburger Schriften zur Wirtschaftsinformatik ; Band 32