Lack of reproducibility of research results has become a major theme in recent years. As we emerge from the COVID-19 pandemic, economic pressures (increasing scrutiny of research funding) and exposed consequences of lack of societal trust in science make addressing reproducibility of urgent importance. TIER2 does so by selecting 3 broad research areas (social, life and computer sciences) and 2 cross-disciplinary stakeholder groups (research publishers and funders) to systematically investigate reproducibility across contexts. The project starts by thoroughly examining the epistemological, social and technical factors (epistemic diversity) which shape the meanings and implications of reproducibility across contexts. Next, we build a state-of-the-art evidence-base on existing reproducibility interventions, tools and practices, identifying key knowledge gaps. Then TIER2 will use (co-creation) techniques of scenario-planning, backcasting and user-centred design to select, prioritise, design/adapt and implement new tools/practices to enhance reproducibility across contexts. Alignment activities ensure tools are EOSC-interoperable, & capacity-building actions with communities (i.e. Reproducibility Networks) will facilitate awareness, skills and community-uptake. Systematic assessment of the efficacy of interventions across contexts will synthesise knowledge on reproducibility gains and savings. A final roadmap for future reproducibility, including policy recommendations is co-created with stakeholders. Thus, TIER2 will significantly boost knowledge on reproducibility, create tools, engage communities, implement interventions and policy across different contexts to increase re-use and overall quality of research results in the European Research Area and global R&I, and consequently increase trust, integrity and efficiency in research
Das DAPHNE-Projekt zielt darauf ab, eine offene und erweiterbare Systeminfrastruktur für integrierte Datenanalyse-Pipelines zu definieren und aufzubauen, die Datenmanagement und -verarbeitung, Hochleistungsrechnen (HPC) und maschinelles Lernen (ML) Training und Scoring umfassen. Das Akronym DAPHNE bezieht sich auf den Titel "Integrierte Datenanalyse-Pipelines für groß angelegte Datenverwaltung, Hochleistungsrechnen und maschinelles Lernen".
The Europlanet 2024 Research Infrastructure (EPN-2024-RI) will provide the pan-EU infrastructure needed to address the major scientific and technological challenges facing modern planetary science and strengthen Europe’s position at the forefront of space exploration. EPN-2024-RI builds on the foundations of a series of highly successful EU-funded projects that have created the leading Virtual Observatory for planetary data and the largest, most diverse collection in the world today of field and laboratory facilities capable of simulating and analysing planetary environments. EPN-2024-RI will provide Transnational Access (TA) to an enhanced set of world-leading field and laboratory facilities, Virtual Access (VA) to state-oftheart data services and tools linked to the European Open Science Cloud (EOSC), and Networking Activities (NA) to widen the user base and draw in new partners from Under Represented States (URS), non-EU countries, industry and interdisciplinary fields, and to train the next generation of RI leaders and users. With 56 beneficiaries, from both industry and academic sectors, providing access to 31 TA facilities on 5 continents and 4 VA services linking over 100 data services and catalogues, EPN-2024-RI represents a step-change in ambition for planetary science worldwide. Innovations include the establishment of a ground based observation network to support space based missions, the launch of an interactive mapping service to provide virtual exploration of planetary surfaces, and the development of machine learning tools for data mining to fully exploit and analyse planetary data sets. EPN-2024-RI will establish global collaborations and an international userbase for the RI through inclusion of partners in Africa, Asia and South America. Ultimately, EPN-2024-RI will support the transition of this unique infrastructure to a sustainable future within the structure of the Europlanet Society
The EXPLORE project gathers experts from different science domains and technological expertises to develop new tools that will enable and promote the exploitation of space science data. The project will develop 6 AI and Visual Analytics powered Scientific Data Applications (SDAs) to explore the Universe, from the lunar surface, to stars and the Galaxy (G-Tomo, G-Arch, S-Phot, S-Disco, L-Explo, L-Hex). The consortium, led by SME ACRI-ST, consists of 8 partners from France (ACRI-ST, Observatoire de la Cote d'Azur), Austria (Know-Center), Germany (Jacobs University), United Kingdom (The University of Manchester, Dill Faulkes Educational Trust), Luxembourg (adwaisEO), and Israel (Tel Aviv University). This project has received funding from the European Union’s Horizon 2020 research and innovation programme under grant agreement No 101004214.
Rebo at Work stellt selbstverantwortliches Lernen als Kultur in der  Arbeitswelt in den Blickpunkt und ist eine Ergänzung bestehender ELearning Angebote. Der intelligente Chatbot unterstützt Lehrlinge beim  Lernen und Reflektieren über ihre Arbeit in Bezug auf ihre  Ausbildungsziele und motiviert sie zum aktiven Hilfeeinholen bei  Problemen. Der Chatbot diskutiert mit Lehrlingen eine Tätigkeit der  vergangenen Woche und stellt beispielsweise Fragen dazu, wie diese  Tätigkeit gelaufen ist, welchen Bezug diese zu Ausbildungszielen hat und  ob sich daraus Fragen oder Erkenntnisse für die Zukunft ergeben haben.  Dadurch üben Lehrlinge eine Schlüsselqualifikation, die sie zu  lebenslangem Lernen befähigt und den Grundstein für einen  erfolgreichen beruflichen Werdegang bildet.
The TRIPLE platform Based on the Isidore search engine developed by the French National Centre for Scientific Research (CNRS), the TRIPLE platform will provide a single access point for users (researchers, institutions such as universities and libraries, but also enterprises, consultancies, media and service providers) - to discover and reuse open scholarly SSH resources, i.e. research data and publications, which are currently scattered across local repositories; - to find and connect with other researchers and projects across disciplinary and language boundaries; - to make use of innovative tools to support research (e.g. visualisation, annotation, trust building system, crowdfunding, social network and recommender system); - to discover new ways of funding research (e.g. crowdfunding
Europe has a lack of intellectual property in integrating artificial intelligence (AI) into digital applications. This is critical since the automatization reached saturated levels and AI in digitisation is an accepted approach for the upcoming transformation of the European industry. The potential of AI in economy and society is by far not enough exploited. Potential users of AI are not sufficiently supported to facilitate the integration of AI into their applications. Enabling of performance, industry and humanity by AI for digitising industry is the key to push the AI revolution in Europe and step into the digital age. Existing services providing state of the art machine learning (ML) and artificial intelligence solutions are currently available in the cloud. In this project, we aim to transfer machine learning and AI from the cloud to the edge in manufacturing, mobility and robotics. To achieve these targets we connect factories, processes, and devices within digitised industry by utilizing ML and AI for human machine collaboration, change detection, and detection of abnormalities. Hence, we gain knowledge by using existing data and arrange them into a processable representation or collect new data. We use this knowledge to change the semantics and the logical layer with a distributed system intelligence for e.g. quality control, production optimization. In AI4DI, we define a 7-key-target-approach to evaluate the relevance of AI methods within digitised industry. Each key target represents a field of activity and the corresponding target at the same time, dividing systems into heterogenous and homogenous systems, and evolving a common AI method understanding for these systems as well as for human machine collaboration. Furthermore, we investigate, develop and apply AI tools for change detection and distributed system intelligence, and develop hardware and software modules as internet of things (IoT) devices for sensing, actuating, and connectivity processing.
ON-MERRIT is a 30 month project funded by the European Commission to investigate how and if open and responsible research practices could worsen existing inequalities. Our multidisciplinary team uses qualitative and computational methods in order to examine advantages and disadvantages in Open Science and Responsible Research & Innovation (RRI). ON-MERRIT aims at eventually suggesting a set of evidence-based recommendations for science policies, indicators and incentives, which could address and mitigate cumulative (dis)advantages, so called Matthew effects. The project acronym stands for Observing and Negating Matthew Effects in Responsible Research & Innovation Transition
Künstliche Intelligenz ist eine bahnbrechende Technologie unserer Zeit, deren erwartete Auswirkungen mit denen der Elektrizität oder des Druckens konkurrieren. Die Innovationen in diesem Bereich werden derzeit von riesigen Technologieunternehmen in Nordamerika und China dominiert. Um die Unabhängigkeit und Führung Europas zu sichern, müssen wir clever investieren, indem wir unsere KI-Ressourcen bündeln, verbinden und öffnen. AI4EU wird eine umfassende europäische KI-on-Demand-Plattform aufbauen, um die Innovationsbarrieren zu senken, den Technologietransfer zu fördern und das Wachstum von Start-ups und KMUs in allen Sektoren durch offene Aufrufe und begleitende Aktionen zu katalysieren. Die Plattform wird als Vermittler und zentrale Anlaufstelle fungieren, die Dienstleistungen, Fachwissen, Algorithmen, Software-Frameworks, Entwicklungswerkzeuge, Komponenten, Module, Daten, Rechenressourcen, Prototyping-Funktionen und Zugang zu Finanzmitteln anbieten und präsentieren. Begleitend wird eine Ausbildung angeboten, dies es verschiedenen Benutzergemeinschaften (Ingenieure, Bürgermeister usw.) ermöglichen soll, Fähigkeiten und Zertifizierungen zu erhalten. Die AI4EU-Plattform wird eine weltweite Referenz schaffen, die auf bestehenden KI- und Datenkomponenten (z.B. Open-Source-Framework Acumos, QWT-Suchmaschine, ...) und Plattformen aufbaut und mit diesen interoperabel ist. Sie wird das gesamte europäische KI-Ökosystem mobilisieren und vereint bereits 80 Partner in 21 Ländern, darunter Forscher, Innovatoren und verwandte Berufe. Acht industriegetriebene KI-Piloten werden den Wert der Plattform als Innovationsinstrument demonstrieren. Um die Plattform zu verbessern, wird die Forschung in fünf miteinander verbundenen wissenschaftlichen Schlüsselbereichen der KI unter Verwendung von Plattformtechnologien durchgeführt und die Ergebnisse werden umgesetzt. Die Pilotprojekte und Forschungsarbeiten werden zeigen, wie die AI4EU wissenschaftliche Entdeckungen und technologische Innovationen fördern kann. Eine Ethisches Expertengremium für AI4EU wird eingerichtet, um die Einhaltung der auf den Menschen ausgerichteten Werte der KI und der europäischen Vorschriften zu gewährleisten. Die Nachhaltigkeit wird durch die Gründung der AI4EU-Stiftung gewährleistet. Die Ergebnisse werden in eine neue und umfassende strategische Forschungsinnovationsagenda für Europa einfließen
The Horizon 2020 project TRUSTS – Trusted Secure Data Sharing Space aims to develop a data sharing platform for secure, trustworthy, and GDPR-compliant data exchanges. Based on the experience of two large national data market projects, TRUSTS will allow the integration and adoption of future platforms in different jurisdictions
Laufendes WKO Projekt mit dem Ausbildungsverbund ABV, in dem Lehrlinge, Ausbilder der ABV Betriebe, sowie Trainer der Lernwerkstatt digital über eine Lernplattform zusammenarbeiten werden. Das Projekt setzt sich zum Ziel, durch neue Lehr- und Lernmethoden den angehenden Facharbeiterinnen und Facharbeitern digitale Kompetenz zu vermitteln, um eine ausgezeichnete Gesamtausbildung zu gewährleisten. Ein spezieller Fokus des Projektes ist die Entwicklung von Rebo, dem Reflection Guidance Chatbot. Die Umsetzung basiert auf Contextual Design und Design Science Research.
WKO Projekt mit dem Ausbildungsverbund ABV, in dem Lehrlinge, Ausbilder der ABV Betriebe, sowie Trainer der Lernwerkstatt digital über eine Lernplattform zusammenarbeiten. Das Projekt setzt sich zum Ziel, durch neue Lehr- und Lernmethoden den angehenden Facharbeiterinnen und Facharbeitern digitale Kompetenz zu vermitteln, um eine ausgezeichnete Gesamtausbildung zu gewährleisten. Ein spezieller Fokus des Projektes ist die Entwicklung von Rebo, dem Reflection Guidance Chatbot. Die Umsetzung basiert auf Contextual Design und Design Science Research.
Integrated Development 4.0 führt die digitale Transformation einzelner Prozesse zu einer integrierten digitalen Wertschöpfungskette basierend auf dem Konzept des Digital Twin. Entwicklung, Planung und Fertigung profitieren vom Konzept des dieses digitalen Zwillings im Sinne hochdigitalisierter virtueller Prozesse über den gesamten Produktlebenszyklus. Durch die enge Verzahnung von Entwicklungsprozessen, Logistik und Produktion mit Industry-4.0-Technologien nimmt iDev40 einen disruptiven Schritt zur Beschleunigung der Markteinführung. Mit der Entwicklung und Umsetzung einer Digitalisierungsstrategie für die europäische Elektronikkomponenten- und Systemindustrie wird ein „Durchbruchswandel“ eingeleitet. Die Auseinandersetzung mit der europäischen Politik 2020+ zielt darauf ab, Lösungen für schwierige gesellschaftliche und organisatorische Herausforderungen anzubieten, wie etwa innovative Technologien, um die zunehmende Komplexität der Entwicklung und Herstellung von Electronic Components and Systems (ECS) „made in Europe“ in Bezug auf Digitalisierungsansätze und qualitativ hochwertiges Wissen zu bewältigen. Durch das Schaffen von qualifizierten Arbeitsplätzen werden spezifische Bereiche der Logistik, aber auch Produkte und Prozesse virtualisiert. Die Zusammenarbeit der wichtigsten europäischen ECS-Akteure im Bereich der Digitalisierung wird verstärkt. „Wissensarbeiter“ in der Fertigung sowie die Entwicklung und Bewertung globaler Wertschöpfungsketten werden durch intelligente Maschinen unterstützt. IDev40 deckt die gesamte Wertschöpfungskette ab und bietet nachhaltige, digitale und industrielle Lösungen für die integrierte Entwicklung und Produktion.
Safe-DEED (Safe Data-Enabled Economic Development) brings together partners from cryptography, data science, business innovation, and legal domain to focus on improving Security technologies, improving trust as well as on the diffusion of Privacy enhancing technologies. Furthermore, as many companies have no data valuation process in place, Safe-DEED provides a set of tools to facilitate the assessment of data value, thus incentivising data owners to make use of the scalable cryptographic protocols developed in Safe-DEED to create value for their companies and their clients
Understanding major global challenges as well as their underlying parameters is a vital issue in our modern world. Various examples, such as health care, the transition of green technologies or the evolution of the global climate up to hazards and stress tests for the financial sector demonstrate the complexity of the involved simulation systems. This high level of complexity becomes even more evident in the case of coupled systems: the problem statements and their corresponding parameters depend on each other, which results in very involved interconnected simulations. Although the process of bringing together the different aspects has already started within the Centre of Excellence for Global Systems Science (CoeGSS), the importance of assisted decision making by addressing global, multi-dimensional problems is more important than ever. To predict the impact of global decisions with their dependencies, we need an accurate problem representation and a systemic analysis. To achieve this, HiDALGO enables highly accurate simulations, data analytics and data visualisation, and also provides knowledge on how to integrate the various workflows as well as the corresponding data
Hyperwave ist ein führender Anbieter von Content-Management-Lösungen. Schwerpunkte sind Intranet-Lösungen für Wissens- und Dokumentenmanagement. Die Hyperwave-Lösungen ermöglichen es Unternehmen, schneller Entscheidungen zu treffen, die Entscheidungsprozesse nachvollziehbar zu gestalten und die Kommunikation zielgerichteter durchzuführen. Dieses Projekt setzt auf einer langjährigen Zusammenarbeit zwischen Hyperwave und dem Know-Center auf, in die wir unsere wissenschaftliche Expertise und unser Know-how in den Bereichen Suchtechnologie und Natural Language Processing (NLP) einbringen. 2018 wurde in diesem Forschungsprojekt ein besonderes Augenmerk auf diverse NLP-Schlüsselmerkmale wie etwa Indexierung (insbesondere unter dem Aspekt der Term-Erkennung), Suche (inklusive prototypischer implementierter Berücksichtigung von numerischen Werten und Datumsangaben), Query Completion (unter Zuhilfenahme des Textlayouts) und Textkonvertierung gelegt.
Hyperwave ist ein führender Anbieter von Content-Management-Lösungen. Schwerpunkte sind Intranet-Lösungen für Wissens- und Dokumentenmanagement. Die Hyperwave-Lösungen ermöglichen es Unternehmen, schneller Entscheidungen zu treffen, die Entscheidungsprozesse nachvollziehbar zu gestalten und die Kommunikation zielgerichteter durchzuführen. Gemeinsam mit Hyperwave wurden Konzepte für mobile iOS-basierte Applikationen entwickelt, die eine effiziente gemeinsame Online-Zusammenarbeit in spezifischen Fachdomänen (etwa im Sektor Banking) auf sichere Art und Weise ermöglichen. Dazu wurden Möglichkeiten zur effizienten und sicheren Online-Zusammenarbeit konzipiert, prototypisch implementiert sowie evaluiert. Dies beinhaltete unter anderem Funktionalitäten wie die Unterstützung von internen Abläufen und Prozessen, das effektive Durchsuchen und Filtern von Dokumentationsbeständen oder auch das unverzögerte Anzeigen multimedialer Inhalte unabhängig von der Datenmenge. 2018 wurde ein besonderer Fokus auf die Unterstützung von Prozessen und Workflows gelegt. Außerdem konnten die Projektergebnisse auch in Bezug auf Datensicherheit auf die gewünschte Stufe gehoben werden
Die Magna Steyr Fahrzeugtechnik AG & Co KG ist ein österreichischer Automobilhersteller mit Hauptsitz und zugleich größtem Produktionsstandort in Graz. Magna Steyr entwickelt und produziert Fahrzeuge im Auftrag anderer Hersteller und unterstützt dies durch die Entwicklung eigener innovativer Produktionsprozesse. Eine mehr als 100-jährige Erfahrung im Automobilbau und das umfassende Leistungsspektrum des Unternehmens machen Magna Steyr zum weltweit führenden, markenunabhängigen Engineering- und Fertigungspartner für Automobilhersteller. Als Auftragsfertiger hat das Unternehmen an seinem Standort in Graz bislang mehr als drei Millionen Fahrzeuge, aufgeteilt auf 23 Modelle, produziert. Projektinhalt war die Analyse vorhandener Daten, die Einfluss auf die Entwicklung des Working Capital haben können, und die Entwicklung von Methoden, die die Planbarkeit des Working Capital verbessern und im Falle nicht planbarer Entwicklungen die zufällige Natur eines Ereignisses darstellen. Im Projekt wurde mit der Erschließung der Daten und der Erprobung von Analyseverfahren von oben nach unten entlang des Aggregationsgrades der Daten vorgegangen: Zunächst wurden einfache, bekannte Muster in den aggregierten Konten des Working Capital berechnet, danach komplexere Muster in den darunter liegenden Kontobewegungen untersucht. Anhand der vorhandenen historischen Daten konnte bereits eine Evaluierung der Leistung der entwickelten Methoden erfolgen.
Die Magna Steyr Fahrzeugtechnik AG & Co KG ist ein österreichischer Automobilhersteller mit Hauptsitz und zugleich größtem Produktionsstandort in Graz. Magna Steyr entwickelt und produziert Fahrzeuge im Auftrag anderer Hersteller und unterstützt dies durch Entwicklung eigener innovativer Produktionsprozesse. Eine mehr als 100-jährige Erfahrung im Automobilbau und das umfassende Leistungsspektrum des Unternehmens machen Magna Steyr zum weltweit führenden, markenunabhängigen Engineering- und Fertigungspartner für Automobilhersteller. Als Auftragsfertiger hat das Unternehmen an seinem Standort in Graz bislang mehr als 3 Millionen Fahrzeuge, aufgeteilt auf 23 Modelle, produziert. Die Serienproduktion von Karosserien auf automatisierten Produktionsstraßen basiert unter anderem auf dem Transport von Baugruppen auf Gestellen, die sich von Station zu Station bewegen. Um eine hohe Qualität der Fertigungsschritte an den Stationen sicherzustellen, muss die Baugruppe funktionelle und optische Vorgaben erfüllen. Diese werden durch eine optische Messung in einem definierten Koordinatensystem, einem CAD-Nominal-Sollwert sowie Bauteil- und Prozesstoleranzen erfasst. Durch eine neue Inline-Messanlage können nun sämtliche Baugruppen während der Produktion vermessen werden. Ein Ausschleusen von Stichproben aus dem Produktionsprozess ist somit nicht mehr notwendig. Ein Abweichen von Toleranzwerten resultiert in teils komplexen Gegenmaßnahmen und Anpassungen in der Produktion. Durch die neue Inline-Messanlage stehen erstmals genügend Daten zur Verfügung, um Zusammenhänge zwischen Messmerkmalen, Messergebnissen, Gegenmaßnahmen und Toleranzentwicklungen zu prüfen und neue Kausalitäten aufzudecken.
In diesem Projekt soll der Logistik-Prozess eines Automobilzulieferers im Spannungsfeld zwischen mehreren beteiligten Abteilungen (Einkauf, Transport, Materialwirtschaft usw.) optimal gestaltet werden. Dabei haben die beteiligten Abteilungen ihre eigenen Optimierungsanforderungen, die sich teilweise widersprechen. So kann etwa der Transport für eine Lieferung die optimale Lieferfrequenz via LKW berechnen, während der Einkauf diejenigen Angebote günstiger bekommt, die dem Lieferanten bezüglich Fertigungs- und Lieferlosgröße genehm sind. Um eine globale Optimierung zu erreichen, ist es allerdings notwendig, dass sich die einzelnen Abteilungen nicht nur auf ihre lokalen Optima konzentrieren. Im Rahmen dieses Projekts wurde zur Unterstützung der Lösung von potentiellen Interessenskonflikten im Logistik-Prozess eine Webapplikation entwickelt. Diese erlaubt es, in einem Dashboard Parameter eines ausgewählten Artikels, wie Einkaufspreis, Lieferlosgröße oder spezifische Transportkosten, interaktiv zu konfigurieren und automatisiert relevante Kennzahlen zu errechnen. Zusätzlich gibt das Dashboard einen Überblick über resultierende Kosten und zeigt die Kostenersparnisse der aktuellen Parametereinstellung. Somit können Entscheidungsträger der einzelnen Abteilungen gemeinsam an Parametern drehen, Auswirkungen abschätzen und letztendlich eine global sinnvolle Lösung erarbeiten.
Die MILES Learning GmbH entwickelt Lernplattformen zur Herstellung, Veröffentlichung und Bereitstellung von Bildungsmaterialien, Unterrichts- und Bildungskursen. Das Know-Center unterstützt MILES einerseits mit Know-How im Umfeld Konzeption und Betrieb von höchst adaptiven Lernplattformen, insbesondere in den Themen Semantische Technologien mit Kompetenzmodellierung, Computerlinguistische Modelle sowie Learning Analytics. Außerdem wurden relevante Schwerpunkte konzeptuell und prototypisch vertieft. Als erster Schritt zur Messung von Lernfortschritten wurde ein Studiendesign erarbeitet, das untersucht, ob aus den Interaktionen einer Person mit der Plattform und einer Bewertung des Wissens über die Lerninhalte ein Zusammenhang hergeleitet werden kann. Darüber hinaus wurden für die Zielbenutzergruppen (Lernende, Tutoren etc.) relevante Datenvisualisierungen und handlungsrelevante Informationen konzeptuell ausgearbeitet. Weiters wurde bestehende Software zur Berichtserstellung an Kunden auf künftige Anforderungen hin beurteilt und an einem adaptiven Konzept für die Kompetenzmodellierung, das sowohl interne als auch externe Modelle integriert, gearbeitet.
Tailor Young aus Graz hat sich auf die Suche nach hochqualifizierten technischen Mitarbeitern spezialisiert. Basis des Erfolges ist der Einsatz von datenbasierenden Suchsystemen und Algorithmen. Die T.Y.P Consulting GmbH identifiziert potenzielle Kandidaten über deren Spuren im Internet. Ihr selbstentwickelter und selbstlernender Algorithmus ermöglicht, dass passende Kandidaten mit den gewünschten Parametern in extrem kurzer Zeit punktgenau gefunden werden können. Zusammen mit Taylor Young arbeitete das Know-Center an fortgeschrittenen Suchmethoden um zusätzliche Online-Datenquellen zu erschließen und auszuwerten. Abschlussarbeiten und andere relevante Informationen werden aus Online-Quellen erfasst und strukturiert aufbereitet. Aus dieser Datenbasis werden dann anfragebezogen automatisiert passende Datensätze ausgewählt, zusammengefasst und für eine Expertenvalidierung und Erstellung einer Liste geeigneter Kandidaten aufbereitet.
Unser Partner, die voestalpine Stahl Donawitz GmbH steht für eine Wertschöpfungskette, die konsequent auf die Erzeugung von Qualität ausgerichtet ist. Hohe Qualität im Vormaterial sichert eine hohe Qualität im Endprodukt. Im Produktionsprozess kann es zu Fehlern (z.B. Risse, Einschlüsse) im Vormaterial kommen. Die genaue örtliche Zuordnung der Fehlerquelle ist dabei nicht immer exakt möglich. Anhand von zahlreichen Sensoren sollen mithilfe von maschinellen Lernmethoden Modelle entwickelt werden, um Fehlerursachen zu identifizieren. In weiterer Folge soll erforscht werden, inwieweit diese Modelle adaptiert werden können, damit Fehler bereits im Zuge des Erzeugungsprozesses vorhergesagt und bestenfalls vermieden werden können. Zudem sollen Ausreißer im Erzeugungsprozess modelliert und mithilfe des Dashboards visualisiert werden.
Wenn es um die Produktionskapazität geht, stoßen gegenwärtige Produktionsstätten schon heute durch Anforderungen wie wachsende Produktvielfalt und kurzfristige Kundenwünsche an ihre Grenzen. Um mehr Flexibilität zu erreichen, werden Teilprozesse als autonome Inseln realisiert, deren räumliche Anordnung und Verkettung im Gesamtprozess dynamisch veränderbar ist. Aufgrund der sich ständig ändernden Fertigungsabfolgen und -lokalitäten ist ein Transport zwischen den Inseln schwer automatisierbar. FlexIFF führt Intralogistik-Task-Teams ein, die aus Menschen, mobilen Robotern und mobilen Manipulatoren bestehen. Diese cyber-physischen Systeme sind in der Lage, die zur Einhaltung des Produktionsplans notwendigen Transportschritte koordiniert abzuwickeln. Menschliche Teammitglieder interagieren und überblicken die Prozesse und werden von intelligenten Assistenzsystemen unterstützt. Dazu gehören etwa Entscheidungsunterstützungs-, Informationsfusions-, Informationsextraktions-, Planungs- und Kontrollsysteme, mit denen über Augmented-Reality- und Virtual-Reality- Benutzerschnittstellen interagiert wird. Mobile Roboter sind im industriellen Einsatz nach wie vor mit Einschränkungen behaftet, insbesondere in ihrer Pfadwahl, die bei dynamischen Veränderungen im Einsatzgebiet rasch zu signifikanten Verzögerungen führen kann. Auch bei mobilen Manipulatoren, die als Kombination eines mobilen Roboters mit einem Roboterarm ausgeführt sind, und flexible Objektmanipulationen durchführen können, treten zahlreiche teils ungelöste Herausforderungen bei häufigen Aufgabenänderungen auf. FlexIFF greift diese Schwierigkeiten auf und stellt Lösungswege in Aussicht, die einen sicheren, robusten und effizienten Einsatz von mobilen Robotersystemen in industrieller Umgebung gewährleisten. Eine anwenderorientierte Interaktion und Anpassbarkeit, eine sicherheitsgerichtete Selbst- und Außenwahrnehmung und eine kontextabhängige, kinematische Bewegungsplanung sämtlicher Robotersysteme und ihrer Komponenten wurden als nötige Bausteine dafür identifiziert. Von höchster Wichtigkeit ist der Schutz vor Cyberattacken von roboterbasierten Systemen, die als Schnittstelle zwischen physikalischer und digitaler Welt dienen und mit Menschen interagieren können. Cyber-Sicherheit ist daher integraler Bestandteil des Projekts und nimmt einen hohen Stellenwert ein.
Das Ziel des Projektes HeLi-D besteht in der Entwicklung eines Programms zur Förderung der Gesundheitskompetenz (Health Literacy) von SchülerInnen mit hoher Diversität, insbesondere in den Bereichen Erstsprache, sozioökonomischer Status und Behinderung berücksichtigt. Das Projekt HeLi-D ist für eine Laufzeit von drei Jahren geplant. In einem partizipativen Prozess wird ein adaptives digitales Trainingsprogramm (ADT) entwickelt und im Längsschnitt über rund fünf Wochen hinweg umgesetzt und evaluiert. Das Besondere am Trainingsprogramm sind die Differenziertheit der Inhalte (vier verschiedene sprachliche Komplexitätsstufen, in Teilen mehrsprachig) und der adaptive Charakter des Computerprogramms. So wird es möglich, dass alle SchülerInnen einer Klasse unabhängig von ihren individuellen Kompetenzen in einem inklusiven Setting an ein und demselben Thema arbeiten können. Das Projekt wird unter der Leitung von Barbara Gasteiger Klicpera vom Arbeitsbereich Integrationspädagogik und Heilpädagogische Psychologie an der Karl-Franzens-Universität gemeinsam mit dem Know-Center (TU Graz) und der Medizinischen Universität Graz (Research Center for Safety in Health und Institut für Allgemeinmedizin und evidenzbasierte Versorgungsforschung) durchgeführt und vom Gesundheitsfonds Steiermark gefördert. Das Know-Center übernimmt die Programmierung des ADT, die Medizinische Universität Graz steuert ihre medizinische Expertise bei. Die Universität Graz übernimmt unter anderem die Gestaltung der Trainingsmaterialien und die Durchführung und Evaluation der Intervention.
Die Presse, getrieben von ihrem starken Engagement für die Digitalisierung, unternimmt derzeit umfangreiche Anstrengungen, um ihre Fähigkeiten im Bereich der Datenanalyse zu verbessern. Neben dem Aufbau der technologischen Basis sind auch organisatorische Aspekte nicht zu vernachlässigen. Es ist unbedingt erforderlich, die richtigen Personen auszuwählen und in das richtige Umfeld einzubetten, um die reibungslose Beibehaltung der Unternehmensleistung sicherzustellen. Zu diesem Zweck hat das Know-Center Die Presse unterstützt, indem es eine Auswahl an theoretischen Ansätzen sowie Branchenbeispielen zur Strukturierung einer Data Unit präsentierte. Dies umfasste die Definition und Beschreibung von Rollen sowie deren Zusammenspiel von Aufgaben, Verantwortlichkeiten und Kompetenzen. Schließlich wurde eine Empfehlung abgegeben, die bereits konkrete, veröffentlichungsreife Stellenbeschreibungen enthält.
Im Rahmen ihrer Digitalisierungsaktivitäten hat sich die Die Presse dazu entschieden, entsprechende Maßnahmen im Abonnement-Bereich einzuleiten. Ziel war es, mit geeigneten Mitteln der Digitalisierung den Online-Lesermarkt durch datengetriebene Marketingmaßnahmen zu vergrößern. Dazu wurde ein Prozess zur Beschaffung geeigneter IT-Infrastruktur (Data Lake) gestartet. In diesem Data Lake sollten unterschiedlichste Daten zusammengeführt und mittels Predictive-Analytics-Modelle analysiert werden können. Der Beschaffungsprozess wurde durch das Know-Center entsprechend begleitet, damit Die Presse zu einer umfassenden und fachlich sowie technisch fundierten Entscheidung kommen konnte. Die Begleitung bestand in der Mitarbeit bei der Erstellung des Kriterien- und Bewertungskatalogs für die Auswahl geeigneter IT-Systeme, im Screening und in der Bewertung von Anbietern und Angeboten sowie in der Erstellung eines Whitepapers über den Nutzen von autonomen bzw. anwendungsunabhängigen Data Lakes.
Moshbit ist ein Start-up, das 2015 gegründet wurde. Mit der Studo App bietet es eine Lösung für Studierende, die ihnen beim täglichen Organisieren des Studiums hilft. Die Studo App kombiniert Services in einem Paket, erhöht damit die Übersicht und erleichtert die Organisation des Studiums. Die App ist bereits an mehr als 40 österreichischen Hochschulen verfügbar und hat mehr als 100.000 NutzerInnen. In einem nächsten Schritt wurde Studo Jobs entwickelt, um Studierenden und AbsolventInnen eine direkte Möglichkeit für den Einstieg ins Berufsleben zu bieten. Mithilfe des Know-Centers entwickelt Moshbit einen intelligenten Recommender Service, um den Studierenden passende Jobs zu empfehlen und die Suche zu erleichtern. Als Basis wurde hier das skalierbare Recommender Framework ScaR verwendet. Als Datenquelle dienten die Jobbeschreibungen und anonymisierten Nutzungsdaten, mit dem Ziel, maßgeschneiderte personalisierte Empfehlungen zu generieren. Eines der Forschungsziele des Projekts war es, die Empfehlungen mittels State of the Art Deep-Learning-Methoden zu generieren. Die gute Zusammenarbeit zeigt sich durch zwei bereits veröffentlichte wissenschaftliche Publikationen (i-KNOW 2017 und WSDM 2018). Der erste Prototyp des Recommenders wurde bereits erfolgreich in die Studo-Jobs-Plattform integriert und generiert täglich Empfehlungen für deren NutzerInnen. Ziel ist es, dass jeder in Österreich Studierende mithilfe unterschiedlicher Algorithmen eine maßgeschneiderte Empfehlung erhält.
Die Magna Steyr Fahrzeugtechnik AG & Co KG ist ein österreichischer Automobilhersteller mit Hauptsitz und zugleich größtem Produktionsstandort in Graz. Magna Steyr entwickelt und produziert Fahrzeuge im Auftrag anderer Hersteller und unterstützt dies durch die Entwicklung eigener innovativer Produktionsprozesse. Eine mehr als 100-jährige Erfahrung im Automobilbau und das umfassende Leistungsspektrum des Unternehmens machen Magna Steyr zum weltweit führenden, markenunabhängigen Engineering- und Fertigungspartner für Automobilhersteller. Als Auftragsfertiger hat das Unternehmen an seinem Standort in Graz bislang mehr als drei Millionen Fahrzeuge, aufgeteilt auf 23 Modelle, produziert. Projektinhalt war die Analyse vorhandener Daten, die Einfluss auf die Entwicklung des Working Capital haben können, und die Entwicklung von Methoden, die die Planbarkeit des Working Capital verbessern und im Falle nicht planbarer Entwicklungen die zufällige Natur eines Ereignisses darstellen. Im Projekt wurde mit der Erschließung der Daten und der Erprobung von Analyseverfahren von oben nach unten entlang des Aggregationsgrades der Daten vorgegangen: Zunächst wurden einfache, bekannte Muster in den aggregierten Konten des Working Capital berechnet, danach komplexere Muster in den darunter liegenden Kontobewegungen untersucht. Anhand der vorhandenen historischen Daten konnte bereits eine Evaluierung der Leistung der entwickelten Methoden erfolgen.
Die MILES Learning GmbH entwickelt Lernplattformen zur Herstellung, Veröffentlichung und Bereitstellung von Bildungsmaterialien, Unterrichts- und Bildungskursen. Das Know-Center unterstützt MILES einerseits mit Know-How im Umfeld Konzeption und Betrieb von höchst adaptiven Lernplattformen, insbesondere in den Themen Semantische Technologien mit Kompetenzmodellierung, Computerlinguistische Modelle sowie Learning Analytics. Außerdem wurden relevante Schwerpunkte konzeptuell und prototypisch vertieft. Als erster Schritt zur Messung von Lernfortschritten wurde ein Studiendesign erarbeitet, das untersucht, ob aus den Interaktionen einer Person mit der Plattform und einer Bewertung des Wissens über die Lerninhalte ein Zusammenhang hergeleitet werden kann. Darüber hinaus wurden für die Zielbenutzergruppen (Lernende, Tutoren etc.) relevante Datenvisualisierungen und handlungsrelevante Informationen konzeptuell ausgearbeitet. Weiters wurde bestehende Software zur Berichtserstellung an Kunden auf künftige Anforderungen hin beurteilt und an einem adaptiven Konzept für die Kompetenzmodellierung, das sowohl interne als auch externe Modelle integriert, gearbeitet.
Die Acredia Versicherungsgesellschaft, die gegen Zahlungsausfälle versichert, möchte im Rahmen dieses Projekts ihre bisherigen Methoden zur Risikobewertung von Unternehmen und zur Beobachtung von Industriesektoren um Informationen aus Nachrichtenquellen aus dem Internet erweitern. Dadurch sollen frühzeitig potenzielle Probleme einzelner Unternehmen und Veränderungen in den Industriesektoren erkannt werden. Um Versicherungsexperten bei der Nachrichtenrecherche zu unterstützen, haben wir das „NewsDesk“ System entwickelt. Damit durchforsten wir täglich diverse Internetquellen nach neuen Nachrichten und reichern diese mit aus dem Text extrahierten Metadaten, wie mit Angaben zum Unternehmen, zu Personen und zu Orte an. Zusätzlich wird die Tonalität (positiv, neutral, negativ) jeder Nachricht bestimmt. Anhand verschiedener Kriterien werden die Nachrichten vordefinierten Industriesektoren zugeordnet und den für die entsprechenden Industriesektoren zuständigen Experten zur Verfügung gestellt. Da pro Tag potenziell tausende neue Nachrichten in das System eingespeist werden, bietet der NewsDesk neben der Standard-Listendarstellung für Nachrichten eine Reihe von Werkzeugen zur Unterstützung der Nachrichtenrecherche und -analyse an. Dazu gehören etwa eine (facettierte) Volltextsuche, diverse Filtermöglichkeiten, Visualisierungen sowie fortgeschrittene Methoden zur Erforschung und Sortierung der Nachrichtenliste. Weil die Beobachtung von Entitäten wie Unternehmen und Personen eine zentrale Rolle bei der Nachrichtenrecherche spielt, erkennt sie das System automatisch in den Nachrichtentexten. Darauf basierend bietet NewsDesk eine Überblicksdarstellung der Nennungshäufigkeit und Tonalität diverser Entitäten sowie eine Trendvisualisierung, welche die zeitliche Nennungs- und Tonalitätsentwicklung dieser Entitäten veranschaulicht.
Ein starker Fokus der Gebäudetechnik auf Energieeffizienz und eine unzureichende Erfassung von Raumbedingungen führen zu nicht befriedigenden Raumkomfortbedingungen für Menschen in vielen modernen Gebäuden. COMFORT zielt darauf ab, die wahrgenommene Behaglichkeit in Räumen zu maximieren, indem die Raumzustände unter Berücksichtigung des menschlichen Komforts, der Energie- und Betriebseffizienz gleichermaßen überwacht werden. Das Projekt forscht an einem genaueren Verständnis der wahrgenommenen Behaglichkeiten und Luftqualitäten in Räumen mit Verfahren, die neu in der Gebäude- und Betriebstechnik sind. Dafür wird ein multi-modaler Datenkorpus erstellt, der sich aus vorhandenen und neuen Messdaten, Bewertungen, Simulationen und Regelungsdaten zusammensetzt. Dieser Korpus ist dann die Grundlage für gekoppelte Simulationen und mit maschinellen Lernverfahren unterstützte Datenanalysen. So können neue Modelle für die Beurteilung und die Vorhersage des Raumkomforts erstellt werden. Die Partner des COMFORT-Projektes bringen ihre jeweilige Expertise ein, um die dafür nötigen Forschungsfelder wie Sensor- und Datenerfassung, Big-Data-Technologien für die Datenerfassung und -speicherung, Vorverarbeitung und Analyse, Modelle und Simulation, virtuelle Sensoren und den Datenaustausch mit dem Building Information Modelling (BIM) abzudecken. Die Ergebnisse dieser Felder sind Bausteine, um den von Menschen empfundenen Komfort und die Erfahrungen der Gebäudebetreiber in modernen Gebäuden zu verstehen und vorherzusagen.
Der Data Market Austria (DMA) ist ein national gefördertes Projekt mit Leuchtturmcharakter zur Schaffung eines digitalen Ökosystems, also einer Plattform für den Handel mit Daten sowie für Services für diese Daten. In seiner endgültigen Ausbaustufe soll ein zentrales Drehkreuz für alle Akteure entstehen, an dem die österreichische Datenwirtschaft teilnehmen kann. Da die datengesteuerte Wirtschaft ein komplexes Umfeld ist, sieht der DMA unterschiedliche, aber gleichberechtigte Rollen vor: Datenanbieter, Dienstleister, Beratungsdienstleister und Infrastrukturanbieter. Egal, ob es um Datensätze, Dienst-, Beratungsleistungen oder Infrastrukturprodukte geht – all das kann auf dem DMA angeboten und gehandelt werden. Diese Produkte sind somit Bausteine, um eine Datenwertschöpfungskette zu schaffen, die Algorithmen und Daten auf einer spezifischen Infrastruktur kombiniert und so den Endbenutzern neue Services bietet. Das Know-Center wird im Rahmen des Projektes eine zentrale technische Komponente des DMA entwickeln, die den Vermittler- und Empfehlungsdienst zwischen den Rollen und Produkten darstellt.
Beim österreichischen Kompetenzzentrum für Tribologie (AC2T research GmbH) werden im Zuge der täglichen Forschungstätigkeiten große Mengen an Daten aus Experimenten, Analysen und Computersimulationen generiert, die in Form von Rohdaten (Zeitreihen, Spektren, Bildern, etc.) digital erfasst und gespeichert werden. Darauf aufbauend wurde und wird eine Vielzahl von Erkenntnissen in Form von Berichten, Präsentationen und Journalbeiträgen zusammengefasst und in den Kontext der wissenschaftlichen Forschung im Bereich der Tribologie gestellt. Gemeinsam mit dem Know-Center wird ein Framework für die semantische Suche in tribologierelevanten Dokument- und Datensammlungen implementiert, das neue Blickwinkel auf die Wissens- und Datenbasis bei AC²T eröffnen und neue Wege zum wissenschaftlichen Erkenntnisgewinn ermöglichen soll.
Concept Data Systems (CDS) designt und entwickelt kundenspezifische wissensintensive Software-Lösungen in Bereichen wie der Gartenbau-Produktion und Handel oder dem Veranstaltungsmanagement. 2018 konzentrierte sich das Projekt auf das in die MediaWiki-Dokumentationsumgebung eingebundene Recommendersystem sowie auf dessen Datengrundlagen und die Erweiterung der Such- und Strukturierungsmöglichkeiten im Wiki. Darüber hinaus wurde ein Upgrade der benötigten Services im Backend wie auch in der graphischen Oberfläche der Suchumgebung durchgeführt, um diese entsprechend den Ergebnissen aus dem Ideenfindungs-Workshop Anfang des Jahres für die Unterstützung weiterer Tools in der CDS-Systemlandschaft einzusetzen und zu evaluieren.
Das Know-Center und die has·to·be GmbH forschen gemeinsam an der Nutzung von Daten, die bei Ladevorgängen anfallen. Die dabei erzielten Insights liefern einen wertvollen Beitrag für neue Funktionen und Services der E-Mobility-Lösungen von has·to·be GmbH. Beim Betrieb von Ladestationen fallen naturgemäß große Datenmengen an. Gemeinsam mit dem Know-Center arbeitete die has·to·be gmbh, Europas führender Gesamtlösungsanbieter für E-Mobility, an der bestmöglichen Nutzung dieser Daten. Dabei wurde eine Vielzahl an Daten, die beim Aufbau, im Betrieb (täglich mehr als 3.500 Ladevorgänge) und bei der Wartung von Ladestationen anfallen, mit modernsten Datenanalyse- und Visualisierungsmethoden untersucht und für die Lösung bestimmter definierter Problemstellungen aufbereitet. Ein Ziel des gemeinsamen Forschungsprojektes war, auf Basis der historischen Verbrauchsdaten, eine Vorschau (Forecast) auf künftige Verbräuche zu ermitteln. Dies ermöglicht eine kostenoptimierte Energiebereitstellung für Betreiber von Ladestationen. Weiters wurden die Daten hinsichtlich „Predictive Maintenance“ untersucht. Das Ziel war einerseits, eine bessere Fehleridentifikation zu erreichen und andererseits die Verfügbarkeits-Optimierung der Ladestationen. Darüber hinaus wurden die bereitgestellten Daten hinsichtlich Ermittlung und Validierung von relevanten Einflussfaktoren der Standortqualität von Ladestationen untersucht. Diese Ergebnisse dienen als Basis für die Standortoptimierung beim zukünftigen Ausbau der Ladeinfrastruktur. Neben den Anwendungsfällen für die datenbasierte Unterstützung von Ladestationsbetreibern wurden auch Nutzungspotenziale für den Endnutzer (E-Auto-Besitzer) untersucht. Dabei wurden Vorhersageinformationen hinsichtlich Verfügbarkeit von Ladestationen ermittelt, um die Reise- und Routenplanung zu verbessern. Andererseits wurden Lösungsvarianten zur frühzeitigen Erkennung von Betrugsversuchen mit RFID-Ladekarten ermittelt. Die im Zuge des Projekts gewonnenen Erkenntnisse und Resultate wurden entweder umgehend für die Verbesserung der E-Mobility-Lösungen von has·to·be herangezogen oder werden als Basis für neue Funktionen und Services genutzt. Die Ergebnisse der gemeinsamen Forschungstätigkeit wurden auf dem BITKOM Big Data Summit 2018 in Hanau und im Zuge einer wissenschaftlichen Publikation auf der ISPIM (International Society for Professional Innovation Management) Konferenz 2018 in Stockholm präsentiert.
Die Hanseatische Gesellschaft für Verlagsservice mbH (HGV) ist der innovative Service- und Lösungspartner für Verlage und ein Tochterunternehmen der Verlagsgruppe Georg von Holtzbrinck. Gemeinsam mit HGV entwickelte das Know-Center Tag-Recommendation-Algorithmen für die semi-automatische Annotierung von E-Books. Ein Problem, das bei der Annotierung von digitalen Büchern derzeit auftritt, ist, dass die Keywords, die von Editoren vergeben werden, sehr stark von den Suchbegriffen, mit denen beispielsweise beim Online-Händler Amazon gesucht wird, abweichen. Um diesem Effekt entgegenzuwirken, hat das Know-Center im Zuge dieses Projekts beide Welten vereint und Algorithmen entwickelt, die mit hybriden Recommendation-Algorithmen sowohl Editor-Keywords als auch Suchbegriffe von Amazon kombinieren. Diese Algorithmen verwenden nicht nur die Popularität der Keywords, sondern mithilfe von TDF-IDF-basierten Ähnlichkeitsmaßen auch den Titel und den Beschreibungstext. Das Know-Center plant nun, die entwickelten Algorithmen zu evaluieren und die Projektergebnisse zusammen mit HGV zu publizieren.
Die KNAPP Systemintegration GmbH hat sich auf ganzheitliche Logistiklösungen im komplexen und hochautomatisierten Lagerbereich spezialisiert. Die Kernkompetenzen des Unternehmens liegen in der Entwicklung von logistischen Gesamtkonzepten sowie deren Umsetzung als Systemintegrator bzw. Generalunternehmer. Ziel des Projektes war es, ein bestehendes Dashboard um eine hoch performante und konfigurierbare Tabellenkomponente mit Pivotisierungsfunktionalität zu erweitern. Demgemäß wurde zuerst eine Evaluierung von bestehenden Bibliotheken, die solche Tabellenkomponenten anbieten, durchgeführt. Die Bibliotheken wurden anhand einer Vielzahl an vordefinierten Kriterien analysiert. Die flüssige Darstellung von Daten, aber auch die Navigation und Bedienung der resultierenden Tabellenkomponente mussten auch bei großen Datenmengen in allen aktuellen Webbrowsern gewährleistet werden. Die entwickelte und integrierte Tabellenkomponente verwendete schlussendlich jene Bibliothek, die die Anforderungen in der Evaluierung am besten erfüllt hat.
Das Ziel des Horizon-2020-MOVING-Projekts ist die Entwicklung einer Trainings- und Lernplattform, die BenutzerInnen aus allen sozialen Bereichen dabei unterstützen soll, ihre Informationskompetenz zu verbessern und damit zu datenversierten Informationsexperten zu werden. Dafür lernen sie, wie man Datenauswertungen für tägliche Forschungsaufgaben verwendet, auswählt, darüber reflektiert und sie evaluiert. Die MOVING-Plattform verbindet dabei zwei wesentliche Aspekte: auf der einen Seite ist die Plattform eine integrierte Arbeitsumgebung, mit der man große Datenmengen suchen, analysieren und erkunden kann. Auf der anderen Seite ist sie eine Trainingsumgebung, in der man lernen kann wie man auf richtige Art und Weise mit Informationen umgeht. Das Know-Center entwickelt für diese Plattform anspruchsvolle, aber zugleich leicht zu verwendende Visualisierungen sowie ein Widget, das automatische Lernunterstützung anbietet. Mit der Concept Graph Visualisierung und der uRank Visualisierung bietet das Know-Center neue Navigationsmöglichkeiten durch große Datenmengen an, um damit schneller zu den Informationen zu gelangen, die man gesucht hat. Der Concept Graph stellt gefundene Dokumente und deren Eigenschaften als Knoten in einem Graphen dar und bietet dabei die Möglichkeit, die Beziehungen zwischen den Dokumenten und deren Eigenschaften zu erkunden. Die uRank Visualisierung unterstützt das Browsen und Umsortieren der gefundenen Ergebnisse durch das Auswählen und Gewichten der Schlüsselwörter, die aus den gefundenen Dokumenten automatisch extrahiert worden sind. Darüber hinaus hat das Know-Center ein Widget entwickelt, das automatische Lernunterstützung für ein Informationskompetenz-Curriculum bietet. Die Lernunterstützung zielt darauf ab, den Kompetenzlevel der Lernenden in Bezug auf das Curriculum durch Mikro-Lerneinheiten zu erhöhen. Zusätzlich wird mit Hilfe von reflektiven Fragen das Lernen verstärkt und vertieft. Außerdem spiegelt das Widget das Suchverhalten und die verwendeten Suchfunktionalitäten der Lernenden wieder und motiviert diese über ihr Lernverhalten mithilfe von reflektiven Fragen nachzudenken.
Elektronische Komponenten und Systeme sind Treiber für Wirtschaftswachstum in Europa. Durch sie werden nicht nur neue Arbeitsplätze geschaffen und bestehende gesichert, vielmehr ermöglichen Innovationen im Bereich elektronischer Komponenten europäischen Firmen, nachhaltig zu wachsen. Das SemI40 Projekt begegnet diesen Herausforderungen. 37 Partner aus fünf europäischen Ländern untersuchen Applikationen rund um Smart Manufacturing und Industrie 4.0, die durch den Einsatz von modernsten Kommunikationstechnologien und Big-Data-Methoden möglich werden. Das Ziel liegt darin, die Wettbewerbsfähigkeit der Produktion von Halbleitern „made in Europe“ langfristig abzusichern. Eine der größten Herausforderungen in SemI40 liegt darin, Sicherheitsstandards für vernetzte Produktionsstandorte zu schaffen, ohne dabei die Flexibilität in der Planung und Konfiguration von Produktionslinien zu verlieren. SemI40 wird daher cyber-physische Systeme einsetzen, um einen sicheren und authentischen Datenverkehr innerhalb der Produktion, aber auch in der Lieferkette zu ermöglichen und Schadsoftware und andere sicherheitskritische Risiken schnell zu identifizieren. Ein weiterer Schwerpunkt in SemI40 ist die Entwicklung von dynamischen Simulationsmodellen für die Optimierung von Produktionsflüssen. Nur so kann im Umfeld sich ständig ändernder Kundenanforderungen dynamisch mit optimierter Kapazitätsnutzung und Produktion reagiert werden, um Produktions- und Stehzeiten zu minimieren. Die „lernende Fabrik“ ist ebenfalls ein Schwerpunkt. Mittels Lernmodellen und Algorithmen sollen widerkehrende Entscheidungen automatisiert werden. Die Qualität der Entscheidungen darf dabei keine negativen Auswirkungen auf die Produktqualität haben. Eine Steigerung der Produktionseffizienz und der Durchlaufzeiten sowie eine optimierte Nutzung der Ressourcen gehen damit einher. Begleitend zu den technischen Inhalten werden die Auswirkungen von Industrie 4.0 – im Kontext von SemI40 – auf die Arbeitswelt und deren soziale Verträglichkeit untersucht und bewertet. Bedingt durch den Produktionsfokus und die Partnerstruktur hat das Projekt positive Auswirkungen auf High-Tech-Arbeitsplätze in den beteiligten Regionen in Österreich, Frankreich, Deutschland, Italien und Portugal.
Die MANZ’sche Verlags- und Universitätsbuchhandlung mit Sitz in Wien ist Österreichs Marktführer für Rechtsinformation und bietet ein umfassendes Angebot an Informationsdienstleistungen für Rechts- und Steuerberufe. Ein Großteil der Printprodukte steht über das System RDB Rechtsdatenbank auch in digitaler Form zur Verfügung. Die Digitalisierungsstrategie des Unternehmens sieht einen Ausbau der Online-Angebote für die nahe Zukunft vor. Im Rahmen gemeinsamer Workshops konnten MANZ und das Know-Center die Zuordnung rechtlicher Inhalte zu Kategorien als Fokusthema identifizieren. Das Know-Center leistete daraufhin Beiträge im Bereich der maschinellen Klassifikation juristischer Dokumente. Ein erster Demonstrator zeigte die Funktion für jene Elemente, die aus dem Rechtsinformationssystem des Bundes (RIS) stammen. Diese Dokumente waren durch den Index des Bundesrechts bereits einer existierenden Taxonomie zugeordnet. Durch die Verwendung dieser Zuordnung als Trainingsdatensatz entfiel die sonst notwendige und meist durch Domänenexperten durchgeführte manuelle Annotation. Eine initiale Datenanalyse des Datensatzes bestehend aus rund 2,7 Millionen Dokumenten zeigte Unterschiede der Dokumenttypen auf. Obwohl sich Dokumente vom Typ Norm oder Entscheidung sowohl im strukturellen als auch, oder insbesondere, im sprachlichen Aufbau unterscheiden, konnten diskriminante Merkmale sowie Methoden identifiziert werden, die eine Klassifikation beider Dokumenttypen mit guter Treffergüte zuließen. Die Integration der entwickelten Technologie in die bestehenden Softwarelösungen wurde von MANZ selbst durchgeführt. Das Know-Center unterstützte diesen Prozess durch Wissenstransfer und Codebeispiele.
Die Tourismusregion Schladming verfolgt mit dem Projekt „Big Data Lech-Zürs-Schladming“ das Ziel, Gästedaten anonymisiert auf Regionsebene zusammenzufassen, um erfolgreiche und fundierte Strategien für die touristische Zukunft der Region zu generieren. Mit über hundert kostenlosen Urlaubserlebnissen und Bonusleistungen zählt die Schladming-Dachstein-Sommercard zu den größten Inklusivkarten im Alpenraum. Bei mehr als einer Nächtigung in einem zugehörigen Betrieb während der Sommersaison erhalten Kunden zusätzlich die Sommercard ohne Aufpreis und damit Zugriff auf damit verbundene Angebote. Mit der Sommercard als Datendrehscheibe wurden sowohl das Verhalten von Kunden in der Vergangenheit analysiert als auch geeignete Kundenprofile auf derselben Datenbasis im Einklang mit der vorherrschenden Rechtslage, insbesondere der DSGVO, erstellt. Darauf aufbauend können globale Empfehlungen abgegeben und auf Basis von Businesslogik Besucherströme geleitet werden.
Reval ist einer der weltweit führenden Anbieter cloudbasierter Treasurysoftware.Um seine Position als Innovations- und Technologieführer zu festigen, investiert Reval laufend in Forschung und Entwicklung. „Global Target Architecture 2020“ ist ein Entwicklungsprojekt, das Reval in Kooperation mit dem Know-Center durchführt. Das durch die FFG geförderte Projekt ist im August 2016 gestartet und umfasst einen Zeitraum von 54 Monaten. Durch Zusammenarbeit mit dem Know-Center erfolgt ein Wissenstransfer bei Themen wie Big Data, Database und Architecture Design, Messaging System und System Trust.
Emma - die flexible Lebensassistenz ist eine Lösung der e-nnovation und bietet Unterstützung bei der Organisation von Betreuung und Pflege. Emma gliedert sich in die Bereiche EmmaHome und EmmaHelp. Emma bietet Hilfestellung in verschiedenen Lebensbereichen älterer Menschen, um deren Selbständigkeit in den eigenen vier Wänden zu erhalten. Gleichzeitig werden Angehörige entlastet und gewinnen mehr Zeit für Familie und Beruf. Mit e-nnovation bündeln wir Know-How und Kernkompetenzen zur Entwicklung und Vermarktung digitaler Lösungen (inklusive Konzeptionierung, agile Softwareentwicklung, Betrieb, datengetriebene Geschäftsmodelle), fortgeschrittene Datenanalysen sowie Forschungs- und Entwicklungsergebnisse insbesondere im Bereich Active Assisted Living. Im Zentrum unserer Entwicklungen stehen die Menschen. Gesundheit, Pflege, Work-Life-Balance, Komfort - wir engagieren uns in vielen Bereichen, um das Leben der Menschen durch digitale Lösungen zu verbessern. 2018 setzt das Know-Center mit der Beteiligung an einem weiteren Spin-Off – Comet Partner exthex und Know-Center gründen gemeinsam die e-nnovation better life solutions - konsequent seinen Weg als Österreichs führendes Kompetenzzentrum für Big Data und Data-driven Business mit starker Brückenbaufunktion hin zur Wirtschaft fort.
Dieses Projekt befasst sich mit der Entwicklung eines Prototyps für die Signalsuche und dessen Evaluierung auf Sensordaten, die über einen längeren Zeitraum von verschiedenen Sensoren erfasst wurden (etwa in der Produktion, auf Prüfständen und in Maschinen). Entwickelte Technologien befassen sich mit dem Problem, Signalmuster zu finden, die einem benutzerdefinierten Abfragemuster entsprechen oder diesem ähnlich sind, um diese dann entsprechend ihrer Ähnlichkeit zum Abfragemuster zu sortieren. Die resultierende Server-Client Systemarchitektur besteht aus drei Hauptkomponenten: 1.) Aus dem Indexer, der Signaldaten verarbeitet und die transformierten Informationen in einen Suchindex ablegt. 2.) Aus der Suchmaschine, die bei gegebenem Abfragemuster ähnliche Muster findet und diese rankt. 3.) Aus einer visuellen Benutzeroberfläche, mit der Abfragen getriggert und Suchergebnisse erforscht werden können. Die Herausforderung, in den mit Rauschen oder mit Ausreißern belegten Signalen zu suchen sowie Muster zu finden, die entlang der Amplitude und der Zeitachse skaliert und verschoben worden sind, wurde mit geeigneten Signaltransformationstechniken gelöst. Der innovativste Aspekt des Systems ist die Methode für das Ranking der Suchergebnisse, das in zwei Stufen durchgeführt wird: 1.) Schnelle, approximative, auf Datenkompression basierende Technik, die auf alle Treffer angewendet wird. 2.) Langsamere, aber genauere und auf Korrelationskoeffizienten basierende Methode, die auf top Ergebnisse der vorherigen Stufe angewendet wird. Der Prototyp befindet sich derzeit in der Evaluierungsphase beim Projektpartner.
BearingPoint ist ein unabhängiges Management- und Technologieberatungs-Unternehmen mit europäischen Wurzeln und globaler Reichweite. Das Unternehmen agiert in drei Bereichen: Consulting, Solutions und Ventures. Consulting umfasst das klassische Beratungsgeschäft, Solutions fokussiert auf eigene technische Lösungen in den Bereichen Digital Transformation, Regulatory Technology sowie Advanced Analytics. Ventures schließlich treibt die Finanzierung und Entwicklung von Start-ups voran. Gemeinsam mit BearingPoint arbeitet das Know-Center an fortgeschrittenen Konzepten, um die Ablage und die spätere Wiederverwendung von Wissen insbesondere innerhalb der Consulting-Domäne zu unterstützen. Ziel dieses Projekts war es, Effizienz und Zufriedenheit der MitarbeiterInnen bei der Nutzung der unternehmensinternen Suchwerkzeuge zu verbessern. Zu den Herausforderungen zählten die automatische Klassifizierung von Dokumenten anhand bestehender Unternehmenstaxonomien, die Integration neuer KI-Lösungen (unter anderem Text Analytics und Natural-Language-Processing-Methoden) in bestehende Systeme sowie deren Wirkungsanalyse. Die erstellten Prototypen wurden in Microsoft Azure und Cognitive Services integriert. Die Evaluierung zeigte deutlich verbesserte Klassifizierungsergebnisse sowie gesteigerte Benutzerzufriedenheit durch die Kombination von Chatbots mit der automatisierten Dokumentenklassifizierung auf.
Seit 1994 unterstützt die GH-Informatik GmbH ihre Kunden beim Monitoring von kritischen Prozessen und Infrastruktur. Mit WOTAN bietet die GH-Informatik GmbH eine Lösung zum IT-Prozess-, Infrastruktur-, ERP-, aber auch Umwelt- und Applikations-Monitoring in verschiedensten Anwendungsgebieten. WOTAN Monitoring bietet viele Schnittstellen zu bestehenden Systemen und auch Vorlagen für die Überwachung von weit verbreiteten Prozessen. Die WOTAN KPI Dashboards visualisieren die Ergebnisse in übersichtlichen Interfaces und bieten einen aktuellen Überblick über die erfassten IT-Prozesse. Ist ein Prozess mit seinen Parametern in WOTAN modelliert, so können Abweichungen und Ausreißer erkannt, gemeldet und dann vom Betreiber geprüft werden. Aktuell arbeitet die GH-Informatik daran, WOTAN um moderne Überwachungsmethoden, basierend auf maschinellen Lernverfahren, zu ergänzen. Gemeinsam mit dem Know-Center werden intelligente, adaptive Verfahren des maschinellen Lernens und der Ausreißer-Erkennung untersucht, um festzustellen, inwiefern diese Verfahren helfen können, WOTAN Monitoring zu verbessern. Das Ziel ist es, den derzeitigen Funktionsumfang von WOTAN durch adaptive Verfahren optimal zu ergänzen und damit neue Potenziale und Anwendungsgebiete zu erschließen.
Ziel des AFEL (Analytics for Everyday Learning) Projekts ist die Entwicklung von Methoden und Werkzeugen zur Erfassung von informellen und kollektiven Lernaktivitäten, die implizit bei Onlineaktivitäten auftreten. Während Learning Analytics und Educational Data Mining traditionell auf Daten von formalen Lernumgebungen angewiesen sind, haben Studien gezeigt, dass Lernaktivitäten zu einem großen Teil online auf verschiedensten Plattformen passieren. Konkret sind die Ziele dieses Konsortiums, die notwendigen Werkzeuge zur Erfassung von Online-Lernaktivitäten zu entwickeln und auf Visual Analytics basierende Methoden zur Analyse von informellem Lernen und kognitiven Lernmodellen zu entwickeln. Außerdem geht es darum, das Verständnis des informellen Lernens zu verbessern und einen Weg aufzuzeigen, wie das besser unterstützt werden könnte. Im letzten Jahr des AFEL-Projekts, hat sich das AFEL-Konsortium auf die finalen Implementationen der AFEL-Tools, die Integration der Tools in die AFEL-Learning-App und die DIDACTALIA-Plattform (AFEL’s Testumgebung) sowie auf die Durchführung der entsprechenden Evaluierungen fokussiert. Der Beitrag des Know-Centers konzentrierte sich neben der Disseminierung des AFEL-Projekts auf die Entwicklung der beiden Tools AFEL Visualizer und AFEL Learning Resource Recommender. Der AFEL Visualizer baut auf einem intelligenten Visualisierungsgenerator auf, der automatisch sinnvolle Visualisierungen erzeugen kann. Die Ziele in Bezug auf die visuellen Datenanalysetools sind: 1.) Die Darstellung und Analyse von Prozessen, die während des täglichen Lernens auftreten. 2.) Den Lernfortschritt bezogen auf alltäglichen Aktivitäten, die zum Lernen führen, nachvollziehen zu können. Das Ziel des AFEL Recommenders ist es, die AFEL-Benutzer dahingehend zu unterstützen, neue Informationen und Ressourcen zu entdecken, die Benutzern entweder noch nicht gesehen hat oder von denen der Benutzer nicht weiß, dass sie existieren. Daher schlägt der AFEL Learning Resource Recommender Lernenden automatisch Empfehlungen zu Lernressourcen vor. Diese Empfehlungen basieren auf den identifizierten und extrahierten Lernaktivitäten der jeweiligen Benutzer.
Die Porsche Holding ist der größte und erfolgreichste Automobilhändler Europas. Das Salzburger Unternehmen wurde 1947 gegründet, ist heute in 22 Ländern in West- und Südosteuropa sowie in China, Kolumbien und Chile tätig und zählt zu den größten Vertriebsorganisationen der Welt. Die Porsche Austria, Teil der Porsche Holding und zuständig für den Großhandel und Import für Österreich, hat Zugriff auf eine Vielzahl von Datenquellen aus dem Automotive. Bereich, die von der hauseigenen IT des Unternehmens anonymisiert für fortgeschrittene Datenanalysen herangezogen werden. In Zusammenarbeit mit dem Know-Center analysierte Porsche anonymisierte Kunden- und Marktdaten von historischen Modelleinführungen und nutzte die gewonnenen Erkenntnisse zur Entwicklung eines Prognosemodells für künftige Modelleinführungen. Dieses Modell wurde mittlerweile unabhängig von Automarken und Kundensegmenten und unter Berücksichtigung möglichst vieler Faktoren, die potenziell Einfluss auf die Entwicklung haben könnten, entwickelt. Der Zweck des Prognosemodells liegt darin, Aussagen bezüglich des künftigen Bedarfs an Fahrzeugen einer speziellen Marke bzw. einer speziellen Marke innerhalb eines bestimmten Segments treffen zu können. Es erstellt Vorhersagen für den kommenden Monat oder das gesamte folgende Jahr. Hierfür wurde ein nicht linearer Ansatz aus dem Bereich Deep Learning mit einem linearen Ansatz (Seasonal Autoregressive Integrated Moving Average, SARIMA) verglichen, wobei das lineare Modell durchwegs bessere Ergebnisse für die Kurzzeit- und Langzeitvorhersage erzielte.
Die Siemens AG Österreich produziert am Standort Weiz Verteil- und Leistungstransformatoren. Das als Coil bezeichnete Grundmaterial des Transformatorkerns wird durch eine Anzahl konstruktiv bedingter oder messtechnisch ermittelter Parameter beschrieben. Es liegen entsprechende Daten für zahlreiche Coils vor. Ziel des gemeinsamen Projektes war die Analyse und Modellierung der Coil-Daten unter Verwendung moderner statistischer Werkzeuge und Verfahren aus dem Big-Data-Umfeld. Das Projektergebnis ist eine Analyse der Coil-Daten, die Zusammenhänge zwischen verschiedenen Parametern darstellt und im besten Fall den Einfluss maßgeblicher Parameter auf qualitäts- und kostenrelevante Zielwerte modelliert.
Mit ihrer umfassenden Sammlung theoretischer und empirischer Literatur für das Fachgebiet Wirtschaftswissenschaften ist die ZBW - Leibniz-Informationszentrum-Wirtschaft die weltweit größte Forschungsinfrastruktureinrichtung für Wirtschaftswissenschaften. Ziel dieses Projekts war es, die Informationen über Ausleihen der ZBW grafisch aufzubereiten, um den MitarbeiterInnen eine bessere Übersicht zu Ausleihvorgängen und -trends zu bieten. Damit sollte zum einen das eigene Angebot verbessert und zum anderen Informationen über aktuelle Trends an die BibliotheksnutzerInnen weitergegeben werden. Das Ergebnis des Projekts war eine Webapplikation, die zahlreiche maßgeschneiderte Visualisierungen anbietet. So können unter anderem aggregierte Ausleih-Informationen über die Zeit, Informationen über Ausleihvorgänge und thematische Trends bei der Ausleihe dargestellt werden. Die Visualisierungen können in mehreren Formaten exportiert und über Smartboards kommuniziert werden.
OpenUP war ein von der Europäischen Kommission im Rahmen des Horizon2020-Programmes gefördertes Projekt und wurde zwischen Juni 2016 und November 2018 durchgeführt. Entwicklungen wie Open Access, Open Science und Open Scholarship revolutionieren unterstützt durch entsprechende Technologien die Art und Weise, wie wissenschaftliche Arbeit veröffentlicht und bewertet werden. Diese Entwicklung betrifft alle Stakeholder, wie etwa ForscherInnen, Verlage, Forschungsförderer, Forschungseinrichtungen sowie Wirtschaft und Gesellschaft. Herkömmliche Publikations- und Evaluationsformen genügen diesen Anforderungen nicht mehr. In enger Zusammenarbeit mit ForscherInnen, Verlagen, Forschungseinrichtungen und -förderern hat OpenUP deshalb ein Grundgerüst für innovative Formen der Begutachtung (Peer Review), Dissemination und Bewertung von Forschungsergebnissen entwickelt und dieses in einer Reihe von Pilotstudien, in die ForscherInnen aus vier Fachrichtungen (Life Sciences, Sozialwissenschaften, Geisteswissenschaften, Energie) involviert waren, validiert. Das dabei erarbeitete Wissen wurde dann in Politikempfehlungen und Richtlinien gegossen, die sowohl auf EU-Ebene, aber auch auf nationaler und regionaler Ebene Anwendung finden können. Das Know-Center hat in diesem ambitionierten Projekt ein Arbeitspaket geleitet, das dem Bereich innovative Disseminationsformen gewidmet war. Gleichzeitig hat das Know-Center Expertise zu den Bereichen Open Peer Review und Altmetrics beigesteuert. Ein wesentlicher Output des Projekts ist der OpenUP Hub, eine Plattform zum interaktiven Wissensaustausch und zur Unterstützung der Aufnahme und Implementierung neuer Praktiken der Begutachtung, Bewertung und Evaluierung von Forschung.
Hybride Energiesysteme kombinieren unterschiedliche Energieträger und -bereitstellungsanlagen sowie Energieverteilung und –speicherung in einem vorgefertigten Kompaktsystem. Bisherige Systemauslegungen basieren auf empirischen Daten nicht-hybrider Systeme. Die Systemzusammenhänge und die Zahl der für Systemauslegung und Betrieb relevanten Einflussfaktoren bleiben dabei unbeachtet. Damit ist weder die Grundlage für einen optimalen Betrieb hinsichtlich Energieeffizienz noch für eine optimale Anlagenauslegung hinsichtlich eingesetzter Komponenten (Anzahl und Eignung) gegeben. Eine Vielzahl realer Betriebszustände ist nicht bekannt, Potenzial zur Anlagenoptimierung bleibt ungenutzt. Basis einer optimalen und energieeffizienten Systemauslegung und -nutzung sind die Kenntnis des Zusammenwirkens der Systemkomponenten und ihrer Wechselwirkungen. Durch die Entwicklung und Kombination thermischer und elektrischer Simulationsmodelle werden hybride Energiesysteme realitätsnah abgebildet. Auf Basis realer Messdaten werden die Simulationsmodelle validiert und mittels IKT-Methoden und ExpertInnenwissen Systemzusammenhänge, Interdependenzen und Wechselwirkungen zwischen den Systemkomponenten analysiert. Darauf aufbauend werden intelligente Regelungsstrategien entwickelt, welche in der Simulationsmodelle und in einem Realsystem erprobt werden. Die Regelungsstrategien zielen darauf ab, die Gesamtenergieeffizienz zu erhöhen, eine effektivere Auslegung zukünftiger Systeme zu ermöglichen und Systemkosten zu senken. Ziele sind die Steigerung der Energieeffizienz von zukünftigen und bestehenden komplexen hybriden Energiesystemen, die Generierung detaillierten Wissens zu den Wechselwirkungen zwischen den Komponenten, die Erschließung innovativer Methoden zur Auswertung von großen Datenmengen aus dem Monitoring hybrider Systeme und die Gewinnung von Regelungsstrategien mittels Big-Data-Analyse sowie die Entwicklung systemorientierter Simulationsmodelle mit offenen Systemgrenzen, die mit Mess- sowie statistischen Daten validiert werden können.
Die APUS Software GmbH entwickelt seit 1987 Softwarelösungen für komplexe Aufgabenstellungen - unter anderem ein umfassendes Produkt für die Personaleinsatzplanung unter dem Namen GraphDi®/IONIO®. Das Produkt umfasst eine umfassende Dienst- und Abwesenheitsplanung der MitarbeiterInnen unter Berücksichtigung verschiedenster gesetzlicher Rahmenbedingungen, aber auch Funktionen für die Abrechnung aller anfallenden Kosten und Gebühren sowie eine Integration in das SAP-HR-System. Ziel des Projektes war es zu eruieren, ob anhand der bestehenden Daten aus GraphDi®/IONIO® ein durch Künstliche Intelligenz unterstützter Assistent für eine teilautomatisierte Dienstplanerstellung umgesetzt werden kann. Basierend auf den aus der Machbarkeitsstudie gewonnenen Erkenntnissen wurden Vorschläge für eine mögliche bzw. hilfreiche Implementation ausgearbeitet.
HiMoment hilft seinen NutzernInnen glücklicher zu werden. Die App unterstützt Menschen, sich auf die positiven Dinge in ihrem Leben zu konzentrieren. Indem positive Momente aus dem Leben der Benutzer diesen wieder in Erinnerung gerufen werden, ergeben sich positive Auswirkungen auf Stimmung und Gesundheit. Nutzergenerierte „Moments“ bestehen aus Text- und Bildinhalten. Ziel des Projektes war die Entwicklung eines möglichst universellen Prototyps zur Analyse und Klassifizierung (nach Hauptgruppen und Sentiment) von multilingualen Textbausteinen und verschiedenartigen Bildobjekten.
Der Geltungsbeginn der Datenschutz-Grundverordnung (DSGVO) brachte für Unternehmen aller Branchen eine Vielzahl an zusätzlichen Verpflichtungen mit sich. Das vorliegende Projekt widmete sich zunächst der Analyse des implementierten (unternehmensinternen) Datenschutzstandards im Hinblick auf dessen Kompatibilität mit den (teilweise neuen) Anforderungen der DSGVO sowie der Identifizierung von etwaigen Verbesserungspotenzialen. In weiterer Folge lag der Fokus darin, die Umsetzung der für das betreffende Unternehmen als unerlässlich identifizierten DSGVO-Umsetzungsmaßnahmen zu unterstützen.
SmaXtec wurde 2009 mit dem Ziel gegründet, die Milchwirtschaft langfristig positiv zu verändern. Das Unternehmen bietet eine umfassende Lösung zur Überwachung der Herde, nämlich ein einzigartiges integriertes Überwachungssystem zur Erfassung, Auswertung und Diagnose von physiologischen Daten, mit dem sie in Echtzeit gezielt korrigierend eingreifen können. Die Wärmeerkennung und der richtige Zeitpunkt der künstlichen Besamung sind für eine erfolgreiche Milchwirtschaft unerlässlich. Wenn keine Wärme erkannt wird, führt dies zu geringer Fruchtbarkeit und verlängerten Kalbungsintervallen. Dieses Projekt zielte darauf ab, die Algorithmen (Präzision und Empfindlichkeit) zur Erkennung von Wärme bei Rindern mit Hilfe von maschinellen Lernansätzen zu verbessern. Die Daten des Kunden, die von den Sensoren im Magen der Kuh gesammelt wurden, wurden ebenfalls ausgewertet, um gegebenenfalls Verbesserungsvorschläge zu unterbreiten.
OpenAIRE ist durch mehrere von der Europäischen Kommission finanzierten Projektphasen hindurch gewachsen: Von den DRIVER-Projekten zur Vernetzung der europäischen Repositorien-Infrastruktur hin zum ersten OpenAIRE-Projekt mit dem Ziel, die Europäische Kommission bei der Implementierung ihres ersten Open-Access-Piloten für Veröffentlichungen zu unterstützen, bis zur gegenwärtigen OpenAIRE-Mission, Open Science auch auf der Policy-Ebene zu verankern. Das Projekt OpenAIRE Matchmaker wurde von OpenAIRE über die Universität Athen finanziert. Ziel war die Entwicklung eines neuartigen Empfehlungssystems für die Vernetzung von ForscherInnen und Institutionen, das auf den Namen Matchbook getauft wurde. Der Zweck von Matchbook besteht darin, Forscher- Innenbeim Knüpfen potenzieller Forschungskollaborationen zu unterstützen. Matchbook baut auf der OpenAIRE-Infrastruktur auf, mit dem Ziel, deren Funktionsweise und Aufnahme zu verbessern. Dies gelingt, indem der Mehrwert als Schlüsselinfrastruktur für ForscherInnen, Forschungseinrichtungen und -förderern herausgestrichen wird. Die Software lässt sich leicht im OpenAIRE-Portal verankern (oder auch auf den Webseiten von Forschungsförderern als ein von OpenAIRE lizenziertes Service). Eine vorläufige Demoversion (Stand-alone) ist verfügbar unter:
Im Aufrag der Industriellenvereinigung Steiermark wurde ein auf die Fragen der IV Mitglieder maßgeschneiderter Big-Data-Essentials Workshop durchgeführt, um einen aktuellen Überblick über Big Data Trend und Technologien zu geben. Der Fokus lag dabei insbesondere auf dem Analytics-Prozess, auf aktuellen Anwendungsfällen sowie auf der DSGVO.
TU Graz Life Long Learning ist eine Service-Einrichtung der Technischen Universität Graz, die Weiterbildungsprogramme im Bereich Technik und Naturwissenschaft nach höchsten Qualitätsstandards anbietet und entwickelt. Mithilfe professioneller Unterstützung und Organisation wird für ein beispielhaftes Maß an Kundenzufriedenheit gesorgt. Im Rahmen unserer Partnerschaft führte das Know-Center die dreitägige Schulung „Big Data Essentials“ für TeilnehmerInnen aus den verschiedensten Branchen durch. Besonderes Interesse fand der Vortrag zum Thema DSGVO, die derzeit ein Hot-Topic ist. Für 2019 sind weitere Trainings geplant, darunter ein dezidiertes Künstliche Intelligenz Programm.
The aim of the MoreGrasp project is to develop a non-invasive, multi-adaptive, multimodal user interface including a brain-computer interface (BCI) for intuitive control of a semi-autonomous motor and sensory grasp neuroprosthesis supporting individuals with high spinal cord injury in everyday activities
Die im Rahmen von Verkehrsbeeinflussungsanlagen (VBA) auf Autobahnen und Schnellstraßen ermittelten Umfelddaten stellen Eingangsgrößen für situationsabhängige Schaltvorschläge dar. Mittels dynamischer Warnhinweise und Geschwindigkeitsbeschränkungen werden die Verkehrsteilnehmer vor potenziell gefährlichen Umfeldbedingungen gewarnt. Aktuell wird im Streckennetz der ASFINAG die Qualität der Sensoren zur Umfelddatenerfassung weder systematisch noch vergleichend untersucht. Speziell im täglichen Betrieb der Umfelddatenerfassung werden Fehler häufig nicht oder erst spät bzw. zufällig erkannt. Basierend auf diesen Daten und Erkenntnissen ist das Ziel dieses Forschungsvorhabens, einen lauffähigen, performanten Prototyp umzusetzen, in dem die Werte der einzelnen Sensoren (Verfügbarkeitswerte) sowie deren Qualität (Plausibilisierung) bewertet werden. Die gesamten Sensormessgrundlagen werden zuerst einer sogenannten Sensorwerteverfügbarkeitsprüfung unterzogen. Diese erfolgt mittels einer Reihe von heuristischen Verfahren. Basierend auf der Einzelmesswertüberprüfung jedes Wertes bei der Datenübertragung bzw. Datenübernahme wird ein „Availability Index“ für jeden einzelnen Sensor generiert. Im Zuge dessen wird eine Komponente für die Speicherung und Verwaltung von Sensordaten auf Basis einer existierenden, relationalen Datenbank des Auftraggebers entwickelt. Weiters werden die Sensormessdaten auf Basis statistischer und maschineller Analysen mittels Methoden aus dem Bereich Knowledge Discovery in Databases (KDD) auf ihre Plausibilität untersucht und per Perfomance Index ausgegeben. Diese Methoden sind zum Teil probabilistischer Natur (Data Mining und Maschinelles Lernen). Die Ergebnisse dieser Methoden stellen jeweils Schätzwerte dar. Danach erfolgte die Fusionierung und Darstellung der Ergebnisse der Plausibilitätsprüfung (Performance Index) und Werteverfügbarkeitsvisualisierung (Availability Index), die in den Online-Betrieb des Prototypen integriert werden. Um im Zuge der Entwicklung des Prototypen auch Validierungsmessgrößen, unabhängig vom vorhandenen Messmaterial, in der Umfelddatenerfassung der ASFINAG zu haben, wird im Zuge des Projektes ein Referenztestfeld Umfelddatenerfassung aufgebaut. Dabei wird auf zwei Standorten zusätzliche Sensorik für ausgewählte Sensortypen integriert und diese als Validierungsgröße in die Datenbank eingebunden. In einem abschließenden Schritt erfolgt die Entwicklung einer UDEQI-GUI zur Konfiguration und Abfrage der Werte und Ergebnisse. Zusätzlich wird eine automatisierte Berichterstellung inkludiert.