Projektabschluss GHOST

Mit dem 31. Mai 2018 kam das offizielle Ende des Forschungsprojekts GHOST.

Wir blicken zurück auf ein Projekt mit vielen verschiedenen Ergebnissen und Errungenschaften. GHOST kann sowohl mit thematisch diversen Veröffentlichungen als auch anwendbaren Frameworks und Entwicklungen strahlen. In diesem Rückblick werden wir kurz zusammenfassen, was GHOST erreicht hat und welche Ergebnisse und Erkenntnisse aus dem Projekt gewonnen wurden.

Studien

Während der Laufzeit von GHOST wurden mehrere Studien zu verschiedenen Themen durchgeführt. Die erste behandelte das Thema Kameraführung und Steuerung und wurde im Sommer 2017 durchgeführt. Verschiedene Interaktionsdesigns auf dem Tablet wurden von mehreren demographischen Gruppen getestet. Folglich entstand eine Steuerung, welche von allen Spielern bedient werden kann. Diese Art der Steuerung ist folglich in GHOST erhalten geblieben.

Ebenfalls im Sommer 2017 wurde im Rahmen einer Bachelorarbeit eine Studie zum Thema psychographische Eigenschaften und Präferenzen von Spielern durchgeführt. Hierbei wurden Teilnehmer zu ihren Motivationen und ihren Vorlieben bei Videospielen gefragt. Folglich wurde die Existenz von Nine Psychographic Player Types bewiesen, welche bei der Entwicklung einer Spielstory berücksichtigt werden sollten.

Zu guter Letzt fand der Test des einstündigen Demonstranten im April 2018 statt, in welchem Probanden eine Runde mit mehreren IT-Security Inhalten testeten. Die Ergebnisse hierzu folgen, da noch eine spätere Nachbefragung aussteht.

Veröffentlichungen

Die Studien und andere Komponenten von GHOST haben zu mehreren Erkenntnissen geführt, welche in wissenschaftlichen Veröffentlichungen festgehalten wurden. Diese Paper beschreiben sowohl Frameworks, welche durch und mit der Entwicklung von GHOST erschaffen wurden, als auch das Thema ‚Competence Developing Games‘ an sich. Dieser Ausdruck ist ebenfalls ein Beiprodukt von GHOST und wurde zuerst in dem Paper „A New Definition of Competence Developing Games.“ Veröffentlicht. Aus der Liste können Sie alle Veröffentlichungen entnehmen, welche durch oder in Verbindung mit GHOST entstanden sind:

  1. A New Definition of Competence Developing Games.                                           (2016)
    König, Johannes A.; Wolf, Martin R.
  2. The Pyramid Assessment Framework for ‘Competence Developing Games’.        (2016)
    König, Johannes A.; Wolf, Martin R.:
  3. The Motivational Competence Developing Game Framework                               (2017)
    L. Dowidat, J. A. König, M. R. Wolf
  4. Competence Developing Games – Ein Überblick                                                   (2017)
    J. A. König, M. R. Wolf
  5. Competence Developing Game for Cybersecurity Awareness Training                 (2018)
    J. A. König, M. R. Wolf
  6. Storydesign in Competence Developing Games                                                    (2018)
    J. A. König, V. Völker, M. R. Wolf
  7. Nine Psychographic Player Types for Competence Developing Games                 (2018)
    J. A. König, V. Völker, M. R. Wolf

Zusätzlich zu den Papern gab es zwei Artikel über GHOST in Magazinen, zum einen in der 3. Ausgabe 2016 der Crisis Prevention (ab Seite 44) und zum anderen in der Aprilausgabe 2017 von „Wirtschaftliche Nachrichten“ der IHK (ab Seite 22).

GHOST durchlief verschiedene Entwicklungsphasen und nahm and mehreren Konferenzen Teil. Die folgende Timeline bietet einen Überblick über die Projektjahre und die größeren Ereignisse, welche während dieser Zeit stattfanden.

 

GHOST Timeline

TimelineNew

Das Forschungsprojekt ist also abgeschlossen. Wir versuchen nun die Ergebnisse des Projekts weiterzuverwenden und zu verhindern, dass GHOST, wie so viele andere Forschungsprojekte, nach seinem Abschluss in Vergessenheit gerät.

Wir bedanken uns bei allen, die uns unterstützt haben und unseren Fortschritt verfolgt haben.

 

Beteiligten

Prof. Dr. Ing. Martin Wolf: Projektleiter

Prof. Dr. rer. nat. Marko Schuba: Leitung IT-Security

Johannes A. König, M.Eng.: Projektkoordinator / Forschung

Dipl.-Ing. Hans-Wilhelm Höfken: IT-Security Beratung

Mathias Kohs, B.Sc.: Softwareentwicklung / Unity3D

Veronika Völker, B.Sc.: Storyentwicklung / Rundenlogik

Christine Roggenbuck, B.A.: Rundenlogik / 3D Models

Patrick Reckeweg: Softwareentwicklung / Unity3D

Norman Kohnemann, M.Eng.:  Unity3D / Maps Entwicklung

Sacha Hack, B.Sc.: IT-Security Szenarien

Linda Dowidat, B.Sc.: Beratung Motivation in CDGs

 

 

GHOSTBanner

Das GHOST-Team

Abschlussbild_Banner

Digests 12.07.2018

Rechtliche Grundlagen für autonomes Fahren

geschrieben von tk, jb

Zulassungsrecht
Neufahrzeuge müssen geprüft werden, bevor sie für den Straßenverkehr zugelassen werden. Hierfür sind insbesondere die Regeln der ECE (Economic Commission for Europe) relevant.
Die ECE legt internationale Standards und Normen für technologische Entwicklungen (z.B. im Bereich „Autonomes Fahren“) fest.
In Deutschland können aktuell mit Fahrassistenzsystemen ausgestattete Fahrzeuge zugelassen werden, sofern diese Systeme
• die ECE-Regeln erfüllen
• jederzeit vom Führer des Fahrzeugs übersteuert oder ausgeschaltet werden können.
Durch die Bindung an die ECE-Regeln werden in der Theorie alle Formen autonomen Fahrens möglich. Zudem gelten diese Regeln europaweit, was eine internationale Einheitlichkeit ermöglicht.


Anforderungen an den Fahrer
Der Führer eines Fahrzeugs muss sein Fahrzeug jederzeit
• beherrschen
• alle Fahrbewegungen ausführen können
• unter Berücksichtigung der Umstände führen
• vor jedem Hindernis zum Anhalten bringen können.
Im gesetzlichen Kontext ist, wenn vom „Führer“ bzw. „Fahrer“ des Fahrzeugs die Rede ist, nur ein Mensch gemeint – nicht ein Computersystem.
Deshalb sind Vollautonome Systeme, die das Fahrzeug ohne Überwachung eines Menschen steuern, in Europa nicht zulässig.
Autonomes Fahren bedeutet heute, dass eine Überwachung durch einen Menschen erforderlich ist, der jederzeit die Kontrolle über das Fahrzeug übernehmen können muss.
Ein Antrag zur Anerkennung von Vollautomatischen Systemen liegt bereits vor; sollte dieser wirksam werden, dann würde der Fahrer von einigen Anforderungen befreit werden und dürfte sogar Nebenaktivitäten ausführen.

Push für die Public Cloud: Strategische Partnerschaft von T-Systems und Microsoft

geschrieben von nc, as, pt

T-System und Microsoft gehen eine strategische Partnerschaft ein, mit dem Ziel Public Cloud Services auf vier Feldern voranzutreiben: SAP-Anwendungen, Managed Services auf Microsoft Azure und Microsoft 365, digitale Lösungen mit künstlicher Intelligenz und Mixed Reality sowie Internet of Things (IoT). Microsoft bietet mit Azure eine global skalierbare und vertrauenswürdige Cloud-Infrastruktur. Diese soll in Zusammenarbeit mit T-Systems genutzt werden, welches langjährige Erfahrung hat und eine erstklassige Konnektivität über die Plattform der Deutschen Telekom bietet.
Der Fokus der Zusammenarbeit liegt dabei vorerst auf dem Bereich IoT. T-Systems bietet auf seiner Cloud-Plattform "Cloud of Things – built on Microsoft Azure" vorgefertigte IoT-Services an (IoT-as-a-Service). Die offene und modulare Architektur welche auf Microsoft Azure IoT-Diensten basiert, gewährleistet hohe Flexibilität für Kunden und ermöglicht außerdem die Integration zusätzlicher Dienste, wodurch es Unternehmen ermöglicht wird komplette End-to-End Lösungen aufzubauen.
Microsoft hat bereits 50 Azure-Regionen weltweit angekündigt um Geschäftskunden eine globale Abdeckung zu bieten und möchte mit dem Ausbau von Azure die Bedürfnisse und Anforderungen weltweit führender Organisationen erfüllen. Unternehmen verlagern immer mehr Anwendungen und Daten in die Cloud, um Skaleneffekte, Effizient und geringe Kosten zu nutzen. T-Systems unterstützt solche Unternehmen mit Plattformen und Anwendungen aus der Cloud, damit diese sich auf ihr Kerngeschäft fokussieren können.

Virtuelle Realität im Marketing

geschrieben von oe, fj, al

Virtual Reality setzt sich momentan zunehmen auf dem Massenmarkt durch. Schon mit simplen Papphalterungen und gängigen Smartphones lässt sich ein einfaches VR-Erlebnis erzeugen. So ist es nicht erstaunlich, dass 30% der deutschen Unternehmen planen, Virtual Reality im Bereich des Marketings einzusetzen. Zwar fehlen momentane noch überzeugenden Inhalte für VR-Brillen und die Anschaffung einer qualitativen VR-Brille ist recht teuer, dennoch spekulieren viele Unternehmen auf einen wachsenden Markt und fallende Preise. Experten sagen, dass 2025 schätzungsweise 500 Million VR-Headsets genutzt werden.
Der Einsatz von VR im Bereich des Marketings verspricht Unternehmen viele Vorteile. Die sogenannte Immersion, das Eintauchen in eine andere Welt, verspricht Erfahrungen, die gegenüber anderen Medien viel besser im Gedächtnis verankert bleiben. Das Markenerlebnis von Kunden oder Interessenten lässt sich über VR genau steuern. Darüber hinaus kann mit VR eine offene und technikaffine Zielgruppe angesprochen werden und es kann eine hohe Aufmerksamkeit, vor allem in sozialen Medien, erreicht werden.
So gründeten beispielsweise die vereinten Nationen eine Abteilung für VR, mit dem Ziel, Menschen die Situation in Krisengebieten darzustellen. Große Konzerne wie General Electric ermöglichen über VR-Brillen einen Einblick in ihre Produktion und bekannte Autoherstellerbieten virtuelle Probefahrten an.
Insgesamt ist davon auszugehen, dass sich VR zu einem Massenmedium entwickeln wird, das die bestehenden Medien ergänzen wird. Für Unternehmen bedeutet dies, dass der Marketing- und Media-Mix um Virtual Reality weiterentwickelt werden muss.

Digests 24.05.2018

Vier Unternehmen die auf Cloud Gaming wetten

geschrieben von as, pt

Die Idee, Videospiele in einem cloudbasierten Dienst zu spielen, wurde in den frühen 2000er Jahren geboren, aber frühe Innovatoren hatten mit Bandbreitenbeschränkungen zu kämpfen. Die Grundidee bestand immer darin, ein Spiel remote zu hosten und das Gameplay über ein hochauflösendes Video zurück zum Player zu streamen. Das war leichter gesagt als getan, da jede Verschlechterung der Internetverbindung eines Benutzers zu einer starken Verzögerung führen würde. Trotz dieser Herausforderungen könnte der globale Cloud-Gaming-Markt von 2016 bis 2022 von 649 Millionen auf 3,25 Milliarden US-Dollar wachsen.


Sony:
Letztes Jahr hat Sony den Schwerpunkt von PS Now eingegrenzt und den Service für alle Plattformen mit Ausnahme der PS4- und Windows-PCs eingestellt. Sie bietet derzeit über 600 PS3- und PS4-Spiele für diese beiden Plattformen und ist damit die größte GaaS-Plattform der Welt.
NVIDIA:
Die Bewegungen von NVIDIA entsprechen genau denen von Sony. Mit dem Game Stream-Dienst, können Spieler PC-Spiele von einem mit Geforce ausgestatteten PC auf ihre Shield-Gaming-Tablets und Set-Top-Boxen streamen.
Microsoft:
Microsoft hat sich beim lokalen Streaming von Spielen bemüht, indem Xbox One-Besitzer ihre Spiele auf Windows-PCs streamen. Es bietet auch den Xbox Game Pass, einen Abonnement-Service, mit dem Spieler eine Auswahl von Spielen auf ihre Konsolen herunterladen (nicht streamen) können.
Hewlett-Packard:
Der PC-Hersteller hat kürzlich den Omen Game Stream vorgestellt. Omen Game Stream nutzt die Streaming-Technologie mit niedriger Latenz, um High-End-Spiele auf weniger leistungsstarke PCs zu steramen. Der Service ist für Omen-Besitzer kostenlos - was dazu beitragen könnte, dass HP bei PC-Lieferungen immer eine Nasenlänge voraus ist.


Cloud Gaming ist immer noch eine junge Industrie, die sich auf technologische Verbesserungen und eine weitverbreitete Veränderung der Spielgewohnheiten verlassen wird. Aber wenn es erfolgreich ist, könnte es physische Spiele, digitale Downloads, Konsolen und High-End-Gaming-PCs überflüssig machen, wenn Spieler ihre Spiele streamen, anstatt sie zu kaufen.

Datenschutzgrundverordnung (DSGVO)

geschrieben von nc, jt, jv

Technologische Veränderungen der vergangenen Jahrzehnte haben eine Überarbeitung der Datenschutzrichtlinie aus dem Jahr 1995 unumgänglich gemacht. Die neue Verordnung birgt weniger Spielraum für nationale Alleingänge und beschäftigt sich sowohl mit Big Data, Industrie 4.0, Robotik als auch künstlicher Intelligenz.

Ziel der ab dem 25. Mai 2018 verbindlichen Datenschutz-Grundverordnung der EU ist, den Umgang mit Daten europaweit einheitlich zu regeln. Sie enthält Vorschriften, um natürliche Personen im Rahmen Ihrer Grundrechte und Grundfreiheiten bei der Verarbeitung personenbezogener Daten zu schützen. Geeignete technische und organisatorische Maßnahmen müssen getroffen werden, um Datenschutz und Datensicherheit zu gewährleisten. Andernfalls drohen hohe Bußgelder.

Fernbehandlung in Baden-Württemberg

geschrieben von fz

Seit dem 16. April ist es als Patient möglich sich in den Regionen Stuttgart und Tuttlingen telemedizinisch behandeln zu lassen.


Hierbei wendet man sich als Patient via App, Website oder Telefon an ein Callcenter. Die dort angestellten medizinischen Fachangestellten leitet dann den Patienten je nach Dringlichkeit entweder an einen der 30 verfügbaren Teleärzte weiter oder schalten im Notfall die Rettungsstelle ein.


Sieht der Arzt eine Notwendigkeit für einen persönlichen Besuch, stehen dem Patienten 20 „patientennahe erreichbare Praxen“ zur Verfügung. Anderenfalls gibt der Telearzt eine Behandlungsempfehlung.


Dass diese Art von Untersuchung – im Vergleich zu vielen anderen Ländern – in Deutschland grade erst Fuß fasst, ist vor allem dem Umstand zu Schulden, dass in den Berufsordnungen der Landes-/Bundesärztekammer(n) ein explizites Fernbehandlungsverbot festgeschrieben ist, welches erst gelockert werden musste.


Da dieses Projekt natürlich hochsensible Daten und hohe Verantwortung beinhaltet, sieht sich die Kassenärztliche Vereinigung in ihrer Pflicht, weil sie durch ihre Hochsicherheitsrechenzentren die Datensicherheit gewährleisten kann und im Gegensatz zu Drittanbietern sowohl über die richtige Ausbildung als auch über kein kommerzielles Interesse verfügt.

ITOM auf der ACHI 2018 in Rom mit zwei Vorträgen vertreten

IMG_20180327_090515_cropped
P128077_cropped

Das Labor für IT Organisation und Management (ITOM) war dieses Jahr gleich mit zwei Beiträgen auf der "Eleventh International Conference on Adavances in Computer-Human Interactions" (ACHI) in Rom vertreten. Johannes König präsentierte dabei zum Thema "Competence Developing Game for Cybersecurity Awareness Training" und Veronika Völker aus ihrer Bachelorarbeit zum Thema "Storydesign in Competence Developing Games". Die entsprechenden Paper sind bereits online zu finden unter:

http://www.thinkmind.org/index.php?view=article&articleid=achi_2018_5_40_20062

http://www.thinkmind.org/index.php?view=article&articleid=achi_2018_5_10_20057

 

Laut Angaben des Veranstalters lag die Annahmequote in diesem Jahr im Mittel bei ca. 29%.

Dritte Fallstudie des Semesters von topsystem lässt Vorlesungszeit ausklingen

topsystem_Tim-Just_468

Tim Just, Geschäftsführer im Bereich Logistik von topsystem

Am 26.01.2018, passend zum Ende der Vorlesungszeit des Wintersemesters 2017/2018, wurde die dritte und letzte Fallstudie des Semesters den Studierenden des Studiengangs Wirtschaftsinformatik an der FH Aachen präsentiert. Als Kooperationspartner für die Fallstudie mit dem Titel "Einführungs eines ERP-Systems - make or buy" konnte die topsystem Systemhaus GmbH gewonnen werden. Präsentiert wurde die Fallstudie von dem Geschäftsleiter des Bereiches Logistik von topsystem, Tim Just, der früher selbst Informatik an der RWTH studiert hatte.

Der Logistikbereich von topsystem zeichnet sich vor Allem durch die Komplettlösung zur mobilen Datenfassung, genannt "Lydia", aus. Hierbei handelt es sich um ein "pick-by-voice"-System, das die Fachkräfte im Warenlager bei der Durchführung ihrer Aufgaben, bspw. bei der Zusammenstellung von Warenlieferungen, unterstützt. Die Mitarbeiter tragen ein Headset über das sie ihre Arbeitsanweisungen erhalten. Haben sie einen Arbeitsschritt abgehakt, teilen sie dies wiederum dem System über das angebrachte Mikrofon mit. Diese Informationen liegen sofort digital vor und können von verbundenen IT-Systemen weiterverarbeitet werden. Somit müssen die durchgeführten Aktionen nicht mehr manuell erfasst werden, wodurch die Fehlerquote in den Prozessen sinkt. Zusätzlich haben die Mitarbeiter ihre Hände frei, da sie nicht länger Papierlisten mit sich tragen müssen. Viele große Handelshäuser, Warenumschlagszentren und Zentrallager sowie namhafte Logistik-Diensleister setzen Voice-Systeme bereits ein.

Um Kundenanforderungen abdecken zu können wurde ein umfangreicher Produktstandard entwickelt, sowohl für die angebotene Software als auch für die Hardware. Um eine Reduktion manueller Aktivitäten (Forecast-Auswertungen, Stammdatenpflege, etc.) zu erreichen, entschied sich topsystem eine integrierte ERP- und CRM-Umgebung zur Prognose, Planung und Durchführung von operativen Aufgaben einzuführen. Kombiniert mit Daten aus dem Vertrieb soll durch akkuratere und automatisierte Forecasts insbesondere die Lieferzeit für die Hardware auf Kundenseite reduziert werden und die Reaktionszeit und -fähigkeit erhöht werden. Da die Hardware für die Voice-Lösung unter anderem von topsystem gefertigt wird, müssen Lagerhaltung und Produktion mit dem Sales-System integriert sein. Prognosen über Absatzzahlen bilden dabei die Grundlage für eine effektive Planung der Beschaffung und Fertigung. Eine integrierte Zeiterfassung soll es jedem Projektleiter und der Unternehmensführung ermöglichen, auf einen Blick zu erkennen, wie wirtschaftlich ein Projekt ist. Da alle abrechungsrelevanten Daten in diesem System gesammelt sein sollen, wird zudem eine Automatisierung der Rechnungsstellung in Planung gestellt.

Zur Bereitstellung von Informationssystemen wurde in der Vergangenheit häufig der "make"-Ansatz verfolgt. Aufgrund des als speziell eingestuften Anwendungsfalls des System wurde dieser Ansatz als effizient erachtet. Eine erneute Kosten-Nutzen-Rechnung führte jedoch zu dem Entschluss, dass in diesem Fall ein System am externen Markt beschafft werden sollte. Die Investition in ein solches System, welches die Anforderungen ausreichend abdeckt, langfristig erweiterbar ist und auch die Mitarbeiter in Sachen Bedienbarkeit zufriedenstellt, wurde geringer eingestuft, als die Investition in eine eigene Entwicklung. Dabei sind bei dem "purchase"-Ansatz ebenfalls Folgekosten durch Support, Wartung und Softwarepflege zu betrachten. Ein Vorteil bei diesem Ansatz besteht darin, dass Anbiete, die sich auf diese Produkte spezialisieren, mehr Kompetenzen besitzen und ein größeres Interesse haben diese Systeme lauffähig zu halten. Zusätzlich wurden Oppotunitätskosten betrachtet: Die internen Kosten, die durch die fehlende Verfügbarkeit von Software-Entwicklern für das Kerngeschäft entstehen würden, und die daraus resultierende, potenzielle Verzögerung oder Qualitätsreduktion in der Produktentwicklung für den Vertrieb, übersteigen kumuliert die Anschaffungskosten eines extern entwickelten Systems. Das gilt auch für Verzögerungen in Projekten oder einen potenziellen Image-Verlust am Markt bei zu langsamer Produktinnovation, der bei einer eigenen Entwiclung prognostiziert wurde.

Zum jetzigen Zeitpunkt befindet sich das Unternehmen in der Umsetzungsphase, in der gemeinsam mit Beratern des Lieferanten die Prozesse konfiguriert werden, um das System so auf die beschriebenen Anforderungen anzupassen.

Nach dem Vortrag waren die Studierenden gefragt ihre Ausarbeitungen zu der Fallstudie vorzustellen. Sie mussten hierzu bspw. nach Alternativen zu "pick-by-voice" recherchieren und die Systeme miteinander vergleichen und eigene Pro- und Kontra-Argumente für die "make-or-buy"-Ansätze für den vorgestellten Fall aufführen. Daran angeknüpft war eine Fragerunde, in der die Studierenden ihre eigenen Fragen zum Thema an Herrn Just stellen konnten. Durch die vorherigen Fallstudien routiniert geworden, bohrten die Studierenden dabei nach Schwachstellen im System sowie gewinnbringenderen Vermarktungsmodellen, was zu lebhaften Debatten zwischen allen Beteiligten führte.

Wir möchten uns an dieser Stelle noch einmal recht herzlich bei Herrn Just für die Präsentation und die Diskussionen, sowie bei den Mitarbeitern von topsystem für die Erstellung der Fallstudie, bedanken!