Informatik und andere Wissenschaften

Informatik und andere Wissenschaften

Die Informatik, die selbst erst um das Jahr 1960 an der Schnittstelle zwischen Mathematik und Elektrotechnik entstanden ist, bietet selber Schnittstellen mit anderen Wissenschaftsbereichen. Oft dient sie dabei anfangs nur als Hilfsmittel und Werkzeug (Datenbanken, Visualisierung), um Fragen der anderen Wissensdisziplinen effizienter und schneller beantworten zu können. Die tiefere Durchdringung der Disziplinen führt darüber hinaus aber auch zu neuen Fragestellungen, Techniken und Methoden. Beispiele sind die Chemieinformatik, Geoinformatik und Medizininformatik, und, am weitesten fort geschritten, die Bioinformatik, die hier als Beispiel dienen soll.

Die Bioinformatik verwendet bekannte und ersinnt neue Techniken der Informatik, der Mathematik und der Statistik, um damit biologische Probleme zu lösen. Der Fokus der wissenschaftlichen Arbeit kann dabei sowohl auf der Erforschung neuer informatischer und mathematischer Verfahren liegen, mit denen biologische Probleme gelöst werden sollen; als auch auf dem Zugewinn an biologischem Wissen, das durch Anwendung solcher Hilfsmittel generiert werden kann.

Ein Beispiel bioinformatischer Forschung ist die Genomassemblierung: Die Schrotschuss-Sequenzierung (shotgun sequencing) wurde zum ersten Mal im Jahre 1995 bei der Sequenzierung des Bakteriengenoms von Haemophilus influenzae verwendet. In den Jahren 1998 bis 2001 sequenzierte die Firma Celera damit das menschliche Genom, und heute dominiert diese Technik die Genomsequenzierung. Die Schrotschuss-Sequenzierung erzeugt keine durchlaufende Sequenz des Genoms, sondern es werden die Sequenzen von Millionen von Bruchstücken bestimmt, jedes nur 600-800 Nukleotide lang. Diese Bruchstücke überlappen sich teilweise und können zu einem Genom zusammengesetzt werden – mit einer Länge von bis zu 3 Milliarden Buchstaben im Falle des menschlichen Genoms. Dies ist eine unmögliche Aufgabe für einen Menschen, doch Computer können sie mit Hilfe immenser Rechenleistung und effizienten informatischen Werkzeugen wie beispielsweise verteiltem Rechnen mithilfe von das Problem abgestimmten Algorithmen lösen.

Die Bioinformatik ist eine dynamische Wissenschaft, getrieben insbesondere durch die kontinuierlichen Forstschritte in der Biotechnologie, die es erlauben, immer neue Aspekte der biochemischen Prozesse des Lebens zu beobachten und zu quantifizieren. Die Bioinformatik ist andererseits ein Eckpfeiler der Biotechnologie, beispielsweise in der Medikamentenforschung: Die Hälfte aller Medikamenten-Neuzulassungen kommen bereits aus dem Labor von Biotechnologie-Firmen (Der Spiegel vom 11.04.2005, S. 84ff).

Verteilt & allgegenwärtig

Informatik – verteilt & allgegenwärtig

Längst sind Computer nicht mehr nur in großen Rechenzentren zu finden. Vielmehr stecken Computer – und damit Informatik – inzwischen unauffällig in vielen Gebrauchsgütern, vom Auto bis zum Toaster. Überall werden Daten erfasst, gespeichert, verarbeitet und ausgetauscht. Gordon Moore sagte 1965 voraus, dass sich die Leistungsfähigkeit von integrierten Schaltungen etwa alle ein bis zwei Jahre verdoppelt. Entsprechend sinken die Kosten für Rechenleistung. Ähnliche empirische Gesetzmäßigkeiten gelten für die Kapazität von Datenspeichern oder die Bandbreiten von Computernetzwerken.

Das Moore’sche Gesetz hat sich bewahrheitet und in den vergangenen vierzig Jahre ist die Digitalelektronik in fast alle Lebens- und Arbeitsbereiche vorgedrungen. Teilweise ist dort der einzelne Rechner noch sichtbar (Personal Computer, Spielkonsole), teilweise verschwindet er als eingebettete Steuerung im jeweiligen Gerät (Unterhaltungselektronik, weiße Ware, etc.). Seit einigen Jahren wird die Vision der „Ambient Intelligence“ verfolgt, bei der die eingebetteten Geräte immer kleiner und zahlreicher werden. Trotz vieler entsprechender Forschungsprogramme herrscht hier nach wie vor Forschungsbedarf auf allen Ebenen, von der Hardware über die Software und die entsprechenden Software Engineering Methoden bis hin zu den gesellschaftlichen Implikationen.

Forschungsbedarf: Ambient Intelligence

Mit dem Fortschreiten der Digitalisierung werden immer mehr Geräte mit elektronischen Steuerungen ausgestattet. Je mehr es werden, desto schwieriger werden Konfiguration und Administration. Gleichzeitig wachsen die Erwartungen der Nutzer an die Zuverlässigkeit der Geräte.

Auch Anwendungen und die Anwendungsentwicklung müssen sich dem Trend anpassen: So wie PCs und Home-Computer seit den späten 70er Jahren den Alltag zu Hause verändert haben (Textverarbeitung, Spiele, etc.), so wie das Internet unsere Lebens- und Arbeitsumwelt virtualisiert hat und so wie Mobiltelefone in den 90er Jahren zum persönlichen Accessoir (Klingeltöne, Logos, SMS) geworden sind, so werden auch die allgegenwärtigen Kleinstrechner Anwendungen hervorbringen, die wir noch nicht vorhersehen können. Hierfür muss die Informatik rechtzeitig möglichst tragfähige Lösungen liefern. Diesmal lauten die Fragen nicht mehr “Wozu benötigt man einen Computer zu Hause?”, nicht mehr “Wozu brauche ich das Internet?”, oder “Wozu brauchen Teenager ein Handy?”. Nun lauten die Fragen “Wie und wozu programmiere ich meinen Kugelschreiber, die Pfandflaschen, die Lego-Bausteine meines Kindes oder meinen Tischtennisball?” Vieles spricht dafür, dass wir die Reichweite dieser Fragen genauso wenig überblicken wie die Tragweite der PC-Revolution in den 70ern, das Internet in den 80ern oder die Handy-Revolution in den 90er Jahren.

Forschungsbedarf: Selbstorganisation

Die Informatik betrachtet zum Thema Selbstorganisation vor allem einzelne Algorithmen und Systeme, denen man aus oft unterschiedlichen Gründen die Eigenschaft “selbstorganisierend” zuschreibt. Es fehlt dabei sowohl eine belastbare Definition der Selbstorganisation im Bereich der Informatik als auch ein Verständnis, wie man Selbstorganisation gezielt einsetzen kann. Beispiele können diese Erkenntnislücke am besten illustrieren: Wenn ein Ameisenhaufen ein selbstorganisierendes System ist und Ameisen kleine Roboter wären, wie lautet das Programm, das die Ameisen steuert? Welche Änderung lässt die Ameisen den Rasen auf einem Tennisplatz gleichmäßig stutzen beziehungsweise Unrat am Straßenrand zerkleinern und abtransportieren?

Hinter diesen Beispielen steht die Frage nach der “Engineered Self-Organization”: Gibt es Grundelemente selbstorganisierender Systeme? Sind sie kombinierbar? Gibt es fundamentale Trade-Offs in diesen Systemen? Als Ergebnis entsprechender Forschungsanstrengungen sollte Selbstorganisation in der Informatik genauso angewandt werden können, wie bei¬spiels¬weise die etablierten “Design Patterns” beziehungsweise Entwurfsmethodiken.

Forschungsbedarf: Betrachtung komplexer Gesamtprozesse

In Zukunft wird die Leistungsfähigkeit von Mensch-Maschine-Systemen nicht mehr durch technische Faktoren begrenzt sein. Eine volle Nutzung des Potenzials verspricht vielmehr eine Betrachtung des Gesamtsystems, bestehend aus der genutzten technischen Infrastruktur (Hardware), der Software, den Benutzungsschnittstellen, den Benutzern, und dem gesamten Arbeitsprozess.

Arbeitsprozesse, die einen einzelnen Benutzer und einen einzelnen Computer einbeziehen, sind auch in der Informatik recht gut verstanden. Prozesse, die viele Teilnehmer einschließen, werden, wenn auch zumeist ohne Berücksichtigung von Computersystemen, in den Sozialwissenschaften und der Sozialpsychologie untersucht. Für das gemeinsame Arbeiten vieler Nutzer an einem gemeinsamen System gibt es Lösungsansätze aus dem Bereich Computer-supported collaborative work (CSCW). Um nun komplexe verteilte Prozesse unter Mitwirkung vieler Benutzer und vieler, verteilter Rechner zu untersuchen, ist hier eine grundlegend interdisziplinäre Arbeitsweise notwendig.

Dies bedeutet, dass nicht alle bei der Entwicklung solcher Systeme auftretenden Probleme eine technische Lösung finden. Vielmehr müssen auch soziale Protokolle und Interaktionsformen zwischen Menschen betrachtet, spezifiziert und gestaltet werden, die eine effektive Nutzung der Systeme im Gesamtzusammenhang ermöglichen. Komplexe Gesamtprozesse dieser Art werden grundlegend andere Mechanismen aufweisen als die heutigen Mensch-Maschine Paare.

Verständlich & benutzbar

Informatik – verständlich & benutzbar

Für viele Menschen ist der Computer in seinen vielfältigen Ausprägungen zu einem Werkzeug und Alltagsgegenstand geworden. Sie möchten diese Geräte möglichst effektiv und effizient nutzen, ohne sich vorher mit den Details der Funktionsweise auseinandersetzen zu müssen. In den vergangenen 30 Jahren ist die Benutzung von Computersystemen für den Nutzer wesentlich einfacher geworden, ging jedoch mit einem Trend zu komplexeren und leistungsfähigeren Systemen einher. Der Vergleich von Preisen und Angeboten, die in global verteilten Datenbanken gespeichert sind, ist heute so einfach, dass sie nahezu jeder Computerbenutzer mit einem Webbrowser durchführen kann, ohne auch nur von den zugrundeliegenden technischen Konzepten gehört zu haben. Grundsätzlich nutzen die meisten Anwender nur einen sehr kleinen Teil der Möglichkeiten und Potenziale, die in gegenwärtiger Informations- und Kommunikationstechnologie liegen. Die Weiterentwicklung der Mensch-Computer-Schnittstelle ist ein zentrales Thema der Informatik, da diese Schnittstellen inhärent mit der zugrunde liegenden Technologie verbunden sind. Algorithmen, Systemarchitekturen, Datenmodelle und Netzwerktechnologien beeinflussen in direkter Weise die Erfahrungen, die der Benutzer macht. Bei komplexen und verteilten Computeranwendungen, wie sie heute die Regel sind, ist es nicht mehr möglich, den Mensch-Computer-Interaktion erst am Ende des Entwicklungsprozesses zu gestalten. Sie muss vielmehr von Anfang an und über den gesamten Entwicklungsprozess hinweg als ein zentrales Kriterium in die Entwicklung mit einbezogen werden.

In Zukunft wird die Leistungsfähigkeit vieler Anwendungen nicht mehr durch technische Faktoren begrenzt sein. Die Entwicklung zeigt, dass wir schon jetzt und in naher Zukunft Rechenleistung, Speicher und Kommunikation massiv verfügbar sind. Die Fähigkeit, eine komplexe Kalkulation auf einem aktuellen PC zu erstellen, ist jedoch nicht mehr vom verwendeten Prozessor abhängig. Stattdessen tritt die Leistungsfähigkeit des Gesamtsystems immer stärker in den Vordergrund. Dieses Gesamtsystem besteht aus der genutzten technischen Infrastruktur, der Software, den Benutzungsschnittstelle, den Benutzern, und der Aufgabenstellung im Prozess.

Die Möglichkeiten für die Gestaltung der Mensch-Computer-Schnittstelle verändern sich massiv mit neuen Entwicklungen im Bereich der Sensorik und Aktuatorik. Mechanische und elektro-mechanische Mensch-Maschine-Schnittstellen werden durch eingebettete Computersysteme abgelöst, die zusätzlich zu konventionellen Benutzungsschnittstellen Sensoren und Aktuatoren als Ein- und Ausgabekanäle nutzen. Die Begriffe Multimodalität und elektronische Medien werden dabei neu definiert. Alltagsgegenstände, Kleidung, Umgebungen, der Körper des Menschen und Maschinen werden Teile der Mensch-Computer-Schnittstelle.

Zusammenfassend läst sich sagen, dass in vielen Anwendungsbereichen schon jetzt die Mensch-Computer-Schnittstelle einer der kritischsten Faktoren in der Entwicklung effektiver und effizienter Systeme ist. Dieser Trend wir sich durch neue technologische Entwicklungen noch verstärken.

Forschungsbedarf: Modelle für die Mensch-Maschine-Interaktion

Unsere Interaktion mit Computersystemen wird auf der einen Seite durch Modelle bestimmt, die unsere Vorstellung von der Funktion eines Systems oder vom Ablauf eines Prozesses beschreiben. Solche Modelle können beispielsweise durch Metaphern mit Bezug zu bekannten Objekten und Vorgängen gebildet werden. Ein Beispiel hierfür ist die Desktop-Metapher, die unseren heutigen Umgang mit dem PC bestimmt. Schlüssige mentale Modelle erlauben das einfache Erlernen und Merken und erleichtern die effiziente Bedienung interaktiver Systeme. Fehlende oder schlechte Modelle erschweren die Bedienung bis zur Unbenutzbarkeit.

Auf der anderen Seite wird effiziente Interaktion oft nur durch vom Computer erstellte, effiziente Modelle über den Benutzer möglich. Solche Mensch-Modelle meist dann nötig, wenn die Interaktion "non-intrusive" ist, das heißt, der Mensch berührt kein Eingabegerät direkt. Ein Beispiel hierfür ist die kamera-basierte Interaktion.

Immer komplexer werdende Computersysteme verlangen daher nach skalierbaren Modellen, die sich auf neue Interaktionskontexte und Modalitäten anwenden lassen. Die alltägliche und gleichzeitige Nutzung durch viele Benutzer verlangt nach neuen Konzepten, die neben den technischen Protokollen der Maschine auch die sozialen Protokolle zwischen Menschen berücksichtigen. In aktuellen interaktiven Systemen ist eine kooperative Nutzung verschiedener Personen in verschiedenen Rollen der Regelfall. Die Abbildung dieser Nutzungsszenarien in Modelle setzt ein grundlegendes Verständnis des gesamten Arbeitsprozesses und der Kommunikation voraus. Bilden Modelle in der Bedienung der Software die Interaktion der Nutzer untereinander sinnvoll ab, erleichtert sich die Bedienung wesentlich.

Der steigenden Komplexität in computergestützten Werkzeugen kann einerseits durch den Bau von Anwendungen oder Geräten, die speziell auf eine Aufgabe zugeschnitten sind (Appliances) entgegen gewirkt werden. Dies erleichtert die Konzeption, Umsetzung und Benutzung von Systemen. Die geringere Komplexität und höhere Spezifizität der Benutzungsschnittstelle erleichtert das Erlernen, die Nutzung und Wartung dieser Werkzeuge. Insbesondere unter dem Aspekt, dass Hardware immer günstiger wird, ist es sehr sinnvoll, dedizierte und spezialisierte Geräte zu entwickeln, welche sich schon durch ihr Design (Form, Hardware, Software, Benutzungsschnittstelle) für bestimmte Aufgaben optimieren lassen. Andererseits können – langfristig –Schnittstellen einfach wegfallen. (und damit auch die Computer), das heißt, dass sie gar nicht mehr explizit als solche erkennbar sind. Ein Beispiel dafür wären zukünftige Projektor-Kamera-Prozessor-Einheiten, die wie heutige Leuchtsysteme an den Decken der Räume montiert werden.

In Bezug auf Modelle sind zentralen Herausforderungen für die Entwicklung verständlicher und benutzbarer Systeme:

  • Entwurf von Modellen: Ein Modell zu finden, das den Benutzer in die Lage versetzt, Wissen aus seiner Erfahrungswelt zu nutzen um mit dem System zu interagieren. Die Erfahrungswelt beinhaltet grundlegende Kenntnisse über physikalische Vorgänge (beispielsweise: Gegenstände fallen nach unten) aber auch erlerntes und spezifisches Wissen aus bestimmten Domänen.
  • Kommunikation der Modelle: Die gefundenen Modelle in den Implementierungen so umzusetzen, dass für den Benutzer die Bedienung offensichtlich erscheint. In physischen und eingebetteten Benutzungsschnittstellen kann über eine graphische Repräsentation hinaus auch auf Stilmittel des Industriedesigns zurückgegriffen werden, um die Benutzung intuitiv zu gestallten.
  • Entwurf von effizienten Mensch-Modellen: Modelle zu entwickeln, so dass eine effiziente Interaktion mit dem Computer mittels „Beobachtung des Benutzer“ durch den Computer ermöglicht wird. Diese Beobachtung findet durch geeignete Sensoren möglichst „non-intrusive“ statt.

Forschungsbedarf: Neue Basistechnologien für Benutzungsschnittstellen

In verschiedenen Forschungsbereichen, wie der Elektronik, der Biotechnik, der Medizin oder den Werkstoffwissenschaften, entstehen heute Basistechnologien, die an der Mensch-Maschine-Schnittstelle eingesetzt werden können. Beispiele hierfür reichen von mechanischer Ausgabe (Beispiel: force feedback), über veränderbare Oberflächen und neue Sensoren, bis zur experimentellen Nutzung von Biosignalen, wie Elektroenzephalographie (EEG) im Rahmen von brain-computer interfaces.

Es ist eine zentrale Forschungsaufgabe in der Informatik, neue Basistechnologien für Benutzungs¬schnittstellen zu finden und für diese Bedienkonzepte zu entwickeln. Die Basistechnologien werden erst sinnvoll nutzbar, wenn sie in ein entsprechendes Bedienkonzept eingebettet sind. Solche Technologien können die nutzbare Bandbreite zur Kommunikation zwischen Mensch und Maschine wesentlich erhöhen. Das Konzept der Multimodalität wird hier wesentlich erweitert und die Interaktion wird vom Audio-Visuellen auf alle Sinne erweitert.

Um neue Basistechnologien effektiv einsetzen zu können, sind folgende Punkte wichtig:

  • Verständnis für neue Basistechnologien: Um effiziente und angemessene Interaktionskonzepte für neue Technologien zu entwerfen, müssen diese aus Informatik-Sicht verstanden und erprobt werden. Eine experimentelle Evaluation von neuen Technologien im realen Kontext von Bedienkonzepten ist unerlässlich.
  • Abstrakte Schnittstellen und Laufzeitumgebungen: Die informationstechnische Abstraktion von konkreten Sensoren und Aktuatoren ist ein zentraler Schritt zur Bereitstellung von Schnittstellen. Die Entwicklung von Systemen wird wesentlich vereinfacht, wenn von der spezifischen Technologie abstrahiert werden kann. Die Verwaltung von neuen Ein- und Ausgaberessourcen für komplexe Systeme stellt eine weitere Herausforderung dar.

Forschungsbedarf: Interaktionskonzepte für ubiquitäre eingebettete Computer

Neue Bauformen von Computersystemen, wie eingebettete Systeme oder in der Umgebung verteilte (ubiquitäre) Computer, verlangen ebenfalls nach neuartigen Interaktionskonzepten. Diese Systeme zeichnen sich dadurch aus, dass Benutzer sie nicht als Computer wahrnehmen. Beispiele hierfür sind Bedienelemente für ein Fahrzeug oder für ein Fernsehgerät. Der Computer als solcher tritt für den Benutzer in den Hintergrund, wenngleich die Implementierung des Systems einen oder mehrere Computer enthält. In vielen Fällen sind jetzt schon Computer zum Bestandteil unserer Alltagsumgebungen geworden, und dieser Trend setzt sich weiter fort.

Eine explizite und traditionelle Interaktion mit eingebetteten und ubiquitären Computern ist oft weder möglich noch ökonomisch. Ein zentraler Ansatz für die Gestaltung solcher Systeme besteht darin, alltägliche Handlungen automatisch zu erfassen und als Eingaben zu verwendet. Ein Beispiel ist die Steuerung von Heizung und Klima in Gebäuden, in denen die Benutzer durch Sensorik erkannt werden und Parameter entsprechend den persönlichen Präferenzen geregelt werden. Die Anwesenheit eines Benutzers in einem Raum wird somit zu einer Interaktion mit den „versteckten“ Computern. Allgemeiner können alltägliche Handlungen als implizite Interaktionen mit der computerisierten Umgebung interpretiert werden (im Gegensatz zur expliziten Interaktion mit heutigen Systemen).

Sensoren, Aktuatoren und Displays verleihen unseren Alltagsumgebungen neue Möglichkeiten zur Interaktion, die in ein sinnvolles Gesamtkonzept eingebettet sein müssen. Die Erkennung von Aktivitäten der Benutzer, Interaktionskontexten und Situationen spielt hierbei eine maßgebliche Rolle.

Aus den Entwicklungen im Bereich der Eingebetteten und ubiquitären Systeme ergeben sich die folgenden wesentliche Fragestellungen:

  • Eingebettete Interaktion: Computer finden Einsatz in immer mehr Gegenständen, Umgebungen und Geräten, treten jedoch für den Benutzer immer mehr in den Hintergrund. Neue Möglichkeiten für die Interaktion durch Einbettung (technisch wie in Handlungsabläufe) machen neue Interaktionskonzepte notwendig.
  • Die Welt als Benutzungsschnittstelle: Durch neue Technologien und deren Einbettung in Alltagsgegenstände und Alltagsumgebungen ergeben sich weit reichende Veränderungen in Bezug auf die Benutzungsschnittstellen. Alle Interaktionen in der realen Welt sind potenziell Interaktionen mit dem Computer. Dies schafft große Potenziale für effiziente Interaktion mit Daten, aber es birgt auch ein Risiko für die Privatsphäre der Nutzer.

Forschungsbedarf: Benutzerzentrierte Entwicklungsprozesse

Der Entwicklungsprozess interaktiver Systeme muss den Benutzer und den Anwendungskontext von Anfang an konsequent mit einbeziehen. Nur so kann gewährleistet werden, dass die entwickelten Systeme den wirklichen Bedürfnissen, Wünschen und Fähigkeiten der Benutzer gerecht werden.

Während die Methoden des Usability Engineering für heutige Computersysteme recht gut erforscht sind, sind solche Methoden für grundlegend neue Arten von Computersystemen erst zu entwickeln. Nicht alle Interaktionen lassen sich beispielsweise am Kriterium der Effizienz oder Effektivität messen. Interaktionen im Alltag müssen bezüglich ihrer gesamten Erfahrbarkeit (user experience) betrachtet werden, was beispielsweise Faktoren wie Spaß oder Entspannung einschließt. Dies verlangt insbesondere nach neuen Evaluationsprozessen, Metriken und Entscheidungskriterien.

Personalisiert & adaptiv

Informatik – personalisiert & adaptiv

Personalisierung und Adaptivität bezeichnen die Fähigkeit eines Systems, sich flexibel den Bedürfnissen der aktuellen Anwendungssituation anzupassen. Dies umfasst die Anpassung an den oder die Benutzer, die aktuelle Nutzungssituation, die Anwendungsdomäne, sowie die zu erfüllende Aufgabe. Im Kontext von Informationssystemen bedeutet dies, die Nutzenden in ihrer aktuellen Situation in das Zentrum des Systems zu stellen und ihnen

  • zur richtigen Zeit (Prozess),
  • mit den richtigen Informationen (Inhalt),
  • in der richtigen inhaltlichen Form (Repräsentation)
  • und der richtigen Darstellungsweise (Präsentation) anzubieten.

Mit diesen Zielen sind eine Reihe von Fragestellungen verbunden, deren Lösung eine Herausforderung auf verschiedenen Gebieten der zukünftigen Informatikforschung darstellen. Forschungsbedarf: Reiche Nutzungs- und Inhaltsmodelle

Zu dieser Aufgabe gehören:

  • Die automatische Erkennung und Repräsentation der aktuellen Anwendungssituation (Kontextmodellierung), Informationen über die Nutzer und ihre Präferenzen, Rollen und Bedürfnisse (Benutzermodellierung)
  • Semantische Erschließung von Informationen und semantische Anreicherung der vorhandenen Informationsinhalte (Metadaten) um eine personalisierte Nutzung zu ermöglichen. Semantische Interpretation von Information
  • Die Verwendung von Benutzer- und Kontextinformationen zur Verbesserung der Effektivität und Effizienz der Informationssuche und dem Angebot einer personalisierte und adaptiven Informationspräsentation
  • Die korrekte Integration von und Übersetzung zwischen unterschiedliche interaktive Präsentation und Nutzung
  • Interaktive Repräsentations- und Präsentationsformen.
  • Situativ angepasste Nutzungsschnittstellen, die den Bedürfnissen, kognitiven Möglichkeiten und der aktuellen Nutzungssituation gerecht gestaltet werden

Echte Lösungen für die angesprochenen Probleme verlangen nach ganzheitlichen Lösungen, die Techniken aus unterschiedlichen Disziplinen wie Information Retrieval, Maschinelles Lernen und die Wissensrepräsentation kombinieren. Forschungsbedarf: Kontext und Weltwissen Eine grundlegende Voraussetzung für eine erfolgreiche Personalisierung beziehungsweise Adaption von Systemen ist die Fähigkeit, Wissen über den Kontext des Systems sowie generelles Wissen über die Anwendungsdomäne zu repräsentieren und zu verarbeiten. In den Bereich des Kontextwissens fallen hierbei Wissen über die speziellen Vorlieben des Benutzers in Form eines Benutzermodells, welches den speziellen Informationsbedarf des Benutzers, aber auch über Faktoren, welche die Darstellung der Informationen beeinflussen beinhaltet. Beispiele zusätzlicher Faktoren sind physische und technische Einschränkungen, Vorwissen und Intellektuelle Kapazität, bevorzugte Terminologie und Konzeptualisierung sowie Benutzungshistorie.

Zu den Aspekten, die den Benutzer betreffen, kommen solche, die sich aus dem Kontext ergeben. So spielt der Kontext der Anwendung hierbei eine ähnliche Rolle wie das Benutzermodell. Er bestimmt, welcher Informationsbedarf besteht und welche zusätzlichen Aspekte bei der Darstellung der Ergebnisse zu berücksichtigen sind. Der so genannte Kontext der Informationen ist oft eine notwendige Voraussetzung für die korrekte Interpretation von Informationen und bildet somit die Grundlage für die Entscheidung, ob eine Information im gegebenen Kontext relevant ist. Kontextinformationen können hierbei vielfältig sein. Neben zeitlichen und räumlichen Aspekten spielen auch die Art der Erzeugung der Informationen, die verwendete Terminologie und Konzeptualisierung und der ursprüngliche Verwendungszweck eine Rolle.

Angesichts der Bedeutung von Benutzer- und Kontextwissen stellt sich eine Reihe von Forschungsfragen, die bisher nicht zufrieden stellend beantwortet werden konnten. Insbesondere fehlen Konzepte zur Beantwortung folgender Fragestellungen:

  • Wie kann der Kontext eines Information oder Anwendung mit minimalem Aufwand automatische erfasst und Repräsentiert werden ?
  • Wie können unterschiedliche Aspekte eines Kontextes in einheitlicher Form dargestellt werden?
  • Wie können Informationen von einem Kontext in einen anderen übersetzt werden, ohne dass die intendierte Bedeutung verloren geht?
  • Wie können Kontextinformationen genutzt werden um die Suche, Interpretation und Darstellung von Informationen zu optimieren?

Unabhängig von der konkreten Anwendungssituation ist zur erfolgreichen Interpretation von Informationsinhalten, die eine Grundvoraussetzung für Adaptivität ist, häufig Weltwissen notwendig. Weltwissen bildet hierbei die Grundlage für eine ganze Reihe wichtiger Funktionen. Insbesondere liegt seine Bedeutung in der Unterstützung der Identifizierung relevanter Strukturen in Informationen (beispielsweise bestimmte Worte in einem Text oder bestimmte Texturen in einem Bild) und der Bestimmung der hieraus erwachsenden Implikationen (beispielsweise die Zuordnung zu einem bestimmten Thema oder Detektion eines bestimmten Objektes). Eine wichtige Rolle spielt Weltwissen auch bei der Beschreibung von Benutzer- und Kontextinformationen. Insbesondere ist es notwendig, die entsprechenden Beschreibungen mit Weltwissen zu verbinden, um einen Bezug zu Informationsinhalten herstellen zu können. Ein spezielles Problem ist hierbei die Notwendigkeit, Informationen in verschiedenen Kontexten miteinander zu vergleichen um etwa abschätzen zu können, ob eine bestimmte Information auch im aktuellen Kontext relevant ist. Diese Übersetzung zwischen unterschiedlichen Kontexten kann nur dann gelingen, wenn das Verhältnis der bestimmenden Kontextfaktoren ermittelt werden kann (bezeichnen zwei räumliche Angaben denselben Ort, sind die erkannten Objekte einander ähnlich). Dies kann nur auf der Grundlage von Weltwissen erfolgen.

Die formale Darstellung und Verarbeitung bestimmter Formen von Weltwissen wurde in der Vergangenheit unter dem Begriff der Ontologie bereits intensiv untersucht. Trotz allem besteht weiterhin enormer Forschungsbedarf in diesem Gebiet, insbesondere bezogen auf unterschiedliche Formen von Weltwissen, die sich nicht nur auf rein Terminologische Aspekte beziehen. Relevante Forschungsfragen sind in diesem Zusammenhang die folgenden:

  • Wie kann Weltwissen unabhängig von einer bestimmten Anwendung im System repräsentiert werden?
  • Wie kann terminologisches Wissen mit anderen Wissensformen verknüpft werden?
  • Wie kann das Weltwissen aufbereitet und maschinenverarbeitbar erschlossen werden?
  • Wie kann das jeweils als relevant identifizierte Weltwissen optimal zur Interpretation der Daten und zur Einleitung entsprechender Handlungen eingesetzt werden?

Verlässlich & sicher

Informatik – verlässlich & sicher

Wie alle technischen Systeme können auch die von der Informatik entwickelten Systeme Funktionsfehler aufweisen oder in ihrer Funktion behindert oder manipuliert werden, falls dies nicht durch geeignete Maßnahmen verhindert wird. Sicherheit und Verlässlichkeit sind besonders in den Bereichen Gesundheit, Verkehr sowie Zahlungsverkehr von größter Wichtigkeit. Denn hier betrifft der Schutz von Leib und Leben, aber auch die Absicherung finanzieller Risiken jeden einzelnen. Überall, wo technische Systeme in diesen Bereichen zum Einsatz kommen, hängt der erfolgreiche Einsatz maßgeblich vom Vertrauen der Nutzer ab. Die Informatik formuliert hier technische und formale Faktoren für Vertrauenswürdigkeit. Für Software-Technik sind beispielsweise Korrektheit, Safety (Sicherheit gegenüber Mensch und Umwelt), Dienstgüte (Performanz, Zuverlässigkeit, Verfügbarkeit), Security (Sicherheit gegenüber Angriffen) und Privacy (Einhaltung von Datenschutzbestimmungen) Qualitätsfaktoren.

Ein weiterer Punkt ist es, Software vor dem Einsatz nicht nur zu testen, sondern mittels einer Verifikation Sicherheit und Verlässlichkeit zu optimieren. Forschung ist hier, auch im Hinblick auf ihre industrielle Anwendbarkeit, notwendig. Zu diesem Themenfeld gehört auch die Robustheit von Systemen im Krisenfall. Auch unter außergewöhnlichsten Bedingungen müssen sie funktionieren. Auch hier ist Forschung nötig.

Besonders im digitalen Umgang mit Geld müssen die Systeme jedoch nicht nur verlässlich, sondern auch sicher gegen böswillige Zugriffe sein. Dabei überlisten neue Techniken immer wieder die gängigen kryptographischen Verfahren. Daher müssen zur angfristigen Sicherung neue Entwurfsmethoden in den Blick rücken, die die Gesamtanwendung berücksichtigen und nicht bei den Einzelverfahren stehen bleiben.

Forschungsbedarf: Verifikation

Von Computersystemen wird erwartet, dass sie verlässlich und sicher sind. Doch allein noch so ausgiebiges Testen von Software genügt nicht. Und je mehr sich die Gesellschaft auf das Funktionieren der diversen Systeme verlässt, desto größer wird die Tragweite von Fehlern.

Zusätzlich werden Softwaresysteme immer komplexer und größer. So schnell, dass die Suche nach Fehlern kaum Schritt halten kann. Daher wendet sich die Informatik immer mehr der so genannten Verifikation, der mathematischen Spezifikation des Verhaltens von Software zu-. Dazu beweist sie formal Eigenschaften über die Spezifikation, zum Beispiel in einem interaktiven Theorembeweiser. Anschließend extrahieren die Informatikerinnen und Informatiker das Programm aus der Spezifikation. Dieses Verfahren ist in der Hardwareindustrie schon heute weit verbreitet, in der Softwareindustrie wird es nur äußerst selten angewendet. Dabei ist die Machbarkeit dieses Verfahrens erfolgreich nachgewiesen.

Wir erwarten, dass in 10 bis 15 Jahren formale Verifikation von Programmen eine selbstverständliche Methode zur Qualitätssicherung geworden ist. Damit Deutschland auf diesem Gebiet Schritt halten kann, muss die Forschung vorangetrieben werden und die Rahmenbedingungen in der Softwareindustrie verändert werden. Wer nicht in der Lage ist, nachweislich zuverlässige und sichere Software zu produzieren, muss auch die aus Fehlern entstehenden Kosten tragen.

Forschungsbedarf: Informationssicherheit

Immer mehr Geschäftsabläufe, Verwaltungstätigkeiten und Privatangelegenheiten erledigen wir in elektronischer Form. Die Informationssicherheit soll die Zuverlässigkeit dieser Abläufe selbst im Falle eines Angriffs garantieren. Nicht nur die Netzwerke von Regierungen und Firmen sind hierbei von Angriffen bedroht, sondern auch Heimanwender. Die bekanntesten Bedrohungen sind hier Computerviren, Würmer, Trojanische Pferde sowie Phishing. Die sichere und fehlerfreie Implementierung von Systemen ist in diesem Zusammenhang eine Herausforderung für die Informatik. Ein Problem in diesem Umfeld ist beispielsweise die Bedienbarkeit von Sicherheitsmechanismen, für die es bisher noch keine intuitiven Mensch-Maschine-Schnittstellen gibt.

Zusätzlich bedrohen neue Technologien wie Quantencomputer und neuartige Algorithmen die zurzeit eingesetzten kryptographischen Verfahren, und stellen damit die Informationssicherheit in Frage. Langfristig sichere Verfahren zur Verschlüsselung, für den Schlüsselaustausch oder für digitale Signaturen sind daher ein wichtiges zu lösendes Problem.

Um Sicherheitsmechanismen vor ihrer Verwendung wissenschaftlich untersuchen zu können, benötigt man Sicherheitsmodelle, in denen Schutzziele und Angriffe modelliert werden. Sicherheitsmodelle dürfen nicht zu abstrakt sein, da sonst Angriffe übersehen werden, und sie dürfen nicht zu detailliert sein, weil sonst Analysen in dem Modell zu komplex werden. Realistische und dennoch handhabbare Sicherheitsmodelle zu finden, ist eine große Herausforderung für die Informatik. Anzustreben sind maschinenverifizierbare Sicherheitsbeweise, um menschliche Fehler ausschließen zu können. Wie dies in realistischen Sicherheitsmodellen möglich ist, ist eine Frage an die zukünftige Informatik.

Da das Funktionieren unserer Wirtschaft immer stärker von der Kommunikationsinfrastruktur abhängt, ist die störungsfreie Verfügbarkeit ein wichtiges Schutzziel. Hier sind realistische Bedrohungsmodelle und geeignete Gegenmaßnahmen, etwa gegen Denial-of-Service-Angriffe, offene Probleme. Interessant ist in diesem Zusammenhang, dass die Verfügbarkeit mit anderen Schutzzielen in Konflikt stehen kann (Fluchttüren) und eine anwendungsabhängige Risikoanalyse nötig ist. In Zukunft werden deshalb Risikomodelle benötigt, die Bedrohungen bewerten. Über die Entwicklung und Evaluierung hinaus braucht eine verlässliche Informationssicherheit konkrete Realisierungen. Oft zeigen sich bestimmte Probleme erst in der realen Umsetzung. Auch in der Miniaturisierung liegt eine Herausforderung, denn für immer kleinere Kommunikationsgeräte müssen effiziente und stromsparende kryptographische Verfahren gefunden werden.

Auch der Datenschutz wird in Zukunft ein immer größeres Problem darstellen, da viele für sich genommen harmlose Informationen zusammengenommen die Erstellung eines Persönlichkeitsprofils gestatten. Die Gewährleistung der informationellen Selbstbestimmung ist eine wichtige Herausforderung, bei der Lösungen durch die Informatik unverzichtbar sind. Eine weitere große Herausforderung für die Informatik ergibt sich durch den elektronischen Handel mit Mediendaten. Bisher gibt es etwa noch keinen Mechanismus, der sowohl Privatkopien ermöglicht als auch den Handel mit kopierten Daten unterbindet.

Forschungsbedarf: Vertrauenswürdige Software

Die Informatik muss in einer immer mehr von elektronischen Kommunikations- und Haushaltsgeräten durchdrungenen Gesellschaft nicht nur die Grundlagen das verlässliche Funktionieren geben, sondern den Nutzern außerdem Vertrauen geben. Dabei beschäftigt sie sich insbesondere mit technischen und formalen Faktoren für Vertrauenswürdigkeit. Dazu gehören aus Sicht der Software-Technik viele Qualitätsdimensionen von Software-Systemen wie Korrektheit, Safety (Sicherheit gegenüber Mensch und Umwelt), Dienstgüte (Performanz, Zuverlässigkeit, Verfügbarkeit), Security (Sicherheit gegenüber Angriffen) und Privacy (Einhaltung von Datenschutzbestimmungen).

  • Ingenieurmäßige Software-Entwicklung:
  • Die meisten der oben angeführten Qualitätsdimensionen eines Software-Systems werden maßgeblich durch seinen Entwurf bestimmt. Das bisherige Verfahren, durch Versuch und Irrtum festzustellen, ob Anforderungen bezüglich. dieser Qualitätsdimensionen eingehalten werden, ist sehr kostenintensiv und risikobehaftet. Daher werden Verfahren benötigt, die ein ingenieurmäßiges Vorgehen ermöglichen, das heißt, die Auswirkungen von Entwurfsentscheidungen auf die Qualitätseigenschaften eines Software-Systems vorherzusagen. In diesem Zusammenhang bieten komponentenbasierte Software-Architekturen als abstrakte Modelle der Software ein Pendant zu Entwurfsdokumenten etablierter Ingenieursdisziplinen.

  • Modellgetriebene Software-Entwicklung:
  • Bei der Software-Entwicklung sind Personalkosten der entscheidende Kostenfaktor. Damit ein Hochlohnland wie Deutschland auf Dauer in der Software-Entwicklung international konkurrenzfähig sein kann, sind Techniken zur Erhöhung der Produktivität bei der Erstellung hochwertiger Software von besonderer Bedeutung. Bei der modellgetriebenen Software-Entwicklung werden Generatoren eingesetzt, um aus abstrakten Modellen und Beschreibungen der Ablaufumgebung, Programme weitestgehend zu erzeugen (anstatt von Hand auszuprogrammieren). Dabei verspricht man sich eine Effizienzsteigerung bei der Software-Entwicklung, eine höhere Flexibilität sowie eine Qualitätssteigerung. Dazu ist in Bezug auf die Entwicklung vertrauenswürdiger Software Forschung wichtig zur Sicherstellung der Korrektheit der Generatoren sowie Entwurfsverfahren die zur Erstellung verlässlicher Modelle als Eingaben für diese Generatoren führen.

  • Software-Evolution:
  • Der mit Abstand größte Anteil der Kosten für Software liegt im Bereich der Weiterentwicklung bestehender Software (Software-Evolution). Häufig sind bestehende Software-Systeme bei ihrem großen Umfang und ihrer hohen Komplexität schlecht dokumentiert, so dass die Auswirkungen von Erweiterungen auf die Qualität der Software nur schwer abzuschätzen ist und oft nur mit unvertretbar hohem Aufwand sicher durchzuführen sind. Daher müssen Verfahren erforscht und validiert werden zur effektiven Migration, Integration und sicheren Weiterentwicklung von Software.

  • Theoriebildung und Empirische Absicherung:
  • Entwurfsentscheidungen und Vorgehensmodelle beruhen im Bereich der Software-Technik noch häufig auf anekdotenhaft vermittelten Erfahrungen und nicht hinterfragter “Folklore”. Wohingegen in der Theoretischen Informatik wohlerforschte formale Modelle für Berechnungen existieren, stellen in der Software-Technik Theorien die Vorhersagen über die Software mit ihren (Qualitäts-)Eigenschaften und über einen Software-Entwicklungsprozess mit seinen Eigenschaften wie Kosten, Dauer und Risiko machen, eine Herausforderung dar. Daher ist es dringend notwendig, Forschung im Bereich der Theoriebildung über Software (mit ihren Entwürfen und Architekturen) ebenso wie über Entwicklungsprozesse (mit Vorgehensmodellen, Qualitätssicherungsverfahren, etc.) zu betreiben. Die oft aufwändige Validierung dieser Theorien stellt eine eigene wissenschaftliche Leistung dar.