Sie sind hier

Koldfish

Ein Entwickler wird beim Design einer Anwendung für den Zugriff und die Verarbeitung der Linked Open Data (LOD) Cloud auf einige Probleme stoßen: die Anwendung könnte abhängig sein von Schemainformation, die für die relevanten Datenquellen nicht explizit verfügbar ist; es könnte unerwartete Probleme mit der Datenqualität geben; die Anwendung könnte auf Provenance-Information angewiesen sein; Datenquellen könnten zumindest zeitweise unerreichbar für Zugriffe sein.

Stellen wir uns Alice vor. Sie möchte eine Anwendung entwickeln, die es Benutzern erlaubt nach interessanten Orten zu suchen, basierend auf thematischen Keywords. Welchen Problemen müsste sie sich dabei stellen? Zunächst müsste Alice relevante Datenquellen aus der LOD-Cloud sorgfältig auswählen. Danach müsste sie sich eine Möglichkeit überlegen Keywords auf Abfragen abzubilden und solche Abfragen auch vorbereiten. Nach dem Erstellen einer passenden Benutzeroberfläche, kann Sie schließlich ihre Queries mit GUI und Programmlogik passend verknüpfen. Die Anwendung kann im Ergebnis großartig aussehen, aber der Weg dorthin ist für Alice nicht leicht.

Angesichts der Beschaffenheit der Linked-Data-Cloud stellt sich die Frage, was bei den im Laufe der Zeit zu erwartenden Veränderungen zu tun ist. Wie kann Alice dabei geholfen werden, ihre Applikation zu warten?

Das Ziel von Koldfish ist es, Entwicklern wie Alice das Leben zu erleichtern und es ihnen zu ermöglichen von wiederkehrenden LOD-Management-Aufgaben zu abstrahieren.

Key-Features von Koldfish sind:

  • serviceorierentierte Middleware für Linked-Data-Anwendungen
  • RESTful APIs für den Zugriff auf Servicefunktionalitäten
  • automatische Schemaextraktion für die Unterstützung von Queries
  • Unterstützung zur Design-Zeit durch schemabasierte Exploration des Datenraums
  • eingebautes Management der Datenqualität

Koldfisch bietet eine Reihe von Services, die jeweils durch RESTful APIs von außen verfügbar sind. Ein Crawler stellt zunächst jedem seiner Subscriber Daten der LOD-Cloud zur Verfügung. Zu diesen Subscribern zählt der Data Service, der die eingehenden Daten für den späteren Zugriff lokal speichert. Für die Dereferenzierung von IRIs beauftragt der Data Service seinerseits das Data Access Module, das entsprechende Request entgegen nimmt und direkt an die  zugehörigen LOD-Datenquellen richtet. Ein Provenance Service ermöglicht es, Provenance-Information abzufragen, die das System bereits zu bestimmten Ressourcen gesammelt hat. Für den schemabasierten Datenzugriff extrahiert und verwaltet der Schema Service automatisch Typhierarchien und -Beziehungen. Der Service erstellt dazu auch einen Index, der auf relevante Datenquellen und Statements verweist. Schließlich besitzt das System einen Quality Service. Dieser bewertet kontinuierlich die Qualität der vom Data Service gespeicherten Daten nach verschiedenen Gesichtspunkten und unterstützt das Management der Datenqualität.

project-coldfish.png

Das Koldfish-Projekt entwickelte sich durch Umbenennung aus SEPAL, verfolgt aber dieselben Ideen, die auch in der SEPAL-Projektbeschreibung dargestellt werden.

Prof. Dr. Steffen Staab

B 108
+49 261 287-2761
staab@uni-koblenz.de

Kurzlebenslauf

Ich habe Informatik und Computerlinguistik an der Universität Erlangen-Nürnberg und an der University of Pennsylvania studiert. Ich habe in der früheren Computerlinguistik-Forschungsgruppe an der Universität Freiburg gearbeitet und meinen Dr. rer. nat. in Informatik an der Technischen Fakultät (damals: Fakultät für angewandte Wissenschaften) 1998 erworben. Danach war ich an der Universität Stuttgart, am Institut IAT, und bei Fraunhofer IAO tätig, bevor ich zur Universität Karlsruhe (jetzt: KIT) wechselte, wo ich als Projektleiter, wissenschaftlicher Assistent und Oberassistent arbeitete. 2004 wurde ich zum Professor für Datenbanken und Informationssystem an der Universität Koblenz-Landau ernannt, wo ich 2009 das Institute for Web Science and Technologies (WeST) gründete. Seit März 2015 halte ich außerdem einen Chair for Web and Computer Science an der University of Southampton.

Forschungsinteressen

Auf dem Rechner beschreiben Daten die Welt. Die Welt ist spannend, aber Daten sind ganz schön langweilig, wenn man nicht weiß, was sie bedeuten. Ich interessiere mich dafür, wie Daten spannend werden, indem man ihre Bedeutung versteht.

Wie aber kommt Bedeutung zustande? 

  • Man kann die Bedeutung von Daten und Informationen modellieren. Begriffliche Modelle und Ontologien sind die Grundlage für Wissensnetze, die dem Rechner erlauben bedeutungsvoll mit Daten umzugehen.
  • Text und Data Mining sowie Informationsextraktion finden bedeutungstragende Muster in Daten (z.B. mittels Ontology Learning oder Text Clustering) und auch Zusammenhänge zwischen Daten und ihrer Verwendung im Kontext (z.B. mit Smartphones). So werden Wissensnetze in Daten gefunden.
  • Menschen kommunizieren Informationen. Um zu verstehen, was Daten und Informationen bedeuten, muss man soziale Interaktionen verstehen. Im Kontext von sozialen Netzwerken werden Wissensnetze bedeutungsvoll für Menschen.
  • Bedeutung ist nichts absolut Gesetztes. Letzten Endes muss die Bedeutung von Daten und Informationen wieder an den Menschen kommuniziert werden, der diese Daten und Informationen nutzt. Interaktion zwischen Menschen und Rechnern muss der Bedeutung von Daten und Informationen gerecht werden.

Das größte Konstrukt, das die Menschheit erfunden hat, um Daten mit Bedeutung zu kommunizieren ist das World Wide Web. Web Science untersucht, wie Netzwerke von Personen und Wissen im Web entstehen, wie Menschen damit umgehen und welche Folgen das für uns alle hat. Das Web ist eine Bedeutungsmaschine, die ich durch meine Forschung verstehen möchte.

Wo ich sonst zu finden bin

Wenn ich nicht gerade im Büro oder auf Dienstreise bin, bin ich am Liebsten zum Laufen im Stadtwald, im Changa oder beim AHS. Watch out! 

Dominik Brosius

B 122
+49 261 287-2756
dbrosius@uni-koblenz.de

Daniel Janke

B 103
+49 261 287-2747
danijank@uni-koblenz.de

Hobbys

An Wochenenden gehe ich mit Freunden joggen. Ansonsten interessiere ich mich für die Entwicklung des Eisenbahnnahverkehrs in Rheinland-Pfalz und programmiere kleine Programme, die mir meine Arbeit vereinfachen.

Forschungsinteressen

Ich interessiere mich für die Datenverteilung und die Verarbeitung von Anfragen in verteilten RDF Stores.

Timo Homburg

thomburg@uni-koblenz.de

Martin Leinberger

B 103
+49 261 287 2439
mleinberger@uni-koblenz.de