You are here

Koldfish

When designing an application that accesses and processes the Linked Open Data (LOD) cloud, a developer faces several problems: The application may need to rely on schema information that is not explicitly present in all the relevant data sources; there can be issues with data quality; the application may need to make use of provenance information; or data sources may be unavailable.

Imagine Alice, who wants to develop an application that allows users to search for interesting places to visit based on topical keywords. What issues would she need to deal with? First, she would have to hand-pick relevant data sources. Then she would need to devise a schema-based keyword/query mapping scheme and prepare and map actual queries. After creating a suitable user interface, she could align corresponding queries. The result may look great, but this is non-trivial work.

Given the nature of the Linked Data Cloud, what will happen as it evolves? What if schemata evolve? What if availability of data sources varies. How could Alice be helped in maintaining her application?

It is the purpose of Koldfish to make life easier for developers like Alice and let them abstract from repeatedly appearing LOD management issues.

Key Features of Koldfish are:

  • service oriented middleware for Linked Data applications
  • RESTful APIs for accessing service functionality
  • automatic schema extraction for query support
  • design time support through schema-based data space exploration
  • built-in data quality management

Koldfish offers a number of services that can be used through REST APIs. A crawler feeds live data from the LOD cloud to its subscribers. This is stored by the data service for later retrieval. For remote dereferencing of IRIs the data service forwards respective requests to a data access module, which in turn accesses data sources of the LOD cloud directly. A provenance service allows for retrieving provenance information the system has acquired. For the purpose of schema based data access and querying, a schema service will automatically extract and maintain type hierarchy and relationship information and create an index pointing to relevant data statements and sources. Lastly, a quality service will assess and manage the quality of data hosted by the data service.

project-coldfish.png

The Koldfish project has been renamed from SEPAL, but retains the ideas presented in the SEPAL project description.

Prof. Dr. Steffen Staab

B 108
+49 261 287-2761
staab@uni-koblenz.de

Kurzlebenslauf

Ich habe Informatik und Computerlinguistik an der Universität Erlangen-Nürnberg und an der University of Pennsylvania studiert. Ich habe in der früheren Computerlinguistik-Forschungsgruppe an der Universität Freiburg gearbeitet und meinen Dr. rer. nat. in Informatik an der Technischen Fakultät (damals: Fakultät für angewandte Wissenschaften) 1998 erworben. Danach war ich an der Universität Stuttgart, am Institut IAT, und bei Fraunhofer IAO tätig, bevor ich zur Universität Karlsruhe (jetzt: KIT) wechselte, wo ich als Projektleiter, wissenschaftlicher Assistent und Oberassistent arbeitete. 2004 wurde ich zum Professor für Datenbanken und Informationssystem an der Universität Koblenz-Landau ernannt, wo ich 2009 das Institute for Web Science and Technologies (WeST) gründete. Seit März 2015 halte ich außerdem einen Chair for Web and Computer Science an der University of Southampton.

Forschungsinteressen

Auf dem Rechner beschreiben Daten die Welt. Die Welt ist spannend, aber Daten sind ganz schön langweilig, wenn man nicht weiß, was sie bedeuten. Ich interessiere mich dafür, wie Daten spannend werden, indem man ihre Bedeutung versteht.

Wie aber kommt Bedeutung zustande? 

  • Man kann die Bedeutung von Daten und Informationen modellieren. Begriffliche Modelle und Ontologien sind die Grundlage für Wissensnetze, die dem Rechner erlauben bedeutungsvoll mit Daten umzugehen.
  • Text und Data Mining sowie Informationsextraktion finden bedeutungstragende Muster in Daten (z.B. mittels Ontology Learning oder Text Clustering) und auch Zusammenhänge zwischen Daten und ihrer Verwendung im Kontext (z.B. mit Smartphones). So werden Wissensnetze in Daten gefunden.
  • Menschen kommunizieren Informationen. Um zu verstehen, was Daten und Informationen bedeuten, muss man soziale Interaktionen verstehen. Im Kontext von sozialen Netzwerken werden Wissensnetze bedeutungsvoll für Menschen.
  • Bedeutung ist nichts absolut Gesetztes. Letzten Endes muss die Bedeutung von Daten und Informationen wieder an den Menschen kommuniziert werden, der diese Daten und Informationen nutzt. Interaktion zwischen Menschen und Rechnern muss der Bedeutung von Daten und Informationen gerecht werden.

Das größte Konstrukt, das die Menschheit erfunden hat, um Daten mit Bedeutung zu kommunizieren ist das World Wide Web. Web Science untersucht, wie Netzwerke von Personen und Wissen im Web entstehen, wie Menschen damit umgehen und welche Folgen das für uns alle hat. Das Web ist eine Bedeutungsmaschine, die ich durch meine Forschung verstehen möchte.

Wo ich sonst zu finden bin

Wenn ich nicht gerade im Büro oder auf Dienstreise bin, bin ich am Liebsten zum Laufen im Stadtwald, im Changa oder beim AHS. Watch out! 

Dominik Brosius

B 122
+49 261 287-2756
dbrosius@uni-koblenz.de

Daniel Janke

B 103
+49 261 287-2747
danijank@uni-koblenz.de

Hobbys

An Wochenenden gehe ich mit Freunden joggen. Ansonsten interessiere ich mich für die Entwicklung des Eisenbahnnahverkehrs in Rheinland-Pfalz und programmiere kleine Programme, die mir meine Arbeit vereinfachen.

Forschungsinteressen

Ich interessiere mich für die Datenverteilung und die Verarbeitung von Anfragen in verteilten RDF Stores.

Martin Leinberger

B 103
+49 261 287 2439
mleinberger@uni-koblenz.de

Timo Homburg

thomburg@uni-koblenz.de