Sie sind hier

Semantic Web

Das Semantic Web ist die Vision eines weltweiten Netzes von Daten ("Linked Data"), die so aufbereitet sind, dass sie von intelligenten Systemen bei der Suche, der Verknüpfung, dem Austausch und der Zusammenstellung von Informationen genutzt werden können. Es geht über die bloße Darstellung von Informationen im heutigen Web hinaus, da die Bedeutung von Informationen (ihre Semantik) mitrepräsentiert wird.

Der Schwerpunkt der Arbeitsgruppe Semantic Web liegt in der Erarbeitung von Lösungen für die Verwaltung und Erschließung von Semantic Web Daten. Logik-basierte Verfahren erhalten hierbei ein besonderes Augenmerk, wenn es um intelligentes und robustes Schlussfolgern über Semantic-Web-Daten und die Integration von Daten aus verschiedenen Quellen geht. Dazu gehören auch Aspekte der Datenverwaltung, wie Indizierung, effizientes Anfragen und Entwicklung von Benchmarks. Man verwendet diese Methoden, um in der rasant wachsenden Menge von Linked Data schnell die relevanten Daten zu finden, auf sie zuzugreifen und sie zu analysieren.

Zu diesem Zweck erforscht die Arbeitsgruppe Semantic Web Methoden aus der Datenbankforschung, dem Information Retrieval, der Künstlichen Intelligenz und der Forschung im Semantic Web im Speziellen und betrachtet hierfür auch vielfältige Anwendungsfragen in Bereichen wie eGovernment, eScience oder Big Contact | Kontakt Semantic Data.

Daniel Janke

B 103
+49 261 287-2747
danijank@uni-koblenz.de

Hobbys

An Wochenenden gehe ich mit Freunden joggen. Ansonsten interessiere ich mich für die Entwicklung des Eisenbahnnahverkehrs in Rheinland-Pfalz und programmiere kleine Programme, die mir meine Arbeit vereinfachen.

Forschungsinteressen

Ich interessiere mich für die Datenverteilung und die Verarbeitung von Anfragen in verteilten RDF Stores.

Dr. Matthias Thimm

B 112
+49 261 287-2715
thimm@uni-koblenz.de

I am a senior researcher and group leader of the focus group "Semantic Web". I received my PhD degree from the University of Dortmund (Germany) in 2011 with the topic "Probabilistic Reasoning with Incomplete and Inconsistent Beliefs". My current research focus is on application of formal methods of artificial intelligence in the semantic web. Further interests include probabilistic reasoning with incomplete and inconsistent information in propositional and first-order representations of knowledge. I am also interested in formal models of argumentation, in particular with respect to game theoretical aspects and for application in multi-agent systems, the relationship of argumentation and belief revision, agent architectures, and security issues in multi-agent systems.

Website: http://www.mthimm.de

Martin Leinberger

B 103
+49 261 287 2439
mleinberger@uni-koblenz.de

Prof. Dr. Steffen Staab

B 108
+49 261 287-2761
staab@uni-koblenz.de

Kurzlebenslauf

Ich habe Informatik und Computerlinguistik an der Universität Erlangen-Nürnberg und an der University of Pennsylvania studiert. Ich habe in der früheren Computerlinguistik-Forschungsgruppe an der Universität Freiburg gearbeitet und meinen Dr. rer. nat. in Informatik an der Technischen Fakultät (damals: Fakultät für angewandte Wissenschaften) 1998 erworben. Danach war ich an der Universität Stuttgart, am Institut IAT, und bei Fraunhofer IAO tätig, bevor ich zur Universität Karlsruhe (jetzt: KIT) wechselte, wo ich als Projektleiter, wissenschaftlicher Assistent und Oberassistent arbeitete. 2004 wurde ich zum Professor für Datenbanken und Informationssystem an der Universität Koblenz-Landau ernannt, wo ich 2009 das Institute for Web Science and Technologies (WeST) gründete. Seit März 2015 halte ich außerdem einen Chair for Web and Computer Science an der University of Southampton.

Forschungsinteressen

Auf dem Rechner beschreiben Daten die Welt. Die Welt ist spannend, aber Daten sind ganz schön langweilig, wenn man nicht weiß, was sie bedeuten. Ich interessiere mich dafür, wie Daten spannend werden, indem man ihre Bedeutung versteht.

Wie aber kommt Bedeutung zustande? 

  • Man kann die Bedeutung von Daten und Informationen modellieren. Begriffliche Modelle und Ontologien sind die Grundlage für Wissensnetze, die dem Rechner erlauben bedeutungsvoll mit Daten umzugehen.
  • Text und Data Mining sowie Informationsextraktion finden bedeutungstragende Muster in Daten (z.B. mittels Ontology Learning oder Text Clustering) und auch Zusammenhänge zwischen Daten und ihrer Verwendung im Kontext (z.B. mit Smartphones). So werden Wissensnetze in Daten gefunden.
  • Menschen kommunizieren Informationen. Um zu verstehen, was Daten und Informationen bedeuten, muss man soziale Interaktionen verstehen. Im Kontext von sozialen Netzwerken werden Wissensnetze bedeutungsvoll für Menschen.
  • Bedeutung ist nichts absolut Gesetztes. Letzten Endes muss die Bedeutung von Daten und Informationen wieder an den Menschen kommuniziert werden, der diese Daten und Informationen nutzt. Interaktion zwischen Menschen und Rechnern muss der Bedeutung von Daten und Informationen gerecht werden.

Das größte Konstrukt, das die Menschheit erfunden hat, um Daten mit Bedeutung zu kommunizieren ist das World Wide Web. Web Science untersucht, wie Netzwerke von Personen und Wissen im Web entstehen, wie Menschen damit umgehen und welche Folgen das für uns alle hat. Das Web ist eine Bedeutungsmaschine, die ich durch meine Forschung verstehen möchte.

Wo ich sonst zu finden bin

Wenn ich nicht gerade im Büro oder auf Dienstreise bin, bin ich am Liebsten zum Laufen im Stadtwald, im Changa oder beim AHS. Watch out!