Sie sind hier

EU Integrated Project SocialSensor

Ziel des SocialSensor-Projektes ist es aus benutzererzeugten Inhalten und den Interaktionen der Benutzer auf sozialen Netzwerkplattformen mittels Data-Mining-Verfahren und Aggregation neue Informationen und (Handlungs-)Empfehlungen zu generieren. Dazu wird das SocialSensor-Framework entwickelt, das eine Indizierung und Suche von textuellen und insbesondere multmedialen Inhalten aus dem Social Web in nahezu Echtzeit erlaubt. Informationen über das Interaktionsverhalten und die Aktivitäten der Benutzer auf sozialen Netzwerkplatform fließen dabei direkt in die Multimedia-Analyse und -Suche ein. Beispielsweise werden Benutzerbeiträge in Form von Kommentaren und Bewertungen analysiert um Trends und wichtige Ereignisse zu erkennen. Diese werden zusammen mit den sozialen Netzwerkbeziehungen genutzt, um Empfehlungen für andere Benutzer auszusprechen. Darüber hinaus werden nach dem mensch-zentrierten Ansatz neuartige Benutzungsschnittstellen zur Visualisierung und Exploration der sozialen Medien entwickelt.

Die Ergebnisse des SocialSensor-Projektes werden an zwei Anwendungsfällen demonstriert und evaluiert: Im ersten Anwendungsfall werden Nachrichten von professionellen Editoren und Journalisten um interessante und relevante Multimedia-Inhalte aus den sozialen Netzwerken ergänzt. Im zweiten Anwendungsfall Infotainment werden den Besuchern von großen Ereignissen wie beispielsweise Festivals neue Multimedia-Suchwerkzeuge und Möglichkeiten der Konsumierung der sozialen Medien angeboten. Durch die Indizierung und Möglichkeit der Konsumierung der Inhalte in nahezu Echtzeit wird SocialSensor einen signifikanten Einfluss auf beide Anwendungsbereiche haben.

Offizielle Webseite des Projekts
 

Laufzeit

  • TBD

Drittmittelgeber

  • EU, 7th Framework Programme, Information Society Technologies (IST), Integrated Project (IP-FP7-287975)

Partner

  • Centre for Research and Technology Hellas, Thessaloniki, Griechenland
  • Alcatel-Lucent Bell Labs, Frankreich
  • Yahoo Research Barcelona, Spanien
  • City University London, England
  • Athens Technology Center S.A., Griechenland
  • Deutsche Welle, Deutschland
  • German Research Center for Artificial Intelligence GmbH, Deutschland
  • IBM Research Haifa, Israel
  • Universität Klagenfurt, Österreich
  • JCP-Consult S.A.S., Frankreich

Prof. Dr. Steffen Staab

B 108
+49 261 287-2761
staab@uni-koblenz.de

Kurzlebenslauf

Ich habe Informatik und Computerlinguistik an der Universität Erlangen-Nürnberg und an der University of Pennsylvania studiert. Ich habe in der früheren Computerlinguistik-Forschungsgruppe an der Universität Freiburg gearbeitet und meinen Dr. rer. nat. in Informatik an der Technischen Fakultät (damals: Fakultät für angewandte Wissenschaften) 1998 erworben. Danach war ich an der Universität Stuttgart, am Institut IAT, und bei Fraunhofer IAO tätig, bevor ich zur Universität Karlsruhe (jetzt: KIT) wechselte, wo ich als Projektleiter, wissenschaftlicher Assistent und Oberassistent arbeitete. 2004 wurde ich zum Professor für Datenbanken und Informationssystem an der Universität Koblenz-Landau ernannt, wo ich 2009 das Institute for Web Science and Technologies (WeST) gründete. Seit März 2015 halte ich außerdem einen Chair for Web and Computer Science an der University of Southampton.

Forschungsinteressen

Auf dem Rechner beschreiben Daten die Welt. Die Welt ist spannend, aber Daten sind ganz schön langweilig, wenn man nicht weiß, was sie bedeuten. Ich interessiere mich dafür, wie Daten spannend werden, indem man ihre Bedeutung versteht.

Wie aber kommt Bedeutung zustande? 

  • Man kann die Bedeutung von Daten und Informationen modellieren. Begriffliche Modelle und Ontologien sind die Grundlage für Wissensnetze, die dem Rechner erlauben bedeutungsvoll mit Daten umzugehen.
  • Text und Data Mining sowie Informationsextraktion finden bedeutungstragende Muster in Daten (z.B. mittels Ontology Learning oder Text Clustering) und auch Zusammenhänge zwischen Daten und ihrer Verwendung im Kontext (z.B. mit Smartphones). So werden Wissensnetze in Daten gefunden.
  • Menschen kommunizieren Informationen. Um zu verstehen, was Daten und Informationen bedeuten, muss man soziale Interaktionen verstehen. Im Kontext von sozialen Netzwerken werden Wissensnetze bedeutungsvoll für Menschen.
  • Bedeutung ist nichts absolut Gesetztes. Letzten Endes muss die Bedeutung von Daten und Informationen wieder an den Menschen kommuniziert werden, der diese Daten und Informationen nutzt. Interaktion zwischen Menschen und Rechnern muss der Bedeutung von Daten und Informationen gerecht werden.

Das größte Konstrukt, das die Menschheit erfunden hat, um Daten mit Bedeutung zu kommunizieren ist das World Wide Web. Web Science untersucht, wie Netzwerke von Personen und Wissen im Web entstehen, wie Menschen damit umgehen und welche Folgen das für uns alle hat. Das Web ist eine Bedeutungsmaschine, die ich durch meine Forschung verstehen möchte.

Wo ich sonst zu finden bin

Wenn ich nicht gerade im Büro oder auf Dienstreise bin, bin ich am Liebsten zum Laufen im Stadtwald, im Changa oder beim AHS. Watch out! 

Dr. Matthias Thimm

B 112
+49 261 287-2715
thimm@uni-koblenz.de

Ich bin PostDoc und Gruppenleiter der Fokusgruppe "Semantic Web". Ich habe 2011 an der Universität Dortmund zum Thema "Probabilistic Reasoning with Incomplete and Inconsistent Beliefs". Meine aktuellen Forschungsinteressen liegen in der Anwendung formaler Methoden der Künstlichen Intelligenz im Semantic Web. Meine weiteren Interessen liegen in probabilistischem Schliessen mit unvollständiger und unsicherer Information in sowohl aussagenlogischen als auch prädikatenlogischen Wissensrepräsentationsformalismen. Ich bin weiterhin interessiert an formalen Modellen zu Argumentation, insbesondere bezüglich spieltheoretischen Aspekten und ihrer Anwendung in Multiagentensystemen, an der Beziehung zwischen Argumentation und Wissensrevision, Agentenarchitekturen und Sicherheitsaspekten in Multiagentensystemen.

Webseite: http://www.mthimm.de

René Pickhardt

B 104
+49 261 287-2765
rpickhardt@uni-koblenz.de

Persönlich

Ich bin ein heavy metal fan und zusätzlich ein blogger. Zu meinen Themen gehören Open access sowie open education und open source.

Meine Begeisterung für die Zusammenarbeit mit Schülern zeigt sich in meinen 4 Kursen die ich an der Deutschen Schülerakademie.gehalten habe.

Ich Interessiere mich für Bitcoins und habe gemeinsam mt Jonas Kunze einen dogecoin pool gestartet.

Mein persönlicher Held ist Aaron Schwartz.

Forschung

Mein Hauptforschungsthema ist Language models. Insbesondere habe ich die Theorie der generalisierten Language Models entwickelt.

Ich interessiere mich für hoch skalierbare Systeme und alles was mit high performance computing und sozialen Netzwerken zu tun hat.

Lehre ist eine der schönsten Tätigkeiten an im Leben eines Wissenschaftlers. Deswegen habe ich den Web Science MOOC erstellt.