Sie sind hier

Open Argument Mining

Politische Debatten enthalten so viele Argumente, dass fundierte Entscheidungen die kognitiven Fähigkeiten der interessierten Öffentlichkeit oder der verantwortlichen Experten überschreiten. Neue Argumente werden kontinuierlich eingebracht (Herausforderung C1), sind oft unvollständig (C2) und zum Verständnis wird Wissen über Fakten und frühere Argumente benötigt (C3).

Projektziel ist es, Algorithmen zu entwickeln, die i) ihre Fähigkeit, Argumente in laufenden Debatten zu erkennen, kontinuierlich verbessern, ii) unvollständige Argumente mit früheren Argumenten und automatisch erworbenem Hintergrundwissen verbinden und iii) semantische Wissensbasen ständig um Informationen erweitern, die zum Verständnis von Argumenten erforderlich sind.

Um diese Ziele zu erreichen, verfolgen wir einen interdisziplinären Ansatz, der die Forschungsgebiete Argument Mining und Knowledge Graph Construction kombiniert und deren Methoden erweitert. Um mit Konzeptverschiebungen in laufenden Debatten umzugehen, werden wir Argumentextraktionsmethoden mit wissensbasierten, lebenslangen Lernansätzen vorantreiben.Wir werden neue neuronale Architekturen zum Lernen von Argumentationsmerkmalen und der Beziehung zum Diskussionsthema entwickeln, semantisches Wissen in neuronale Netzwerke integrieren und Selbsttraining nutzen, um Trainingsdaten kontinuierlich zu erweitern. Zum Umgang mit unvollständigen Argumenten werden sie mit bekannten Argumenten und Hintergrundwissen verknüpft. Wir verbinden die Entitäten in Argumenten mit Hintergrundwissen, indem wir Linkfindung und Schlüsselwortsuche kombinieren. Dieses Wissen wird in inkrementelle Methoden zur Gruppierung ähnlicher Argumente in Cluster einfließen. Argumentative Relationen zwischen Clustern werden durch überwachtes Lernen ermittelt. Um das erforderliche Hintergrundwissen automatisch zu erwerben, planen wir moderne Wissensbasen mit enzyklopädischen und allgemeinemWissen (Babelnet und ConceptNet) und zielgerichteterWissensextraktion aus unstrukturierten Webkorpora (Common Crawl) zu kombinieren. Wir werden existierende Wissenseinbettungstechniken zu inkrementellen Verfahren modifizieren, um Hintergrundwissen in kontinuierliche Lernmodelle zu integrieren. Weiterer Schwerpunkt ist die Entwicklung neuer Annotationsschemata und Benchmark-Korpora, um unsere Methoden über Themen, Texttypen und unterschiedliche Zeitstempel hinweg zu evaluieren.

Das Ergebnis werden neuartige Methoden sein, um einen Offenen Argumentations Graphen zu erhalten, der Gruppen ähnlicher Argumente mit Hintergrundwissen verbindet und mit argumentativen Relationen verknüpft. Um eine breite Abdeckung von Argumentationsstilen zu gewährleisten werden wir unsere Methoden auf verschiedene Themen anwenden, die häufig in Online-Nachrichten und Twitter-Nachrichten diskutiert werden, und sowohl Evaluationen mit annotierten Golddaten als auch Post-Hoc-Auswertungen durchführen.

Allgemeine Information

Laufzeit

  • TODO

Geldgeber

  • DFG- Deutsche Forschungsgemeinschaft

Partner

  • Iryna Gurevych, TU Darmstadt
  • Christian Stab, TU Darmstadt

Prof. Dr. Steffen Staab

B 108
+49 261 287-2761
staab@uni-koblenz.de

Kurzlebenslauf

Ich habe Informatik und Computerlinguistik an der Universität Erlangen-Nürnberg und an der University of Pennsylvania studiert. Ich habe in der früheren Computerlinguistik-Forschungsgruppe an der Universität Freiburg gearbeitet und meinen Dr. rer. nat. in Informatik an der Technischen Fakultät (damals: Fakultät für angewandte Wissenschaften) 1998 erworben. Danach war ich an der Universität Stuttgart, am Institut IAT, und bei Fraunhofer IAO tätig, bevor ich zur Universität Karlsruhe (jetzt: KIT) wechselte, wo ich als Projektleiter, wissenschaftlicher Assistent und Oberassistent arbeitete. 2004 wurde ich zum Professor für Datenbanken und Informationssystem an der Universität Koblenz-Landau ernannt, wo ich 2009 das Institute for Web Science and Technologies (WeST) gründete. Seit März 2015 halte ich außerdem einen Chair for Web and Computer Science an der University of Southampton.

Forschungsinteressen

Auf dem Rechner beschreiben Daten die Welt. Die Welt ist spannend, aber Daten sind ganz schön langweilig, wenn man nicht weiß, was sie bedeuten. Ich interessiere mich dafür, wie Daten spannend werden, indem man ihre Bedeutung versteht.

Wie aber kommt Bedeutung zustande? 

  • Man kann die Bedeutung von Daten und Informationen modellieren. Begriffliche Modelle und Ontologien sind die Grundlage für Wissensnetze, die dem Rechner erlauben bedeutungsvoll mit Daten umzugehen.
  • Text und Data Mining sowie Informationsextraktion finden bedeutungstragende Muster in Daten (z.B. mittels Ontology Learning oder Text Clustering) und auch Zusammenhänge zwischen Daten und ihrer Verwendung im Kontext (z.B. mit Smartphones). So werden Wissensnetze in Daten gefunden.
  • Menschen kommunizieren Informationen. Um zu verstehen, was Daten und Informationen bedeuten, muss man soziale Interaktionen verstehen. Im Kontext von sozialen Netzwerken werden Wissensnetze bedeutungsvoll für Menschen.
  • Bedeutung ist nichts absolut Gesetztes. Letzten Endes muss die Bedeutung von Daten und Informationen wieder an den Menschen kommuniziert werden, der diese Daten und Informationen nutzt. Interaktion zwischen Menschen und Rechnern muss der Bedeutung von Daten und Informationen gerecht werden.

Das größte Konstrukt, das die Menschheit erfunden hat, um Daten mit Bedeutung zu kommunizieren ist das World Wide Web. Web Science untersucht, wie Netzwerke von Personen und Wissen im Web entstehen, wie Menschen damit umgehen und welche Folgen das für uns alle hat. Das Web ist eine Bedeutungsmaschine, die ich durch meine Forschung verstehen möchte.

Wo ich sonst zu finden bin

Wenn ich nicht gerade im Büro oder auf Dienstreise bin, bin ich am Liebsten zum Laufen im Stadtwald, im Changa oder beim AHS. Watch out! 

Dr. Claudia Schon

B 124
+49 261 287-2773
schon@uni-koblenz.de

Ich bin seit Oktober 2016 wissenschaftliche Mitarbeiterin bei WeST. Zur Zeit arbeite ich im DFG-geförderten Forschungsprojekt CoRg. Ziel dieses Projektes ist es, ein System zum Cognitive Computing zu erstellen. Dafür werden unter anderem Aspekte menschlichen Schließens wie Emotionen und zwischenmenschliche Interaktionen modelliert und klassische Logik mit normativem Schließen und Techniken des maschinellen Lernens kombiniert. 
Außerdem bin arbeite ich im DFG geförderten Projekt EVOWIPE mit, in dem wir Methoden entwickeln, um Teile einer Ontologie bewusst zu vergessen.

Meine Forschungsinteressen liegen im Bereich der künstlichen Intelligenz insbesondere Commonsense Reasoning, dem Semantic Web und der Logik (insbesondere Beschreibungslogiken).

Vor meinem Eintritt in das Institut für Web Science and Technologies war ich Mitglied der Arbeitsgruppe Künstliche Intelligenz an der Universität Koblenz-Landau. In meiner Dissertation habe ich Methoden zur Veränderung der Instanzebene von beschreibungslogischen Wissensbasen entwickelt und Präkompilationstechniken für beschreibungslogische Wissensbasen untersucht.

Hier geht es zu meiner Homepage.

Liste meiner Publikationen bei WeST siehe unten. Weitere Publikationen z.B. unter http://dblp.uni-trier.de/pers/hd/s/Schon:Claudia

Lukas Schmelzeisen

B 104
+49 261 287-2758
lukas@uni-koblenz.de