Institute for Web Science and Technologies · Universität Koblenz - Landau

DFG Projekt: CAR

[zur Übersicht]

Conditional Argumentative Reasoning

Die Entscheidungsunterstützung bei unsicherer und widersprüchlicher Information ist eine der Kernfunktionalitäten moderner und zukünftiger KI-Systeme.

Die Entscheidungsunterstützung bei unsicherer und widersprüchlicher Information ist eine der Kernfunktionalitäten moderner und zukünftiger KI-Systeme. Diese erfordert insbesondere Methoden, die symbolisch sowohl mit unsicheren Regeln als auch mit den aus diesen Regeln konstruierten Argumenten umzugehen. Innerhalb der KI hat das Forschungsgebiet der formalen Argumentation zunehmend an Bedeutung gewonnen. Formale Argumentationsmodelle sind in der Lage, Argumente zu konstruieren, zu vergleichen und zu analysieren und so einen Ansatz zur rationalen Entscheidungsunterstützung bei widersprüchlicher Informationen zu realisieren. Im Gegensatz dazu konzentrieren sich andere Forschungsbereiche, die sich mit ähnlichen Problemen befassen - wie z.B. Default Reasoning, Defeasible Reasoning und insbesondere Conditional Reasoning - auf die Rolle von Regeln und insbesondere auf die Unsicherheit der Anwendbarkeit von Regeln. Um unsichere und widersprüchliche Informationen bewältigen zu können, müssen beide Aspekte berücksichtigt werden.

Das Projekt CAR zielt darauf ab, eine theoretische Grundlage für integrative Ansätze der Argumentation und regelbasierte Ansätze zu schaffen. Von der technischen Seite her werden Abstract Dialectical Frameworks (ADFs) und Conditional Logic (CL) betrachtet und auf die beiden folgenden Forschungsfragen fokussiert. In einem ADF wird die Akzeptanz von Argumenten durch sogenannte Akzeptanzbedingungen definiert. Man kann diese Akzeptanzbedingungen als Regeln interpretieren und erhält so eine Wissensbasis in CL. Nun kann man Schlussfolgerungsmechanismen von CL - wie z.B. System Z - anwenden und die Ergebnisse mit den ursprünglichen ADF Schlussfolgerungsmechanismen vergleichen und insbesondere die Ergebnisse argumentativ analysieren. Zweitens kann jede Wissensbasis in CL auf die gleiche Weise als ADF interpretiert werden. Jetzt kann man ADF Schlussfolgerungsmechanismen anwenden - wie z.B. stabile Semantik - und so einen neuen Schlussfolgerungsmechanismen für CL definieren. Beide Übersetzungen und die damit einhergehenden Forschungsfragen bieten Möglichkeiten, die verschiedenen Ansätze zu vergleichen. Die Untersuchung dieser beiden Ansätze wird Aufschluss darüber geben, wie diese beiden Ansätze zusammenhängen und, was noch wichtiger ist, wie sie voneinander profitieren können. Beide Forschungsbereiche haben unterschiedliche Bewertungskriterien entwickelt - wie z.B. Toy examples und Rationality Postulates - und durch unsere Übersetzungen werden für beide Bereiche jeweils neue Kriterien zur Verfügung stehen.

In diesem Projekt werden wir beide oben genannten Forschungsfragen im Detail behandeln. Konkret werden wir neuartige Schlussfolgerungsmechanismen für ADFs entwickeln, die auf CL-Schlussfolgerungsmechanismen beruhen und umgekehrt, und diese und bestehende Ansätze mit Bewertungskriterien bewerten, die von dem jeweils anderen Bereich zur Verfügung gestellt werden.

Für mehr Informationen besuchen Sie bitte die Projektwebseite (car.mthimm.de).

Details

  • Laufzeit: 10/2019 - 09/2021
  • Geldgeber: DFG - Deutsche Forschungsgesellschaft
  • Partner:
    • Technische Universität Dortmund
  • Webseite:  http://car.mthimm.de

Personen

  • thimm@uni-koblenz.de
  • Wissenschaftlicher Mitarbeiter
  • B 112
  • +49 261 287-2715