Jusletter IT

Laiengerechte Erzeugung von 3D-Animationen am Beispiel von textuellen Unfallbeschreibungen

  • Authors: Matthias Carnein / Erwin Quiring / Andreas Haack / Andreas Möhring / Jörg Becker
  • Category: Articles
  • Region: Germany
  • Field of law: Legal Visualisation
  • Collection: Tagungsband IRIS 2014
  • Citation: Matthias Carnein / Erwin Quiring / Andreas Haack / Andreas Möhring / Jörg Becker, Laiengerechte Erzeugung von 3D-Animationen am Beispiel von textuellen Unfallbeschreibungen, in: Jusletter IT 20 February 2014
Rechtliche Sachverhalte sind aufgrund ihrer hohen Komplexität für juristische Laien oft schwer verständlich. Um das Verständnis zu verbessern, kann es hilfreich sein, die Sachverhalte visuell darzustellen. Bisherige Ansätze zur Rechtsvisualisierung beschränken sich zumeist auf statische Verfahren. Diese sind allerdings in bestimmten Anwendungsbereichen nicht immer die optimale Form der Visualisierung. So kann eine dynamische Darstellung von Unfallsituationen im Verkehrsrecht mehr Informationen beinhalten. Zum Beispiel kann eine 3D-Visualisierung, etwa als Computeranimation, zeitliche und räumliche Veränderungen darstellen. Dynamische Darstellungen können aber komplex sein und ihre Erstellung bedarf oft technischen Wissens. Diese Arbeit befasst sich daher mit der Frage, ob auch technische Laien mit vertretbarem Aufwand derartige Visualisierungen erzeugen können. Dazu wird ein Konzept vorgestellt, welches eine automatisierte Analyse von textuellen Situationsbeschreibungen ermöglicht, um anschließend basierend auf dieser Analyse eine Animation zu erstellen. Dieses Vorgehen wird beispielhaft für Unfallsituationen im Verkehrsrecht anhand eines Software-Prototyps untersucht. Der Prototyp zeigt allerdings auch, dass die vollständige Automatisierung bisher noch nicht gelingt und ein gewisses Maß an menschlicher Interaktion weiterhin notwendig ist.

Inhaltsverzeichnis

  • 1. Motivation
  • 2. Wissenschaftlicher Kontext
  • 3. Generierung dreidimensionaler Darstellungen auf Grundlage textueller B
  • 3.1. Textinterpretation
  • 3.2. Darstellung
  • 4. Diskussion
  • 5. Danksagung
  • 6. Literatur

1.

Motivation ^

[1]

Zur Steigerung der Verständlichkeit von rechtlichen Sachverhalten für Rechtslaien existieren in der Rechtsinformatik vielfältige Visualisierungsansätze. Beispielsweise stellen Heddier & Knackstedt [2013] eine Möglichkeit zur Visualisierung der Sachverhalte in Handyverträgen vor. Diese und ähnliche Arbeiten beschäftigen sich jedoch häufig mit Sachverhalten, die durch statische Visualisierungen darstellbar sind.

[2]

Es existieren jedoch Situationen, in denen die Abfolge von Ereignissen von Bedeutung ist. Diese lassen sich nur schwer mit statischen Abbildungen darstellen. Die Verständlichkeit kann durch Hinzufügen von bewegten Animationen und Ton weiter gesteigert werden. Diese Tatsache wird unter anderem in Arbeiten von Brunschwig [2009/2010] unter dem Begriff multisensorisches Recht geprägt.

[3]
Ein Anwendungsbeispiel stellt die Beschreibung von Unfallsituationen im Verkehrsrecht dar. Die Visualisierung von Verkehrssituationen bietet den Akteuren im Verkehrsrecht, wie dem Verkehrsanwalt, dem Verkehrsrichter oder dem Klienten, die Möglichkeit, Situationen besser und anschaulicher zu beschreiben und damit Missverständnisse zu vermeiden. Zur Beschreibung dieser Unfallsituationen können bisher physische Modelle, beispielsweise Modellfahrzeuge, verwendet werden. Derartige Darstellungen können verhältnismäßig einfach und schnell erstellt werden, sind jedoch teilweise ungenau und können nur schwer und mit Informationsverlust nachhaltig dokumentiert werden. Zwar wäre eine Videoaufnahme möglich, jedoch ein nachträglicher Perspektivenwechsel ausgeschlossen.
[4]
Alternativ ist eine Computer-Animation möglich. Die Erstellung ist jedoch komplex und muss in vielen Fällen durch einen Experten durchgeführt werden. Diese Vorgehensweise führt zwar zu einer genaueren Darstellung, kann aber mit hohen Kosten verbunden sein.
[5]
Diese Arbeit untersucht, ob auch Personen ohne Fachkenntnisse eine derartige realistische Visualisierung einer Verkehrssituation erstellen können. Dazu wird ein Ansatz eines Software-Prototyps vorgestellt, der laiengerecht die Visualisierung von textuellen Unfallbeschreibungen unterstützt.
[6]
In Kapitel 2 wird zunächst auf andere Forschungsprojekte im Bereich der Rechtsvisualisierung eingegangen. Anschließend stellt Kapitel 3 die technische Realisierung einer laienfreundlichen Software-Lösung zur dynamischen Darstellung von Unfallsituationen vor. Kapitel 4 schließt mit einer Zusammenfassung und Bewertung der Ergebnisse.

2.

Wissenschaftlicher Kontext ^

[7]

In den vergangenen Jahrzehnten wurden bereits einige Ansätze zur Visualisierung von textuell beschriebenen Sachverhalten vorgestellt. Ziel dieser Ansätze ist die vereinfachte Darstellung komplexer Situationen. Bereits in den 70er Jahren wurde eines der ersten Systeme vorgestellt, dass auf Basis einer textbasierten Beschreibung eine dreidimensionale Animation generiert [Kahn 1979].

[8]

Auch im Bereich der Rechtsinformatik wurde das Potential dieser Visualisierung untersucht. Beispielsweise schlagen Passera und Haapio [2011] Visualisierung in Form von Zeitstrahlen vor, um Klarheit über den zeitlichen Ablauf eines Vertrags verständlich und eindeutig zu beschreiben.

[9]

Es existieren weitere Forschungsarbeiten, die den Einsatz von grafischen Darstellungen im Bereich des Rechts für sinnvoll erachten [Ghanavati, Siena, Perini, Amyot, Peyton & Susi 2009, Tobler & Beglinger 2008, Brunschwig 2006]. Diese Ansätze gehen in den meisten Fällen von einer manuellen Erstellung der Darstellungen aus.

[10]

Die automatisierte Erzeugung von Visualisierung lässt sich zum Beispiel auf Grundlagen von Texten durchführen. Um den Text automatisiert grafisch darzustellen, muss dieser zunächst maschinell analysiert werden. In den 1940er Jahren legte Weaver [1949/1955] in den USA den Grundstein für Forschungen im Bereich der maschinellen Verarbeitung von Sprache, wobei der Fokus auf der maschinellen Übersetzung lag [Hutchins 1999].

[11]

Den aktuellen Stand der automatisierten Textanalyse stellen zum Beispiel die Applikationen der Natural Language Processing Group der Stanford Universität dar. Diese bieten beispielsweise einen Parser, der die grammatikalischen Strukturen aus Texten erkennen kann [Stanford Parser 2014].

[12]

Neben der Interpretation von Texten ist für die automatisierte Darstellung von Situationsbeschreibungen die Überführung in eine grafische Darstellungsform notwendig. Es existieren bereits Projekte, die aus textuellen Umgebungsbeschreibungen automatisiert eine dreidimensionale Darstellung generieren. Zur vereinfachten Modellierung einer dreidimensionalen Szene entwickelte AT&T Labs [Coyne & Sproat 2001] ein System, das textuelle Gegenstands- und Umgebungsbeschreibungen in eine dreidimensionale, statische Form transformiert.

[13]

Das CarSim-Projekt der Lund University [Johansson, Williams, Berglund & Nugues 2004] verfolgt einen ähnlichen Ansatz, der sich allerdings konkret auf Unfallbeschreibungen aus Zeitungsartikeln in schwedischer Sprache konzentriert. Zusätzlich zur statischen Darstellung sind hierbei auch Animationen möglich.

[14]

Diese Arbeit nutzt einen vergleichbaren Ansatz, der für textuelle Unfallbeschreibungen in englischer Sprache automatisiert eine 3D-Darstellung sowie Animation erstellt. Dabei stehen jedoch insbesondere die laiengerechte Benutzbarkeit sowie eine realistischere Simulation im Fokus. Letzteres wird durch die Verwendung einer 3D-Animationsumgebung aus der Spielebranche (vgl. u.a. [Unreal Engine 2014]), auch Spiel-Engine genannt, vereinfacht. Diese ermöglicht eine Simulation von physikalischen Gesetzmäßigkeiten sowie eine nachträgliche Bearbeitung der generierten Szenen. Der modulare Aufbau des hier vorgestellten Ansatzes erlaubt dabei auch eine Erweiterung um weitere Sprachen und Themengebiete.

3.

Generierung dreidimensionaler Darstellungen auf Grundlage textueller B ^

[15]
Die Generierung einer 3D-Animation aus Texten wird in dem hier vorgestellten Software-Prototyp in zwei Schritten vollzogen. Zunächst wird der zugrundeliegende Text syntaktisch analysiert und mit Hilfe einer vordefinierten Wissensbasis semantisch interpretiert. Entsprechend der erkannten Informationen werden für die beschriebenen Elemente deren relative Positionen zueinander sowie deren Aktionen bestimmt. Im zweiten Schritt erfolgt die Darstellung und Animation der Elemente in einer Spiel-Engine.

3.1.

Textinterpretation ^

[16]

Die Interpretation beginnt zunächst mit einer syntaktischen Analyse, die den Text in einzelne Sätze aufteilt. Anschließend wird jeder Satz wiederum in seine Satzbestandteile aufgeteilt und die Wortarten und deren grammatikalische Beziehungen zueinander durch einen sogenannten Natural Language Parser erkannt (vgl. u.a. [Stanford Parser 2014]). Zur weiteren Verarbeitung wird dessen Ausgabe zu Paaren zusammengefasst. Ein Paar besteht aus zwei Elementen, wobei ein Element entweder das Subjekt oder ein Objekt des Satzes darstellt. Einem Paar ist dabei ein Prädikat zugeordnet, welches eine Aktion zwischen beiden Elementen beschreibt.

[17]
Abbildung 1.a zeigt solch eine Analyse für den Beispielsatz «A car drove on the street». Aufbauend auf den erkannten Wortarten und Beziehungen wird ein Paar erzeugt, welches aus zwei Elementen besteht: einem Auto sowie einer Straße. Beide Elemente sind über eine Aktion verbunden, in diesem Fall das Fahren. Durch eine ergänzende Betrachtung von beispielsweise Präpositionen, Adjektiven und Adverbien lassen sich weitere Informationen erfassen. Dies ermöglicht später zum Beispiel die Erfassung der relativen Positionen, Farben und Geschwindigkeiten von Elementen.
[18]

Diese elementbasierte Betrachtung eines Textes ermöglicht anschließend eine inhaltliche Analyse. Hierbei kann auf eine Ontologie als kontextbezogene Wissensbasis zurückgegriffen werden, welche Informationen zu dem jeweiligen Thema – wie zum Beispiel Verkehrsunfälle – strukturiert speichert [Guarino, Oberle & Staab 2009]. Damit lässt sich Elementen und Beziehungen eine inhaltliche Bedeutung zuweisen.

[19]
Durch die Verwendung eines Thesaurus und der damit verbundenen Erkennung von Synonymen und Infinitiven lässt sich die zu speichernde Datenmenge in einer Ontologie reduzieren. Zum Beispiel muss nur einmal «drive» abgelegt werden, jede konjugierte Form, wie zum Beispiel «drove», führt zu «drive».
[20]
Abbildung 1.b zeigt einen vereinfachten Ausschnitt aus einer verwendeten Ontologie, in der «car» eine Beziehung zu «street» über «drive» eingehen kann. Durch das Abgleichen der zuvor identifizierten Elemente und Beziehungen mit denen in der Ontologie, wird zum Beispiel erkannt, dass mit «drive» und «on» eine Animation verbunden ist, in der sich das Auto auf einer Straße bewegt.
[21]
Im Beispiel ergeben sich zwei Relationen, die die notwendigen Informationen zur 3D-Darstellung bereitstellen: eine statische, das Auto ist auf der Straße, sowie eine Bewegungsrelation, das Auto bewegt sich auf der Straße. Zusätzlich werden Metadaten zu den Elementen in den Relationen festgehalten, zum Beispiel die Größe oder Textur des Autos. Des Weiteren definiert die Ontologie einen Standardwert für die Geschwindigkeit des Fahrens, falls diese im Eingabetext nicht angegeben ist.
[22]
Je komplexer ein Satz ist, desto schwieriger ist allerdings seine syntaktische und semantische Interpretation. Eine vollständige, automatisierte Lösung ist somit nur bei einfachen Satzkonstruktionen gewährleistet. Aus diesem Grund erhält der Nutzer nach der Textanalyse eine erste Möglichkeit zur manuellen Nachbearbeitung. Um diese möglichst einfach zu gestalten, wird eine grafische Oberfläche bereitgestellt, die von technischen Details abstrahiert. So werden die bereits erkannten Relationen und Elemente tabellarisch angezeigt. Unvollständig erkannte Relationen werden zu Übersichtszwecken in einem separaten Bereich angezeigt, so dass der Nutzer fehlende Informationen leichter manuell hinzufügen kann. Beim Markieren einer erkannten Relation wird zusätzlich dessen Ursprung im Eingabetext farblich hinterlegt. Abbildung 2 zeigt diese Oberfläche mit der Ausgabe für den obigen Beispielsatz.
[23]

Die tabellarische Ausgabeform unterscheidet sich zum Beispiel von vorangegangenen Projekten wie CarSim, in denen die Extensible Markup Language (XML) zur Repräsentation der im Text erkannten Elemente und Aktionen verwendet wird [Johansson, Williams, Berglund & Nugues 2004].

[24]
Die Elemente aus den erzeugten Relationen werden anschließend in einem dreidimensionalen Koordinatensystem relativ zueinander positioniert. Hierfür wird ein vordefiniertes Regelwerk verwendet, welches den Positionierungsvorgang steuert. Dadurch ist unter Berücksichtigung der erkannten Beziehungen eine Standortermittlung und iterative Platzierung der Elemente möglich. Zudem werden Wegpunkte zur Darstellung von Animationen generiert.
[25]

Im zuvor erwähnten Beispielsatz initiiert die statische Relation zunächst eine zentrale Positionierung des ersten Elements, beispielsweise der Straße, im Koordinatensystem. Das nächste Element wird anhand der Relationen zum vorherigen Element ausgewählt und anschließend relativ dazu platziert. In dem genannten Beispiel wird hierdurch das Auto auf der Straße positioniert. Zusätzlich werden Wegpunkte aufgrund der Bewegungsrelation definiert. Indem das Auto später den Wegpunkten folgt, kann eine Fahrt des Autos auf der Straße dargestellt werden.

Abbildung 2 Ausschnitt aus der Erstellungs- und Nachbearbeitungsoberfläche

3.2.

Darstellung ^

[26]
Nachdem die Informationen des Eingabetextes aufbereitet wurden, müssen sie anschließend noch visuell dargestellt werden. Zu diesem Zweck bietet es sich an, auf eine Spiel-Engine zurückzugreifen, wie sie für Videospiele eingesetzt wird. Diese erlaubt eine einfache dreidimensionale Darstellung der identifizierten Szene, falls Positionen und Modelle der einzelnen Elemente bekannt sind. Ein Modell ist eine Engine-Repräsentation eines realen Objektes. So können mittels der zuvor generierten Informationen die im Text enthalten Elemente in einer dreidimensionalen Welt visualisiert werden. In dieser Welt ist eine freie und intuitive Bewegung möglich, da sich die Steuerung an Videospielen orientiert.
[27]
Neben der reinen Darstellung von Elementen bietet eine Spiel-Engine auch die Simulation physikalischer Vorgänge sowie die Verfügbarkeit von künstlicher Intelligenz (KI). Diese ermöglichen, dass die benötigte textuelle Beschreibung als Ausgangsbasis nicht zu komplex werden muss. Denn für einen Computer nötige Details, wie die genaue Rotation eines Autos bei einem Unfall, brauchen damit nicht im Text beschrieben zu werden, sondern werden von der Engine berechnet. Die Engine gleicht hierbei zu einem gewissen Grad die menschliche Implikation natürlicher Sprache aus. Für die Fahrt eines Autos braucht zum Beispiel nicht der komplette Weg beschrieben zu sein. Es reichen einige wenige Wegpunkte. Die Engine ist dann in der Lage das Auto natürlich von Punkt zu Punkt fahren zu lassen und Details wie das Drehen der Räder automatisch hinzuzufügen. Dabei wird stets versucht, die physikalischen Gesetze zu befolgen. Fahren etwa zwei Autos zum selben Zeitpunkt zum selben Ort, entsteht automatisch ein realitätsnaher Unfall, ohne dass dieser in allen Einzelheiten hätte beschrieben werden müssen.
[28]
Spiel-Engines bieten neben Physik und KI noch weitere Funktionen wie beispielsweise Menüs, Steuerung, Tageszeiten, Sound sowie Objekt-Attribute und ermöglichen somit eine umfassende Arbeitsumgebung für den Nutzer. Gerade einem Laien werden dadurch viele komplexe Aufgaben abgenommen. Durch die Nutzung der Engine verringert sich allerdings die Kontrolle über einige Details, wie zum Beispiel die angesprochene Rotation eines Autos, welche einzig durch die Physik der Engine bestimmt wird.
[29]
Da eine automatisch generierte Szene nicht zwangsläufig genau dem gewünschten Ergebnis entspricht, erhält der Nutzer auch innerhalb der Darstellungsumgebung die Möglichkeit zur manuellen Nachbesserung. Dies ist mittels der Spiel-Engine ebenfalls intuitiv machbar, da ein Nutzer die Elemente direkt «greifen» und bewegen kann, ohne dafür Parameter oder gar Quellcode ändern zu müssen. Ist die Nachbearbeitung beendet, so hat der Anwender eine realitätsnahe Simulation und Darstellung seiner textuell beschriebenen Szene, die er frei aus jeder Perspektive betrachten, anderen präsentieren und vor allem auch archivieren kann.
[30]
Abbildung 3 zeigt eine mögliche Visualisierung in der Spiel-Engine. Dabei wurde der obige Beispielsatz um weitere Sätze zur Darstellung eines komplexeren Unfallhergangs erweitert.

Abbildung 3 Visualisierung des Eingabetextes: «A car drove on a street. There were five trees on the left side of the street. The car turned right at an intersection. There was a house on the right side of the street. The car crashed into the house.»

4.

Diskussion ^

[31]
Diese Arbeit stellt ein prototypisches Konzept vor, das es ermöglicht, auf Grundlage einer textuellen Beschreibung eine dreidimensionale Animation ohne weitere Fachkenntnisse zu erstellen. Eine solch dynamische Form der Rechtsvisualisierung kann zum Beispiel die Erörterung von Schuldfragen bei Verkehrsunfällen erleichtern. So lässt sich etwa ein Unfallszenario aus verschiedenen Blickwinkeln betrachten. Durch Änderung von Parametern lässt sich die Visualisierung anpassen und so schrittweise an den tatsächlichen Unfallhergang annähern.
[32]
Der Softwareprototyp führt dazu zunächst eine Sprachanalyse durch, interpretiert den aufbereiteten Text inhaltlich, platziert die extrahierten Elemente in einer virtuellen Welt und stellt diese in einer 3D-Animationumgebung aus der Spielebranche dar. Gerade die Verwendung dieser Animationsumgebung vereinfacht dabei die Rechtsvisualisierung, da sie bereits die notwendigen Komponenten für eine realistische Animation zur Verfügung stellt, wie zum Beispiel die Simulation physikalischer Vorgänge bei einem Verkehrsunfall.
[33]
Eine vollständige Automatisierung durch den Prototyp ist allerdings aufgrund der Komplexität der Sprache noch nicht möglich. Da dadurch das Ergebnis der automatisierten Erstellung nicht zwangsläufig dem gewünschten Ergebnis entspricht, implementiert der Softwareprototyp einen zweistufigen Nachbearbeitungsprozess. Der Fokus liegt vor allem auf einer einfachen Handhabbarkeit des Systems. Nach der Textanalyse ist eine tabellarische Nachbearbeitung der aus dem Text gewonnen Relationen möglich. Im zweiten Schritt lässt sich die erzeugte Szene direkt innerhalb der Animationsumgebung intuitiv bearbeiten.
[34]
Das hier vorgestellte Konzept lässt sich auch flexibel für andere Anwendungsfälle einsetzen, da noch keine Bewertung juristischer Sachverhalte vorgenommen wird. Es werden lediglich die beschriebenen Szenen visualisiert. Damit eignet sich der Prototyp für verschiedene Gebiete der Rechtsvisualisierung, beispielsweise auch für die Rekonstruktion von Kriminalfällen. Hierfür ist eine Erweiterung der Ontologie sowie der Animationsumgebung um domänenspezifische Elemente notwendig.
[35]
Weiterer Forschungsbedarf besteht, neben der Übertragung auf andere Themengebiete, vor allem in dem automatischen Verständnis von Sprache, da komplexe Sprachkonstrukte noch nicht ausreichend in ein maschinell verständliches Format überführt werden können.
[36]
Der hier vorgestellte Ansatz zeigt die grundlegende Machbarkeit einer laienfreundlichen und zumindest teilautomatisierten Visualisierung von rechtlichen Sachverhalten. Im Gegensatz zu vorangegangen Projekten bietet der Prototyp nicht nur eine realitätsnähere Visualisierung, sondern auch eine benutzerfreundliche Oberfläche, die bei der Erstellung und Nachbearbeitung der beschriebenen Szenen unterstützt.

5.

Danksagung ^

[37]
Die Autoren bedanken sich herzlich bei Jens Meiners und Vitali Friesen für die Zusammenarbeit bei der Konzeption und Erstellung des Softwareprototyps. Besonderer Dank gilt ebenfalls Marcel Heddier für das Beisteuern von Anregungen und die Bereitschaft zur Diskussion sowie Prof. Dr. Ralf Knackstedt für die Initiierung dieser Arbeit.

6.

Literatur ^

Brunschwig, Colette R., Visualising legal information: mind maps and e-government, In: Electronic Government, an International Journal, Band 3 – Heft 4, S. 386–403 (2006).

Brunschwig, Colette R., Rechtsvisualisierung – Skizze eines nahezu unbekannten Feldes, In: Zeitschrift für Informations-, Telekommunikations- und Medienrecht (Multimedia und Recht MMR), Heft 1, S. 9–12 (2009).

Brunschwig, Colette R., Beiträge zum Multisensorischen Recht (Multisensory Law) anlässlich des Internationalen Rechtsinformatik-Symposions 2010: ein Kommentar dazu, In: Schweighofer, Erich/Geist, Anton/Staufer, Ines (Hrsg.), Globale Sicherheit und proaktiver Staat: die Rolle der Rechtsinformatik – Tagungsband des 13. Internationalen Rechtsinformatik Symposions IRIS 2010, Österreichische Computer Gesellschaft, Wien, S. 541–548 (2010).

Coyne, Bob/Sproat, Richard, WordsEye: An Automatic Text-to-scene Conversion System, In: Pocock, Lynn (Hrsg.), Proceedings of the 28th Annual Conference on Computer Graphics and Interactive Techniques, ACM Press, New York, S. 487–496 (2001).

Ghanavati, Sepideh/Siena, Alberto/Perini, Anna/Amyot, Daniel/Peyton, Liam/Susi, Angelo, A Legal Perspective on Business: Modeling the Impact of Law, In: Babin, Gilbert/Kropf, Peter/Weiss, Michael (Hrsg.), E-Technologies: Innovation in an Open World, Springer, Berlin, S. 267–278 (2009).

Guarino, Nicola/Oberle, Daniel/Staab, Steffen, What Is an Ontology?, In: Staab, Steffen/Studer, Rudi (Hrsg.), Handbook on Ontologies, Springer-Verlag, Berlin, S. 1–17 (2009).

Heddier, Heddier/Knackstedt, Ralf, Empirische Evaluation von Rechtsvisualisierungen am Beispiel von Handyverträgen, In: Schweighofer, Erich/Kummer, Franz/Hötzendorfer, Walter (Hrsg.), Abstraktion und Applikation – Tagungsband des 16. Internationalen Rechtsinformatik Symposions IRIS 2013, Österreichische Computer Gesellschaft, Wien, S. 413–420 (2013).

Hutchins, John, Retrospect and Prospect in Computer-Based Translation, In: Proceedings of MT Summit VII «MT in the great translation era», Singapore, S. 30–34 (1999).

Johansson, Richard/Williams, David/Berglund, Anders/Nugues, Pierre, Carsim: A System to Visualize Written Road Accident Reports as Animated 3D Scenes, In: Hirst, Graeme/Nirenburg, Sergei (Hrsg.), Proceedings of the 2nd Workshop on Text Meaning and Interpretation, Association for Computational Linguistics, Barcelona, S. 57–64 (2004).

Kahn, Kenneth Michael, Creation of Computer Animation from Story Descriptions, Massachusetts Institute of Technology. – Dept. of Electrical Engineering and Computer Science, 1979.

Passera, Stefania/Haapio, Helena, Facilitating Collaboration Through Contract Visualization and Modularization, In: Dittmar, Anke/Forbrig, Peter (Hrsg.), Proceedings of the 29th Annual European Conference on Cognitive Ergonomics, ECCE, Rostock, S. 57–60 (2011).

Tobler, Christa/Beglinger, Jacques, Das EUR-Charts-Projekt oder: The Making of «Essential EC Law in Charts»: Visualisierung eines Rechtsgebietes am Beispiel des Rechts der Europäischen Union, In: Schweighofer, Erich/Geist, Anton/Heindl, Gisela (Hrsg.), Komplexitätsgrenzen der Rechtsinformatik – Tagungsband des 11. Internationalen Rechtsinformatik Symposions IRIS 2008, Richard Boorberg Verlag, Stuttgart, S. 531–539 (2008).

Stanford Parser, http://nlp.stanford.edu/software/lex-parser.shtml, abgerufen am: 2. Januar 2014.

Unreal Engine, http://www.unrealengine.com/, abgerufen am: 2. Januar 2014.

Weaver, Warren, Translation, In: Locke, William Nash/Booth, Andrew Donald (Hrsg.), Machine translation of languages: fourteen essays, Technology Press of the Massachusetts Institute of Technology and Wiley, New York, S. 15–23 (1955).


 

Matthias Carnein

Studentische Hilfskraft

matthias.carnein@uni-muenster.de

 

Erwin Quiring

Wissenschaftliche Hilfskraft

erwin.quiring@uni-muenster.de

 

Andreas Haack

Student

andreas.haack@uni-muenster.de

 

Andreas Möhring

Student

a_moeh02@uni-muenster.de

 

Jörg Becker

Professor am Lehrstuhl für Wirtschaftsinformatik und Informationsmanagement, Universität Münster, European Research Center for Information Systems (ERCIS), Institut für Wirtschaftsinformatik
Leonardo-Campus 3, 48149 Münster, DE
becker@ercis.uni-muenster.de