1.
Einleitung ^
[1]
Wie in vielen anderen Bereichen ist es auch bei der semantischen Suche zunächst notwendig, die aktuelle Situation am Markt zu analysieren. Es stellen sich Fragen nach den Benutzergruppen und ihren Bedürfnissen, beziehungsweise zu welchem Grad diese Bedürfnisse bereits gedeckt werden und wo es noch Lücken gibt. Selbstverständlich ist es nicht immer möglich ein Tool zu haben, welches alle vorhandenen Probleme eines Anwendungsfeldes löst, allerdings kann man durch die Analyse der vorhandenen Technologien und dem Kombinieren und Erweitern vorhandener Lösungen eine gute Basis für Verbesserungen schaffen.
[2]
Das Umfeld im Bereich der semantischen Suche muss daher zunächst einmal evaluiert werden. Dabei ist es selbstverständlich auch wichtig das Resultat der Evaluierung entsprechend in aussagekräftige Anforderungen, die eine Verbesserung der Ausgangssituation erzielen können, umzuwandeln.
[3]
Die Evaluierung selbst ist daher ein Prozess, der den Informationsfluss zwischen Benutzern und Entwicklern unterstützen muss. Nur dies kann einen Erfolg garantieren und die Bedürfnisse der Benutzer stillen.
1.1.
Allgemeine Ziele ^
[4]
Um dieses Problem zu lösen, ist es erforderlich eine Semantic Web Lösung zu implementieren, um die Lücke beim Auffinden der Ressourcen zu schließen, welche es verhindert vollständigen und leichten Zugriff zu Webinhalten zu besitzen (siehe Abbildung 1) [TaToo 2010]. Für die Implementierung dieser Lösung sind folgende Teilschritte erforderlich:
- das Ermöglichen einer automatischen und halb-automatischen Akquisition von Metainformationen aus existierenden Webressourcen,
- das Verfügbarmachen einer Methodologie zur Strukturierung der akquirierten Metainformationen,
- Entwurf und Implementierung einer Softwarearchitektur zum semantischen Tagging von Ressourcen.
Abbildung 1: Informationsfluss beim Tagging von Ressourcen [TaToo 2010]
1.2.
Technologische Ziele ^
[5]
Um eine Sammlung von Tools zur Unterstützung des semantischen Taggings zu generieren, ist die Erfüllung folgender technischer Anforderungen notwendig [TaToo 2010]:
- Tools zum Tagging von aufgefundenen oder bereits bekannten Ressourcen. Dies bedeutet das Annotieren beliebiger Ressourcen durch Hinzufügen von Text. Dieser Text kann eine Referenz zu einem anderen Kommentar, eine Referenz zu einer Ontologie nach dem eigenen Verständnis, ein Link zu einem Experten oder ein Link zu Kommentaren anderer Personen, welche die Ressource als interessant, wertvoll oder falsch eingestuft haben, sein.
- Tools zur semantikbasierten Validierung, Verifikation und Evaluierung von Tags. Dies bedeutet, dass ein Interessensgegenstand von Statusinformationen über seine Qualität begleitet wird. Dies verringert die Quantität und erhöht die Qualität und Präzision der Suchergebnisse.
- Standardisierte, offene und veröffentlichte Serviceschnittstellen zur Suche und Abfrage von semantisch getaggten Ressourcen. Die Serviceschnittstelle wird ebenso von einer spezifischen Webseite, welche die Benutzerschnittstelle für den Service zur Verfügung stellt, verwendet.
- Sammlung von wiederverwendbaren Webkomponenten, die es unabhängigen Dritten erlauben zu einem Geschäftsmodell überzugehen, in welchem sie als Anbieter von Metainformationsservices für Ressourcen verschiedener Besitzer agieren. Dies geschieht durch das Hinzufügen von Metainformationen, Bedeutung oder Verarbeitungsmöglichkeiten zu diesen Ressourcen.
2.
State-of-the-Art ^
[6]
Folgende Punkte sind bezeichnend für den aktuellen Stand der Technologien im Bereich der semantischen Suche und des Semantic Web [TaToo 2010]:
- Es wäre bedeutungslos einen weiteren Zugriffsstandard zu erzeugen, vielmehr sollte der Ansatz, existierende Standards zu verwenden, verfolgt werden.
- Die Last, Zugriff zu existierenden Ressourcen zu garantieren, kann nicht allein vom Besitzer der Ressource getragen werden. Benutzergruppen müssen hier eine proaktive Rolle spielen.
- Existierende Ressourcen dürfen keine Upgrades, Redeployment und Reimplementierung erfordern. Die Lösung sollte kostengünstig sein und eine hohe Qualität garantieren.
[7]
Das Hauptaugenmerk muss daher auf der Entwicklung von Tools liegen, welche es Dritten ermöglichen Ressourcen im Web einfach aufzufinden und wertvolle Informationen in Form von semantischen Annotationen hinzuzufügen.
[8]
Die wichtigsten Aufgaben hierbei sind das Einbetten von Strukturen, Methoden und Protokollen für die Verkettung von Services und das Management der Effekte von Unsicherheitsverbreitung im darunterliegenden semantischen Framework.
3.
Tools ^
[9]
Wie bereits erwähnt gibt es zahlreiche Tools zur semantischen Suche, semantischen Bearbeitung, sowie allgemein im Bereich des Semantic Web.
[10]
Im Folgenden soll nun ein Einblick in einige der bekanntesten Tools im Bereich Semantik gegeben werden.
3.1.
GATE ^
[11]
GATE (General Architecture for Text Engineering) verfolgt folgende Ziele [Cunningham et al. 1996]:
1. Unterstützung des Informationsaustausches zwischen LE (Language Engineering) Modulen auf höchstmöglichem Level;
2. Unterstützung der Integration von Modulen, welche in einer beliebigen Sprache und auf einer gebräuchlichen Plattform entwickelt wurden;
3. Unterstützung der Evaluierung und Verfeinerung von LE Modulen und von darauf aufbauenden Systemen mit einem einheitlichen, leicht verwendbaren, graphischen Interface, welches Datenvisualisierung und Korpus-Management anbietet.
2. Unterstützung der Integration von Modulen, welche in einer beliebigen Sprache und auf einer gebräuchlichen Plattform entwickelt wurden;
3. Unterstützung der Evaluierung und Verfeinerung von LE Modulen und von darauf aufbauenden Systemen mit einem einheitlichen, leicht verwendbaren, graphischen Interface, welches Datenvisualisierung und Korpus-Management anbietet.
[12]
Entsprechend diesen drei Zielen bietet GATE drei Hauptelemente an, um die Aufgaben zu erfüllen: GDM, den GATE Document Manager, basierend auf dem TIPSTER Document Manager; CREOLE (Collection of Reuseable Objects for Language Engineering), eine Sammlung von LE Modulen, die in das System integriert wurden; und GGI (GATE Graphical Interface), ein Entwicklungstool für LE R&D, welches integrierten Zugriff auf Services der anderen Komponenten, sowie Visualisierung und Debugging Tools anbietet.
3.2.
Protégé ^
[13]
Protégé ist eine freie open-source Plattform mit einer wachsenden Benutzer-Community und einer Palette von Tools zur Erzeugung von Domain Models und knowledge-basierten Applikationen mit Ontologien [Protégé 2010]. Als Kernfunktionalität implementiert Protégé eine reichhaltige Ansammlung von knowledge-modeling Strukturen und Aktionen, welche das Erzeugen von Visualisierung und Manipulation von Ontologien in verschiedenen Formaten unterstützen. Protégé kann angepasst werden, um domain-freundlichen Support zur Erzeugung von Knowledge-Modellen und Dateneingabe zu unterstützen. Darüber hinaus kann Protégé mit Hilfe von Plug-Ins und einem Java-basierten API erweitert und verwendet werden, um knowledge-basierte Tools und Applikationen zu erzeugen.
[14]
Eine Ontologie beschreibt die Konzepte und Beziehungen, die in einer bestimmten Domäne wichtig sind, indem sie ein Vokabular, sowie eine Spezifikation für die Bedeutung der in einem Vokabular verwendeten Begriffe für diese Domäne zur Verfügung stellt. Ontologien reichen von Taxonomien und Klassifikationen, Datenbankschemata, bis zu vollständig axiomierten Theorien. In den letzten Jahren wurden Ontologien in verschiedenen Communities zum Verbreiten, Wiederverwenden und Verarbeiten von Domänenwissen angewandt. Mittlerweile sind Ontologien ein wichtiger Bestandteil vieler Applikationen, wie beispielsweise bei wissenschaftlichen Wissensportalen, Informationsmanagement- und Integrationssystemen, Electronic Commerce und semantischen Web Services.
[15]
Die Protégé Plattform unterstützt zwei Hauptarten der Modellierung von Ontologien:
- Der Protégé-Frames Editor ermöglicht es einem Benutzer Ontologien, die frame-based sind und mit dem Open Knowledge Base Connectivity Protokoll (OKBC) übereinstimmen, zu erzeugen und zu befüllen. In diesem Modell besteht eine Ontologie aus einem Set von Klassen, die in einer zusammenfassenden Hierarchie organisiert sind, um Konzepte einer Domäne zu repräsentieren, einem Set von Slots, die zu Klassen assoziiert sind und deren Attribute und Beziehungen beschreiben, und einem Set von Instanzen dieser Klassen.
- Der Protégé OWL Editor ermöglicht es Benutzern Ontologien für das Semantic Web in der Web Ontology Language (OWL) zu erzeugen. Eine OWL Ontologie kann Beschreibungen von Klassen, Attribute und ihre Instanzen enthalten. Mit solch einer Ontologie spezifiziert die formale OWL Semantik, wie ihre logischen Konsequenzen abgeleitet werden können. Dies kann auf einem einzigen Dokument oder mehreren verteilten Dokumente, die durch OWL Mechanismen kombiniert wurden, basieren.
3.3.
SESAME ^
[16]
RDF ist ein Framework zur Beschreibung von Ressourcen und eine W3C Empfehlung für die Notation von Metadaten im World Wide Web. RDF Schema bietet Entwicklern Mittel zur Spezifizierung des Domänenvokabulars und zur Modellierung der Objektstrukturen und erweitert dadurch diesen Standard [Fensel et al. 2005].
[17]
Diese Techniken ermöglichen das Anreichern des Web mit maschinen-verarbeitbarer Semantik und erhöhen dadurch die Synchronisierung mit dem Semantic Web. Es ist jedoch nicht genug, diese Daten verfügbar zu haben. Es sind zusätzlich Werkzeuge erforderlich, um die Informationen zu verarbeiten, umzuwandeln und zu verwenden. Sesame, als eine Architektur für effiziente Speicherung und ausdrucksstarkes Abfragen großer Mengen an RDF Metadaten, stellt eine Basis dafür dar.
3.4.
Jena ^
[18]
Eine Ontologie erlaubt dem Entwickler, die Konzepte und Beziehungen, die eine Domäne charakterisieren, auf eine offene und bedeutungsvolle Art und Weise zu spezifizieren [Jena API 2010]. Diese Ontologie kann für eine bestimmte Applikation entwickelt werden. Als solche kann sie mit einem gut definierten Datenbankschema verglichen werden. Der Vorteil der Ontologie ist, dass sie eine explizite, erstklassige Beschreibung darstellt. Daher kann eine Ontologie, die für einen bestimmten Zweck entwickelt wurde, auch für andere Zwecke veröffentlicht und wiederverwendet werden.
[19]
Es gibt viele Wege, um eine Ontologie zu erzeugen und eine vielfältige Auswahl an Optionen für die Definitionen, die Teil der Ontologien sein können. In der Praxis sind die Inhalte einer Ontologie stark von der Art der Applikation abhängig, die unterstützt werden soll. In Jena wird nicht eine bestimmte Sicht auf die minimalen und notwendigen Komponenten einer Ontologie betrachtet. Vielmehr wird versucht verschiedene, übliche Techniken zu unterstützen.
[20]
Da Jena eine RDF Plattform ist, ist Jena's Unterstützung für Ontologien auf Ontologieformalismen, die auf RDF aufbauen beschränkt. Im Speziellen bedeutet das RDFS, OWL und DAML+OIL.
3.5.
Magpie ^
[21]
Webbrowsing beinhaltet zwei Aufgaben: die richtige Webseite finden und danach einen Sinn aus dem Inhalt ableiten [Dzbor et al. 2003]. Bisher fokussierte sich die Forschung auf die Unterstützung der Suche nach Webressourcen durch gewöhnliche Information Retrieval Mechanismen oder semantikfähige Suche. Viel weniger Aufmerksamkeit wurde dem zweiten Problem gewidmet. Um sich auch dieses Problems anzunehmen, wurde Magpie, welches die Interpretation der Webseiten unterstützt, entwickelt.
[22]
Magpie bietet abgestimmte Wissensquellen an, welche einen schnellen Zugang zu, für eine Webressource wichtigen, Hintergrund liefern. Es assoziiert automatisch eine ontologiebasierte semantische Schicht zu einer Webressource und erlaubt es relevanten Services, in einem Standardbrowser aufgerufen zu werden. Daher kann Magpie als ein Schritt in die Richtung zu einem semantischen Webbrowser gesehen werden.
3.6.
Time Series Toolbox ^
[23]
Sensornetzwerke nehmen oft dieselbe Art von Observationen immer wieder auf, und Applikationen in Sensornetzwerken haben die Aufgabe diese Daten zu speichern und zu verarbeiten [Bleier et al. 2009]. Diese Daten werden in der Regel Zeitreihen genannt. Die einfachste Zeitreihe ist eine einzige Gleitkommazahl (z.B. Temperatur), welche in regelmäßigen Intervallen gemessen wird. Komplexere Arten von Zeitreihen sind komplexe Observationen (z.B. Aggregationen abhängiger Messungen, Spektren, Bilder, …), die in unregelmäßigen Intervallen gemessen werden. Die Time Series Toolbox ist eine Sammlung von Softwarekomponenten und APIs, die die Aufgabe der Erzeugung von Applikationen, die Zeitreihen von Observationen aufnehmen, bearbeiten, speichern und veröffentlichen, vereinfacht.
[24]
Die Time Series Toolbox, und speziell Formula 3, welches die Kernkomponente ist und für die Verarbeitung der Zeitreihendaten verantwortlich ist, soll nun um Semantikfunktionalität erweitert werden. Eine Beispielsanwendung hierfür ist die Annotation von Bildern als Zeitreihen. Das bedeutet, es wird eine Zeitskala aus einer Sequenz von Annotationen generiert, indem der Zeitpunkt der Annotation in einen Zeitstempel für einen Slot in der Zeitreihe umgewandelt wird. Die Daten des Zeitreihenslots stellen Informationen wie der Name des Autors, der geographische Ort, an dem die Annotation durchgeführt wurde, und andere Metadaten dar. Dies würde das Filtern der Annotationen nach Autor, geographischer Region, Interessensfeldern usw. ermöglichen.
4.
Standards ^
[25]
Da im Bereich der semantischen Suche und des Semantic Web nicht nur Tools eine wichtige Rolle spielen, sondern auch besonderes Augenmerk auf die verfügbaren Standards gelegt werden muss, folgt in diesem Unterkapitel ein kurzer Überblick über die wichtigsten Standards.
4.1.
SKOS ^
[26]
SKOS steht für Simple Knowledge Organisation System [Miles et al. 2005]. Das Ziel ist es ein einfaches, aber mächtiges Framework für die Darstellung von Wissensstrukturen auf eine für Maschinen verständliche Art und Weise zur Verfügung zu stellen und im Semantik Web einzusetzen. Der Name SKOS wurde gewählt, um dieses Ziel hervorzuheben.
[27]
Das SKOS Kernvokabular ist eine Sammlung von RDF Attributen und RDFS Klassen, das verwendet werden kann, um den Inhalt und die Struktur eines Konzeptschemas als RDF Graph auszudrücken.
[28]
SKOS verfolgt folgende Ziele:
- Unterstützung verschiedener Arten von Knowledge Organisation Systemen (KOS), wie Klassifikationsschemata, Subject Heading Systemen, Taxonomien, Glossaren, kontrollierten Vokabularen usw.,
- Unterstützung des Datenaustausches und der verteilten, dezentralisierten Organisation von Daten,
- Benützung von RDF nicht nur als Dateiformat, sondern auch als Datenformalismus, der entworfen wurde, um das verteilte Datenmanagement in Webumgebungen zu unterstützen.
4.2.
OWL ^
[29]
Das Semantic Web ist eine Vision der Zukunft des Webs, in welcher Informationen eine explizite Bedeutung zugewiesen ist [McGuinness, van Harmelen 2004]. Dies soll es Maschinen einfacher machen automatisch im Web verfügbare Informationen zu verarbeiten und zu integrieren. Das Semantic Web soll auf XML's Fähigkeit, individuelle Taggingschemata zu definieren, und RDF's flexiblen Ansatz zur Datenrepräsentation aufbauen. Die über RDF hinausgehende Schicht, welche für ein Semantic Web notwendig ist, ist eine Ontologiesprache, die formal die Bedeutung der Terminologie in Webdokumenten beschreibt. Wenn von Maschinen erwartet wird, sinnvolle Reasoning-Aufgaben an Dokumenten auszuführen, muss die Sprache über die Grundlagen des RDF Schemas hinausgehen.
[30]
OWL wurde entworfen, um das Bedürfnis nach einer Web-Ontologie-Sprache zu befriedigen, und ist Teil der stetig wachsenden W3C Empfehlungen für das Semantic Web.
- XML bietet eine Oberflächensyntax für strukturierte Dokumente an, stellt aber keine Bedingungen an die Bedeutung dieser Dokumente.
- XML Schema ist eine Sprache zur Einschränkung der Struktur von XML Dokumenten und erweitert XML mit Datentypen.
- RDF ist ein Datenmodell für Objekte («Ressourcen») und Beziehung zwischen ihnen und stellt eine einfache Semantik für dieses Datenmodell zur Verfügung. Diese Datenmodelle können in einer XML Syntax dargestellt werden.
- RDF Schema ist ein Vokabular zur Beschreibung von Attributen und Klassen von RDF Ressourcen mit einer Semantik für Generalisierungshierarchien solcher Attribute und Klassen.
- OWL bietet mehr Vokabeln zur Beschreibung von Attributen und Klassen: vor allem, Beziehungen zwischen Klassen, Kardinalität, Gleichheit, Typisierung von Attributen, Charakteristiken von Attributen und Klassen.
4.3.
SPARQL ^
[31]
Die SPARQL Abfragesprache für RDF wurde entworfen, um die von der RDF Data Access Working Group identifizierten Use Cases und Anforderungen zu erfüllen [Prud'hommeaux, Seaborne 2008]. Der Name ist ein rekursives Akronym und steht für SPARQL Protocol and RDF Query Language.
[32]
SPARQL hängt eng mit folgenden Spezifikationen zusammen:
- Die SPARQL Protocol for RDF Spezifikation definiert ein Remote-Protokoll zur Erstellung von SPARQL-Abfragen und zum Empfang des Ergebnisses.
- Die SPARQL Query Results XML Format Spezifikation definiert ein XML-Dokumentenformat zur Repräsentation der Resultate von SPARQL SELECT und ASK Abfragen.
5.
Semantische Suche ^
[33]
Das Lösen des Problems des Auffindens von Webressourcen erfordert einen semantischen Ansatz zur dynamischen Suche und Interoperabilität zu neuen Web Services, aufbauend auf der Erfahrung bei der Implementierung eines Semantic Web [Borenstein, Fox 2003]. Die Kernidee des semantischen Ansatzes ist das Einhalten des Web Service Interface als Referenz eines geschäftsorientierten Vokabulars (semantisches Modell).
[34]
Obwohl viele Beschreibungen des Semantic Web nicht explizit SOAP, WSDL oder UDDI erwähnen, kann die Vision des Semantic Web am besten mit Web Services implementiert werden.
[35]
Die Architektur zur Web Service Suche durch UDDI oder anderen Web Service Registries, wie ebXML, unterteilt Interaktionsstufen in Rollen wie Service Provider, Registry und Client. Es sind keine Änderungen der UDDI Registry notwendig, um Semantik zu diesen Interaktionen hinzuzufügen, daher können im Semantikansatz die Rollen auf Provider und Client festgelegt werden. Hier hat der Provider die größte Last zu tragen, da er Informationen über die Bedeutung des Services zur Verfügung stellen muss. Der Entwickler auf Client-Seite muss seinen Arbeitsfluss ändern, um Semantik zu unterstützen. Der Suchprozess muss nicht geändert werden, jedoch kann der Client durch die Verwendung einer semantischen Beschreibung einen Service nach seiner Semantik finden und danach durch Transformationen das Interface des Service auf das erwartete Interface ändern.
[36]
Ungeachtet der Änderungen benötigt der semantische Ansatz eine Formalisierung der existierenden Entwicklungsschritte. Um einen Service benutzen zu können, muss der Provider dem Client mitteilen was dieses Service bedeutet. Der Client muss die Bedeutung verstehen und die Erwartungen der Client-Software an das spezifische Service Interface anpassen.
6.
Schlussfolgerungen ^
[37]
Wie viele andere Bereiche der Informatik ist auch der Bereich der semantischen Suche im Speziellen, sowie der Bereich des Semantic Web im Allgemeinen, nahezu unüberschaubar groß. Hier kommt allerdings hinzu, dass es sich um einen sehr neuen und sehr stark anwachsenden Bereich handelt. Dies bedeutet zum einen, dass der positive Trend und die wachsenden Anwendungsfelder und Technologien ausgezeichnete Prognosen für die Zukunft des Semantic Web zulassen, zum anderen jedoch auch, dass die frühe Entwicklungsphase und der noch geringe Reifegrad der Technologien viel Platz für Forschung und viel notwendige Entwicklungsarbeit erfordern. Dies gilt umso mehr für Tools zur Unterstützung der semantischen Suche. Es bedarf hier eines erhöhten Aufwandes in der Recherche, um die richtigen Tools für den richtigen Anwendungszweck zu finden. Die vorgestellten Tools und Standards können daher nicht als endgültig gesehen werden, sondern vielmehr als ein Auszug und Überblick des momentanen Standes der Technik, welcher einer ständigen Veränderung ausgesetzt ist.
[38]
Um hier Abhilfe zu schaffen, gibt es Projekte wie beispielsweise TaToo («Tagging Tools based on a Semantic Discovery Framework»). TaToo ist ein FP7 Projekt, welches die Vision eines Single European Information Space for Environment (SISE) teilt. Das Ziel dieses Projektes ist es, Experten und Benutzern das Teilen von vertrauenswürdigen und zuverlässigen Informationen, aber auch das einfache Auffinden von bereits verfügbaren Informationen zu ermöglichen. TaToo stellt eine Semantic Web Lösung zur Verfügung, um die Lücke, welche einen vollständigen und einfachen Zugriff auf Umweltressourcen im Web verhindert, zu schließen. Obwohl sich TaToo primär mit Umweltressourcen beschäftigt, sollen die Lösungsansätze so generell wie möglich gehalten werden. Dies bedeutet, dass mit den aus dem Projekt resultierenden Ergebnissen auch ein Beitrag zur Lösung des Problems der semantischen Suche nach juristischen Ressourcen geleistet werden kann.
7.
Literatur ^
TaToo; TaToo FP7 project. http://tatoo-fp7.eu/tatooweb/ aufgerufen 07.07.2010 (2010).
Borenstein, Joram; Fox, Joshua, Semantic Discovery for Web Services. In: Web Services Journal, Heft 04, S. 02-03 (2003).
Cunningham, Hamish; Wilks, Yorick; Gaizauskas, Robert J., GATE: a General Architecture for Text Engineering. In: Proceedings of the 16th Conference on Computational Linguistics, Copenhagen (1996).
Protégé; The Protégé Ontology Editor and Knowledge Acquisition System.http://protege.stanford.edu/ aufgerufen 07.07.2010 (2010).
Fensel, Dieter; Hendler, James; Lieberman, Henry; Wahlster, Wolfgang, Spinning the Semantic Web, Massachusetts Institute of Technology, Cambridge (2005).
Jena API; The Jena Ontology API.http://jena.sourceforge.net/ontology/ aufgerufen 07.07.2010 (2010).
Dzbor, Martin; Domingue, John; Motta, Enrico, Magpie – towards a semantic web browser. In: Knowledge Media Institute – The Open University, Milton Keynes (2003).
Bleier, Thomas; Bonitz, Arndt; Božić, Bojan; Kutschera, Peter; Ortner, Bernhard; Ponweiser, Thomas; Schabauer, Johannes, The Time Series Toolbox Overview. In:http://sourceforge.net – Austrian Institute of Technology, Seibersdorf (2003).
Miles, Alistair; Matthews, Brian; Beckett, Dave; Brickley, Dan; Wilson, Michael, SKOS: a language to describe simple knowledge structures for the web. In: XTech 2005, Amsterdam (2005).
McGuinness, Deborah L.; van Harmelen, Frank, OWL Web Ontology Language, W3C Recommendation (2004).
Prud'hommeaux, Eric.; Seaborne, Andy, SPARQL Query Language for RDF, W3C Recommendation (2008).
Dissertant, Universität Wien, Institut für Scientific Computing, Universitätsstraße 5, 1010 Wien,bojan.bozic@ait.ac.at ;www.unet.univie.ac.at/~a0963121/
Dozent, Universität Wien, Institut für Scientific Computing, Universitätsstraße 5, 1010 Wien,werner.winiwarter@univie.ac.at ;http://homepage.univie.ac.at/werner.winiwarter/
Borenstein, Joram; Fox, Joshua, Semantic Discovery for Web Services. In: Web Services Journal, Heft 04, S. 02-03 (2003).
Cunningham, Hamish; Wilks, Yorick; Gaizauskas, Robert J., GATE: a General Architecture for Text Engineering. In: Proceedings of the 16th Conference on Computational Linguistics, Copenhagen (1996).
Protégé; The Protégé Ontology Editor and Knowledge Acquisition System.http://protege.stanford.edu/ aufgerufen 07.07.2010 (2010).
Fensel, Dieter; Hendler, James; Lieberman, Henry; Wahlster, Wolfgang, Spinning the Semantic Web, Massachusetts Institute of Technology, Cambridge (2005).
Jena API; The Jena Ontology API.http://jena.sourceforge.net/ontology/ aufgerufen 07.07.2010 (2010).
Dzbor, Martin; Domingue, John; Motta, Enrico, Magpie – towards a semantic web browser. In: Knowledge Media Institute – The Open University, Milton Keynes (2003).
Bleier, Thomas; Bonitz, Arndt; Božić, Bojan; Kutschera, Peter; Ortner, Bernhard; Ponweiser, Thomas; Schabauer, Johannes, The Time Series Toolbox Overview. In:http://sourceforge.net – Austrian Institute of Technology, Seibersdorf (2003).
Miles, Alistair; Matthews, Brian; Beckett, Dave; Brickley, Dan; Wilson, Michael, SKOS: a language to describe simple knowledge structures for the web. In: XTech 2005, Amsterdam (2005).
McGuinness, Deborah L.; van Harmelen, Frank, OWL Web Ontology Language, W3C Recommendation (2004).
Prud'hommeaux, Eric.; Seaborne, Andy, SPARQL Query Language for RDF, W3C Recommendation (2008).
Dissertant, Universität Wien, Institut für Scientific Computing, Universitätsstraße 5, 1010 Wien,bojan.bozic@ait.ac.at ;www.unet.univie.ac.at/~a0963121/
Dozent, Universität Wien, Institut für Scientific Computing, Universitätsstraße 5, 1010 Wien,werner.winiwarter@univie.ac.at ;http://homepage.univie.ac.at/werner.winiwarter/