Jusletter IT

Zur Urheberrechtlichen Zulässigkeit von Screen Scraping

  • Author: Michael Sonntag
  • Category: Short Articles
  • Region: Austria
  • Field of law: IP Law
  • Collection: Conference proceedings IRIS 2011
  • Citation: Michael Sonntag, Zur Urheberrechtlichen Zulässigkeit von Screen Scraping, in: Jusletter IT 24 February 2011
«Screen scraping» ist eine Technik, aus öffentlich zugänglichen Webseiten Informationen automatisiert zu extrahieren und diese anschließend weiterzuverwenden, typischerweise durch erneute Veröffentlichung im Internet. Beispiele hierfür sind Preisvergleichs-Websites. Die urheberrechtliche Zulässigkeit dieses Vorgehens ist umstritten, insb. im Hinsicht auf die Extraktion von Daten aus geschützten Datenbanken. Anhand aktueller Deutscher Urteile sowie einer Beispielapplikation, der Extraktion von Dokumenten aus dem RIS zur Erstellung eines privaten «Gesetzbuches», wird der legale Anwendungsbereich dieser Technik näher abgesteckt.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Rechtsprechungsübersicht und urheberrechtliche Diskussion
  • 2.1. Entnahme von Daten aus einer geschützten Datenbank?
  • 2.2. Unerlaubte Vervielfältigung?
  • 2.3. Rechtfertigung als Privatkopie?
  • 2.4. Zusammenfassung problematischer Aspekte bei «screen scraping»
  • 3. Persönliches Gesetzbuch
  • 4. Literatur

1.

Einleitung ^

[1]
Webseiten sind zwar meist öffentlich im Internet zugänglich (sofern kein technischer Zugangsschutz, z.B. Anmeldung plus Passwort, besteht), doch bedeutet dies nicht, dass die darauf enthaltenen Informationen auch rechtlich schutzlos sind. So ist etwa das Urheberrecht zu beachten, ebenso wie der Datenschutz, das Telekommunikationsgesetz (( E-Mail Werbung) etc. Bestimmte Nutzungen sind daher zulässig, andere wiederum nicht. Eine für viele Unternehmen relevante Nutzungsart ist das sogenannte «screen scraping». Hierbei handelt es sich um den automatisierten Abruf von für menschliche Benutzer intendierten Webseiten, welche anschließend weiterverarbeitet werden. In den meisten Fällen werden aus den abgefragten Webseiten Informationen gewonnen (extrahiert) und diese auf selbst gestalteten Webseiten an Endkunden weitergeleitet (Suche über mehrere Websites hinweg), oder vorläufig gespeichert, um sie später bei entsprechenden Anfragen anzuzeigen oder Statistiken zu erstellen (Preisverlauf, häufig angebotene Produkte, …). Es handelt sich daher quasi um eine «Wiederveröffentlichung» fremder Informationen oder auch Werke.
[2]
Besondere Bedeutung besitzt dies im weiten Bereich der Produkt-Vergleichs-Websites, z.B. Preissuchmaschinen: Webseiten von mehreren Webshops werden nach den angebotenen Produkten/Dienstleistungen durchsucht und diese dann derart dargestellt, dass der Preis einer Ware in allen untersuchten Webshops zusammen auf einer Seite, oft in Verbindung mit Werbung, angezeigt wird. Der Vorteil für den Kunden liegt auf der Hand: Ein Vergleich der Preise (oder anderer Eigenschaften, z.B. Verfügbarkeit, Versandkosten) wird sehr viel leichter möglich. Umgekehrt existieren jedoch ebenso berechtigte Interessen der Website-Betreiber: Wird ihr eigener Inhalt ausgelesen und von Fremden mit Werbung umgeben, so verlieren sie u.U. die entsprechenden Werbeeinnahmen. Darüber hinaus erfolgt der Vergleich verschiedener Angebote eben meistens über den Preis, sodass bestimmte Vertriebsstrategien, wie besonderer Kundenservice/Qualität oder Einnahmen durch Zusatzangebote1 , verloren gehen können. In der Praxis beruhen diese Dienste meist auf vertraglichen Grundlagen, im Gegensatz etwa zu anbieterübergreifenden Flug-Such- bzw. -Buchungsportalen.
[3]
Neben diesem professionellen «Abschreiben» existieren Tools für Endbenutzer, welche die gleichen Techniken einsetzen, z.B. Software zur Beobachtung von Webseiten auf Änderungen [FreeFind]. Ein weiteres Beispiel hierfür ist eine unter Leitung des Autors entwickelte Software für die Zusammenstellung eines persönlichen Gesetzbuches (oder anderer Dokumente), basierend auf dem österreichischen Rechtsinformationssystem [BKA]. Hierbei wird die RIS-Webseite automatisiert abgerufen, mit einem kleinen JavaScript ergänzt, und als Unterframe dargestellt. Dies ermöglicht die komfortable Auswahl der zu integrierenden Dokumente, indem u.A. die Dokumentennummer aus der Webseite ausgelesen wird, bzw. die Dokumente im Anschluss vollautomatisch abgerufen, zusammengestellt und in eine PDF-Datei konvertiert werden. An diesem Programm wird die Problematik näher untersucht, auch wenn es sich derzeit nicht um ein öffentliches Angebot handelt oder gar Einnahmen irgendeiner Art, z.B. durch Werbung, geplant sind.

2.

Rechtsprechungsübersicht und urheberrechtliche Diskussion ^

[4]
Zum «screen scraping» existieren mittlerweile mehrere Urteile aus Deutschland, wobei jedoch Divergenzen ersichtlich sind. Österreichische Entscheidungen sind derzeit keine bekannt. Diese Urteile sind:
  • OLG Frankfurt 5. März 2009, 6 U 221/08 (LG Frankfurt 24. August 2008, 2/6 O 478/08): Vermittlung von Flugtickets, basierend auf Verstößen gegen das UWG und das Urheberrecht (geschützte Datenbank).
  • OLG Hamburg 16. April 2009, 5 U 101/08 (LG Hamburg 13. Dezember 2007, 310 O 407/07): Vertrieb einer Software zur automatisierten Abfrage einer Online-Automobilbörse, basierend auf Verstößen gegen das UWG und das Urheberrecht (geschützte Datenbank).
  • OLG Hamburg 28. Mai 2009, 3 U 191/08 (LG Hamburg 28. August 2008, 315 O 326/08): Flugbuchungen über ein internetgestütztes Buchungssystem, basierend auf Verstößen gegen UWG und die AGB des Anbieters.
  • LG Hamburg 1. Oktober 2010, 308 O 162/09: Vertrieb einer Flugbuchungssoftware, basierend auf Verstößen gegen das UWG und das Urheberrecht (geschützte Datenbank).
[5]
Bis auf den dritten Fall wurde sowohl der Vertrieb von Software für «screen scraping» als auch deren Einsatz für zulässig angesehen. Die eine gegenteilige Entscheidung beruht darauf, dass die Flüge im eigenen Namen gebucht und anschließend weiterverkauft wurden, was den AGBs des Anbieters widersprach und damit zu einer unlauteren Mitbewerberbehinderung führt2 . Das dortige Verbot betrifft «screen scraping» also nicht direkt.

2.1.

Entnahme von Daten aus einer geschützten Datenbank? ^

[6]
Im Hinblick auf das Urheberrecht wird in den obigen Fällen davon ausgegangen, dass es sich um Verletzungen von Rechten an einer geschützten Datenbank handeln könnte. Diese wird entweder als geschützt festgestellt, oder es wird von einer genauen Prüfung abgesehen, da selbst bei vorliegen einer solchen Datenbank die Aktionen urheberrechtlich erlaubt wären.
[7]
Für ein Verbot wäre es u.A. erforderlich, dass wesentliche Teile der Datenbank entnommen und vervielfältigt oder öffentlich wiedergegeben werden [Hermann]. Eine derartige «Entnahme» von Daten liegt dann vor, wenn sich jemand ohne Zustimmung des Berechtigten Ergebnisse der Investition aneignet oder diese veröffentlicht (EuGH 9.11.2004, Rs. C-203/02, BHB Pferdewetten). Dies liegt bei «screen scraping» zweifellos vor, da eine Zustimmung meist nicht nachweisbar ist bzw. über AGBs oder einseitige Erklärungen jedes automatisierte Auslesen verboten wird, und die Informationen an eine unbestimmte Anzahl an Internetnutzern weitergeleitet werden. Im Gegensatz zur Entscheidung Paperboy (17.7.2003, I ZR 259/00 bzw. Meteodata, OGH 17.12.2002, 4 Ob 248/02b) wird hier eben nicht zu den Informationen direkt verlinkt, sondern diese Daten tatsächlich kopiert, ev. umformatiert oder umgestaltet, und erneut zur Anzeige gebracht – auch wenn oft ein Link zur Quelle, bzw. zusätzlichen nicht übernommenen Details, enthalten ist.
[8]
Darüber hinaus ist es jedoch erforderlich, dass es sich bei den entnommenen und wieder ins Internet gestellten Daten um nach Art oder Umfang wesentliche Teile der Datenbank handelt. Würde die gesamte Datenbank ausgelesen und erneut zur Anzeige gebracht («lokale Kopie»), so läge dies jedenfalls vor. In den behandelten (und praktisch meist vorkommenden) Fällen erfolgte die Anfrage jedoch «live», d.h. ein Besucher gab auf der Webseite eine Anfrage ein, diese wurde weitergeleitet, die Antwort umgearbeitet und das Resultat anschließend dargestellt. Jeder einzelne dieser Benutzer greift daher lediglich auf einen winzigen Teil der Datenbank zu (Ausnahme: Wenn Gesamtabfragen möglich sind!). Dies gilt selbst bei automatisierter und häufiger Abfrage, sofern es sich immer um die gleichen Daten handelt: Regelmäßige Prüfung auf neue Ergebnisse. Verboten wäre jedoch eine kumulative Abfrage, also wenn über dauernd neue Abfragen sukzessive die gesamte Datenbank ausgelesen würde (z.B. Abfrage 1: Alle Artikel die mit «A» beginnen, 5 Min. später Abfrage 2: Alle die mit «B» beginnen etc.): Dies wird praktisch bei derartigen Websites kaum vorkommen. Etwas anderes gilt für Preisvergleichs-Websites o.Ä., welche sehr wohl eine derart umfassende Vervielfältigung der Datenbank anstreben (und sich daher vertraglich absichern!).
[9]
Ein problematischer Aspekt ist jedoch, dass zwar einzelne Nutzer regelmäßig nur einen geringen Teil der Datenbank entnehmen, ein «wesentlicher Umfang» der Entnahme aber für alle Nutzer zusammen sehr wohl vorliegen könnte. Hier wird, im Gegensatz zu einem früheren Urteil, OLG Hamburg 16. April 2009, 5 U 101/08 die Meinung vertreten, dass es nur auf den einzelnen Nutzer ankommt. Dies beruht allerdings darauf, dass in dieser früheren Entscheidung die Beklagte als Täterin einer selbst begangenen Rechtsverletzung in Anspruch genommen wurde, während es im vorliegenden Fall lediglich um die Software hierfür ging. Es wäre daher für ein Verbot Voraussetzung, dass es Dritte gibt, welche derartige Anfragen durchführen, was aber nicht vorgetragen worden war. Es wird darauf abgestellt, dass Akzessorietät immer nur für einzelne Benutzer (=rechtswidrige Haupttat) vorliegen kann, und damit auch eine «Aufteilung» der Entnahmen aus der DB erforderlich ist, während bei eigener Täterschaft alle Benutzer zusammenzurechnen wären. Bei dieser Unterscheidung ist jedoch zu beachten, dass die dort behandelte Software bei jedem Nutzer lokal installiert wurde, um «screen scraping» zu betreiben, und nicht zentral auf einem Webserver. Die Argumentation ist daher nicht direkt übertragbar. In der Entscheidung OLG Frankfurt 5. März 2009, 6 U 221/08 wird dieses Problem nicht thematisiert, sondern anscheinend von einer Einzelbetrachtung ausgegangen. Meiner Meinung nach wird für einen Online-Dienst zu differenzieren sein: Werden Daten auf Vorrat abgefragt oder für zukünftige Abfragen gespeichert, so sind diese Handlungen dem Betreiber des «screen scraping» zuzuordnen und folglich die Abfragen aller Benutzer zusammen zu betrachten. Diesbezüglich besteht daher eine große Gefahr, dass ein qualitativ oder quantitativ erheblicher Teil der Datenbank übernommen wird. Werden hingegen ausschließlich auf Anfrage von Benutzern hin einzelne Daten abgerufen und quasi lediglich durchgeleitet, so ist jeder Benutzer separat zu betrachten und eine Haftung (z.B. als Beitragstäter) kommt nur in Frage, wenn es zumindest einzelne Benutzer gibt, welche alleine für sich derart erhebliche Teile der Datenbank abrufen würden.
[10]
Weiters zu prüfen ist noch, ob die Entnahme zwar nur unwesentliche Teile betrifft, jedoch wiederholt und systematisch erfolgt sowie der normale Verwertung der Datenbank entgegensteht oder die berechtigten Interessen des Herstellers unzumutbar beeinträchtigt. Hinsichtlich der Systematik können mehrere unabhängige Nutzer keinesfalls zusammengerechnet werden. Damit dies zutrifft ist daher wieder entweder von einer Entnahme durch den Betreiber des «screen scraping» auszugehen, oder es müssen entsprechende Benutzer existieren, welche derart vorgehen. Separat zu prüfen ist noch die Beeinträchtigung der normalen Verwertung der Datenbank. Vielfach liegen «screen scraping» Angebote außerhalb des normalen Funktionsumfangs und bieten lediglich Zusatzdienste an. In diesem Fall wäre der Tatbestand nicht erfüllt. Handelt es sich jedoch um ein konkurrenzierendes Angebot, beeinflusst es das eigene negativ3 , oder weitet die Quelle ihre Tätigkeit aus, bestehen rechtliche Risiken.

2.2.

Unerlaubte Vervielfältigung? ^

[11]
Handelt es sich bei den entnommenen Teilen nicht lediglich um Fakten (dann wird meist mit einer geschützten Datenbank argumentiert; siehe oben) sondern um (Teil-)Werke, so liegt eine Vervielfältigung vor. Hierbei ist zu beachten, dass «screen scraping» meist dazu erfolgt, reine Fakten aus der Webseite zu extrahieren, für die eben kein urheberrechtlicher Schutz besteht (siehe auch die Entscheidung Perlentaucher, BGH 1. Dezember 2010, I ZR 12/08, wonach die Wiedergabe des Inhalts – ohne Übernahme der sprachlichen Gestaltung – von Texten erlaubt ist). Werden hingegen längere Texte, Bilder, Videos, … extrahiert, so handelt es sich bei diesen wohl meist um geschützte Elemente.
[12]
Da Vervielfältigungen grundsätzlich dem Urheber vorbehalten sind, wäre eine Ausnahme erforderlich. Diese kann entweder per ausdrücklichen Vertrag erfolgen (dann stellen sich keine weiteren Probleme), konkludent eingeräumt werden, oder beruht auf dem Gesetz. Eine konkludente Einräumung eines Vervielfältigungsrechts sowie das Recht, diese Werke anschließend wieder der Öffentlichkeit zur Verfügung zu stellen, könnte in der Veröffentlichung auf einer ohne Schutzmaßnahmen erreichbaren Webseite liegen. Dies ist jedoch normalerweise auszuschließen, da bei Webseiten lediglich eine individuelle Nutzung durch direkte Besucher angenommen und erwartet wird. Explizit entgegenstehende Erklärungen lassen ebenfalls wenig Raum für eine konkludente Zustimmung ebenso wie der Grundsatz, dass Urheberrechte möglichst beim Urheber verbleiben und Ausnahmen eng auszulegen sind. Vergleichbar hierzu ist die Google Bildersuche (BGH 29. April 2010, I ZR 69/08), bei welcher die Argumentation mit explizitem «anlocken» der Suchmaschine bzw. der Unterlassung der Blockierung erforderlich war und wo auf eine schlichte Einwilligung abgestellt wurde. Im Gegensatz zur Google Bildersuche ist jedoch bei «screen scraping» normalerweise nicht von einer allgemeinen Bekanntheit des konkreten Nutzers auszugehen und auch eine Verhinderungsmöglichkeit besteht typischerweise nicht, da der Webseitenabruf möglichst exakt wie von einem normalen Benutzer gestaltet wird. Es ist daher bei «screen scraping» erst dann davon auszugehen, dass eine nach den Umständen übliche Nutzungshandlung vorliegt, wenn es sich um eine weithin übliche und häufige Nutzungsart handelt, typischerweise um eine Art Suchmaschine4 .
[13]
Als konkludente Zustimmung könnte jedoch ev. gelten, wenn die Darstellung speziell für automatisierten Besuch ausgerichtet ist, d.h. die Daten in einem Binärformat, als XML-Datei o.Ä. ohne jegliche grafische Darstellung angeboten werden. Dies wird jedoch gerade nicht als «screen scraping» bezeichnet, bei dem Inhalte aus einer «menschenlesbaren» Form extrahiert werden. Beispiele hierfür sind RSS Feeds, die gerade für automatisierten Abruf, anschließende Filterung, sowie ev. Kombination mit anderen Quellen vorgesehen sind (siehe [Thiele] dazu sowie zur Erstellung von Feeds aus fremden Inhalten, was «screen scraping» ähnelt). Dem entgegen AG Hamburg, 27. September 2010, 36A C 375/09 (siehe auch [Lüghausen]), wonach die Einbindung eines fremden RSS-Feeds in die eigene Webseite eine Urheberrechtsverletzung darstellt, da dies nicht von der Einwilligung umfasst sei. Allerdings hatte der Anbieter des RSS nur einfache Nutzungsrechte an den im RSS enthaltenen Text bzw. Bild, konnte also eine Einwilligung gar nicht geben – Der Nutzer hatte es also zumindest fahrlässigerweise unterlassen, sich eine solche vom Anbieter explizit bestätigen zu lassen.
[14]
Allgemeine gesetzliche Ausnahmen sind, abgesehen von der Privatkopie (siehe unten) nicht ersichtlich. Insbesondere handelt es sich nicht um eine begleitende Vervielfältigung (§ 41a UrhG), da ihr Zweck nicht bloß die Übertragung in einem Netz ist (Filterung und Verarbeitung kommen hinzu) und sie meist eine eigenständige wirtschaftliche Bedeutung besitzt (Verkauf von Werbung, Informationsangebot um die eigene Webseite zu fördern etc.).

2.3.

Rechtfertigung als Privatkopie? ^

[15]
Aus urheberrechtlicher Sicht ist folgender Aspekt in Betracht zu ziehen: Wird das «screen scraping» ausschließlich auf konkrete Anfrage eines Benutzers hin durchgeführt, so könnte die Webseite auch als reines Werkzeug dieses Benutzers angesehen werden. Analog wie ein Proxy-Server, ein Router oder der Internet-Browser dient sie lediglich dazu, die Informationen vom Server zum Endnutzer zu transportieren und dort darzustellen. Es ist daher zusätzlich eine Berufung auf die dort vorliegenden Gründe möglich (z.B. Privatkopie oder Zustimmung). Ähnlich wie es einem Kunden nicht verboten werden kann, bestimmte Teile nicht abzurufen (Werbeblocker), den Inhalt anders darzustellen (Ausblenden von Stylesheets oder Darstellung mittels Braille-Zeile) oder mehrere Inhalte zu vergleichen (mehrere Tabs/Fenster nebeneinander), ist dies daher zulässig. Es ist freilich anzumerken, dass diese Argumentation im Hinblick auf den unlauteren Wettbewerb nicht ohne weiteres anwendbar ist, sondern die Betrachtungen hier ausschließlich für das Urheberrecht gelten. Darüber hinaus ist zu berücksichtigen, dass dies nicht für el. Datenbanken gilt, sofern wesentliche Teile vervielfältigt werden (§ 76d Abs. 3 Z. 1 UrhG). Da die Vervielfältigung diesfalls durch den Endnutzer erfolgt, liegt auch die Ausnahme von § 42 Abs. 5 UrhG nicht vor, da der Endnutzer das Werk nicht der Öffentlichkeit zugänglich macht.
[16]
Problematisch an dieser Argumentation ist potentiell, dass dies zwar auch für technisch sehr komplexe Sachverhalte gelten kann (z.B. Digitale Aufnahme eines analogen Videosignals: shift.tv – BGH 22. April 2009, I ZR 216/06), sich aber die Vervielfältigung durch den Dritten auf einen «technisch-mechanischen» Vorgang beschränken muss. Wie schon in CB-infobank I (BGH 16. Januar 1997, I ZR 9/95) ausgeführt, muss sich die Vervielfältigung im Rahmen dieser Privilegierung halten. Genau dies kann hier jedoch fraglich sein: Im angeführten Fall wurden Zeitungsartikel archiviert und auf Kundenauftrag hin derartige Artikel herausgesucht, kopiert und dem Kunden zugesendet. Dies wurde als nicht mehr vom Privatkopie-Privileg umfasst angesehen, da hier durch die Recherche eine zusätzliche Nutzung entsteht und der Kunde keine konkrete Anweisung zur Herstellung eines bestimmten Vervielfältigungsstückes gibt. Dieser Fall ist mit einer Variante des «screen scraping» stark vergleichbar: Auch hier wird ein «Archiv» angelegt, aus dem dann einzelne Vervielfältigungsstücke weitergegeben werden. Eine Berufung auf die Privatkopie ist daher nur dann möglich, wenn tatsächlich ausschließlich auf Anforderung des Endbenutzers hin Daten gesammelt und, wenn auch vielleicht sehr komplex, verarbeitet werden – Vorratshaltung ist daher nicht möglich (hier kommt wieder § 42 Abs. 5 UrhG ins Spiel, da die Vervielfältigung dann der Öffentlichkeit zugänglich gemacht wird und somit die Privilegierung wegfällt). Die Tätigkeit darf daher keine eigene Entscheidung des Betreibers erfordern sondern muss sich darauf beschränken, die Anforderungen des Benutzers stur zu erfüllen. Damit ist z.B. auch eine Reihung nach eigenen Kriterien, etwa «beliebte» Ergebnisse, nicht möglich, eine nach externen und objektiven, wie Preis, Verfügbarkeit etc., welche der Kunde selbst einstellen kann, hingegen sehr wohl.

2.4.

Zusammenfassung problematischer Aspekte bei «screen scraping» ^

[17]
Je nach Quelle im Hinblick auf das Urheberrecht sind daher folgende Vorgangsweisen beim Einsatz von «screen scraping» zumindest gefährlich (siehe [Ulbricht] für Hinweise für Anbieter von Informationen):
  • Zulassung von Gesamtabfragen. Es sind daher, schon um die Suchergebnisliste nicht ausufern zu lassen, Mindestlängen für Suchwörter, Ergebnislängenbegrenzungen etc. vorzusehen.
  • Automatisierte Variation von Suchanfragen, um einen größeren Teil der Datenbank abzudecken. Ist daher eine Information nicht direkt abrufbar, sondern nur festzustellen, indem alle Daten abgerufen werden und diese dann auf Inklusion/Anwendbarkeit/… geprüft werden, so wird hierdurch das Schutzrecht verletzt. Ähnliches gilt für Statistiken. Man ist also quasi an die bereits vorhandenen Such- bzw. Auswertungsmöglichkeiten gebunden.
  • «Bearbeitung» der Ergebnisse: Erfolgt eine Umreihung oder ähnliches, so muss sich diese direkt aus den Wünschen des Endkunden ergeben und darf nicht auf eigenen Entscheidungen beruhen.
  • Speicherung der Abfragen für später oder Abruf auf Vorrat sind äußerst gefährlich, da hiermit leicht ein wesentlicher Teil der Datenbank entnommen wird. Da keine Berufung auf direkte Aufträge der Benutzer erfolgen kann, ist hier die Gesamtheit aller Abfragen dem Anbieter zuzuordnen.
  • Hier nicht besprochen aber ebenso problematisch ist es, technische Schutzmaßnahmen (unabhängig von ihrer Wirksamkeit!) zu umgehen oder sich über gültig vereinbarte AGBs, z.B. mittels einer erforderlichen Anmeldung, hinwegzusetzen.

3.

Persönliches Gesetzbuch ^

[18]
Diese Applikation ermöglicht es, sich durch Browsen im RIS ein eigenes Gesetzbuch zusammenzustellen, welches dann als PDF für Online-Nutzung oder zum Ausdrucken heruntergeladen werden kann. Es werden nicht nur Paragraphen unterstützt, sondern auch diverse Arten von Entscheidungen. Ausgeschlossen sind nur Elemente in besonderer technischer Darstellung (z.B. Gesetzblätter als PDF sowie gesamte Gesetze) sowie Daten auf externen Websites (etwa Landesgesetze oder Entscheidungen des Unabhängigen Finanzsenates).
[19]
Technisch beruht das Programm darauf, dass die Webseite des RIS vom Server abgerufen, ein minimales JavaScript hinzugefügt, und sie anschließend als Unterframe dargestellt wird. Diese Technik ist erforderlich, da sonst aufgrund von Sicherheitsmaßnahmen der Browser kein Zugriff auf wichtige Dokumentenelemente möglich ist (im Wesentlichen sind nur Titel und URL verfügbar). So kann beispielsweise nur mittels des zusätzlichen Skripts festgestellt werden, ob es sich um ein Einzeldokument oder eine Ergebnisliste handelt. Zur Identifikation des hinzuzufügenden Inhalts werden durch das Script die Dokumentennummer sowie die Kategorie (z.B. «Bundesnormen») ausgelesen und gespeichert. Die abschließende Generierung der Ausgabe erfolgt durch Konstruktion passender URLs, Abruf der Webseiten, Umwandlung in eine einzige Webseite (inkl. Generierung eines Inhaltsverzeichnisses) und Konvertierung dieser ausschließlich intern verwendeten HTML-Seite in ein PDF. Letzteres kann Online betrachtet oder heruntergeladen werden.
[20]
Urheberrechtlich gesehen5 existieren bei dieser Applikation folgende spezielle Problemfelder, über das Grundproblem der erfolgten Vervielfältigung(en) hinaus:
  • Zwischenspeicherung der RIS-Webseiten vor der Anzeige: Da die Webseiten durch das Einfügen eines JavaScript Programms verändert werden, ist eine Privilegierung mittels «Caching» auszuschließen. Allerdings erfolgt lediglich eine rein technische und minimale Umwandlung und Weiterleitung, sodass diese dem Endbenutzer zuzurechnen ist, welcher das RIS ja frei benützen darf. Hierbei ist auch eine Berufung auf die Privatkopie möglich. Da lediglich die vorhandenen Seiten weitergegeben werden, liegt auch keine öffentliche Zurverfügungstellung vor. Denn werden Dokumente im RIS gelöscht, sind sie auch in der Applikation nicht mehr vorhanden (es werden keine Zusammenstellungen gespeichert sondern nur deren Konfigurationsdaten, d.h. Fakten). Darüber hinaus wird jedes Dokument nur an einen einzigen Besucher, und nicht die Öffentlichkeit, weitergeleitet (z.B. nicht «letzte generierte» oder «beliebteste» Zusammenstellungen auf der Startseite).

  • Das Einfügen des JavaScript Codes könnte als Störung der Werkintegrität anzusehen sein. Da das Werk jedoch in der Darstellung überhaupt nicht verändert wird, ist dies einer Formatänderung gleichzusetzen. Eine Bearbeitung liegt daher ebenfalls nicht vor.

  • Auch die Einbettung als Unterframe könnte die Werkintegrität stören. Da jedoch nichts entfernt wird und die «Umfassung» lediglich in einem Menü besteht, ist auch hier nicht zu befürchten. Darüber hinaus könnte durch die Einbettung der Eindruck entstehen, dass es sich um einen anderen Urheber handelt. Dies ist ebenso zu verneinen, da alle Logos des RIS, grafische Elemente etc. unverändert bleiben und das grafische Aussehen des Frames sich vom RIS grundlegend unterscheidet (siehe Abbildung 1). Darüber hinaus beginnt die Suche nach Elementen für das el. Gesetzbuch auf der RIS-Startseite, sodass auch dies die tatsächliche Quelle klarstellt.

  • Auslesen von Dokumentennummer (und weiterer Daten): Es werden Informationen aus der Webseite extrahiert (Nummer und Kategorie), welche selbst keinen urheberrechtlichen Schutz genießen können, da es sich nicht um Werke handelt (reine Fakten ohne jegliche kreative Prägung). In dieser Hinsicht ist daher die Anwendung problemlos. Allerdings könnte es sich um Elemente einer geschützten Datenbank handeln. Unabhängig davon, ob dies wirklich vorliegt (höchstwahrscheinlich ja: Betrieb des RIS, «Darstellung», und Integration «alter» Gesetze, «Beschaffung», nach Feststellung ihres Gültigkeitszeitraumes, «Überprüfung», erfordern vermutlich hohe Aufwendungen), erfolgt jedoch der Abruf ausschließlich auf Veranlassung von Endbenutzern hin. Diesen ist daher die Entnahme zuzurechnen. Hierbei wird immer nur ein unbedeutender Teil der Datenbank extrahiert, da meist nur aktuelle Gesetze betroffen sind (alte Versionen, Entscheidungen etc. nur selten und vereinzelt) und größere Abfragen nicht möglich sind. Weiters können ausschließlich Einzeldokumente, aber keine ganzen Ergebnislisten hinzugefügt werden (Anzeige im RIS möglich, aber nur das erste kann hinzugefügt werden). Darüber hinaus erfordert die Umwandlung in PDF einiges an Zeit, sodass sich dadurch eine praktische Begrenzung des Umfangs ergibt.

  • Durch die Zusammenfassung mehrere Dokumente und ihrer Ausgabe als eine Datei könnte es zu einer Bearbeitung mit anschließender Veröffentlichung kommen. Da jedoch lediglich mehrere Werke unverändert hintereinander gefügt werden, könnte höchstens ein neues (Sammel)Werk entstehen. Ebenso wenig liegt eine Veröffentlichung vor, da das Ergebnis ausschließlich dem betreffenden Nutzer zugänglich gemacht wird.
Abbildung 1: Durchsuchen des RIS mittels der Applikation
[21]
Über die urheberrechtlichen Aspekte hinaus ist weiters an das Wettbewerbsrecht zu denken. Da die Software jedoch nicht öffentlich verkauft/empfohlen oder vertrieben wird, fehlt jeder kommerzielle Hintergrund. Auch wird die RIS-Website nicht beeinträchtigt oder ersetzt, denn es wird lediglich eine zusätzliche Export-Möglichkeit angeboten. Auch technisch erfolgt nur eine minimale zusätzliche Belastung, denn der Seitenabruf ist bei der Zusammenstellung identisch zu manuellem Abruf und für die Erstellung der PDF-Datei werden lediglich die Dokumente selbst nochmals abgerufen – gleich wie wenn dies ein Kunde täte, um diese schlussendlich auszudrucken. Diese wettbewerbsrechtlichen Aspekte werden jedoch hier nicht weiter thematisiert oder genauer untersucht.

4.

Literatur ^

FreeFind.com : ChangeDetection.comwww.changedetection.com/ aufgerufen 10. Januar 2011

Bundeskanzleramt Österreich (Hrsg.), Rechtsinformationssystem des Bundes.www.ris.bka.gv.at/ aufgerufen 10. Januar 2011
Ulbricht, Carsten, Screen Scraping – Wann ist das Auslesen und die Veröffentlichung fremder Daten zulässig?www.rechtzweinull.de/index.php?/archives/100-Screenscraping-Wann-ist-das-Auslesen-und-die-Veroeffentlichung-fremder-Daten-zulaessig.html aufgerufen 10. Januar 2011
Hermann, Volker, Der urheberrechtliche Schutz einer Datenbank im Internetwww.aufrecht.de/6166.html aufgerufen 10. Januar 2011
Thiele, Clemens , Rechtliche Herausforderungen von RSS-Feeds, ipCompetence (2) 2009, 23,www.eurolawyer.at/pdf/ipCompetence-2009-2-22-33-Thiele.pdf abgerufen 10. Januar 2011 (2009)
Lüghausen, Philip , Urheberrechtsverletzung durch RSS-Feeds ( Finger weg von fremdem Content?www.aufrecht.de/6711.html abgerufen 10. Januar 2011



Michael Sonntag, Assoz.Prof., Johannes Kepler Universität Linz, Institut für Informationsverarbeitung und Mikroprozessortechnik (FIM), Altenbergerstr. 69, 4040 Linz, AT,sonntag@fim.uni-linz.ac.at ;www.sonntag.cc/


  1. 1 Typisches Beispiel: Flüge sind oft gerade kostendeckend, sodass durch zusätzliche Versicherungen, Hotel-/Mietwagenbuchungen etc. erst der Gewinn erzielt wird.
  2. 2 Im fast identischen ersten Fall wurden die Flugtickets direkt von den Endkunden erworben, die Webseite war also lediglich Vermittler (Transportmedium), während im dritten Fall die Webseite als Wiederverkäufer auftrat.
  3. 3 Die Preissuchmaschinen wären hiervon nicht betroffen: Diese beeinträchtigen ev. die Geschäftstätigkeit, jedoch nicht die Verwertung der Datenbank. Diese Preis-Datenbank wird ohnehin nicht verkauft, vermietet etc., und wird auch sonst nicht beeinträchtigt (weniger Nutzer besuchen sie).
  4. 4 Vergleiche hierzu LG Hamburg 16. Juni 2010, 325 O 448/09, wonach gleiches wie für Google auch für Bilder und Personensuchmaschinen gilt. Dort wurde auf das Bild allerdings nur verlinkt (Einbettung) und dieses nicht zwischengespeichert. Voraussetzung für den Dienst ist jedoch zwangsläufig ein vorheriger automatisierter Abruf, bei welchem dann der Link gespeichert wird. Dieser wird dann für die Suchergebnisse verwendet, sodass das Bild ohne (erneute) auch nur minimalste Zwischenspeicherung auf dem Server des Anbieters im Ergebnis erscheint.
  5. 5 Hier wird § 7 Abs 1 UrhG nicht berücksichtigt, wonach Gesetze, Verordnungen, amtliche Erlässe, Bekanntmachungen und Entscheidungen keinen urheberrechtlichen Schutz genießen. Dies trifft die konkrete Applikation, aber nicht ähnliche Anwendungen unterschiedlichen Inhalts! Darüber hinaus ist zu beachten, dass etwa Rechtssätze solchen Schutz dennoch genießen können (kein Teil der Entscheidung sondern nachträglich erstellt), ebenso wie die Sammlung als ganzes (nur ihre einzelnen Elemente sind urheberrechtlich frei).