Mäuse  im Labyrinth
Photoshop KI Prompt: Zeichnung Mäuse Labyrinth

Als ich die Nachricht las, dass Meta viele Bücher und wissenschaftliche Arbeiten aus einer illegalen Online-Bibliothek wie LibGen genutzt hat, um sein KI-Modell „Llama 3“ zu trainieren (Sie ahmt menschliche kognitive Fähigkeiten nach, indem sie Informationen aus Eingabedaten erkennt und ordnet.), war ich nicht überrascht.

Es zeigt wie große Tech-Konzerne mit Daten umgehen und sich dabei auf das Prinzip des „Fair Use“ berufen, um sich von jeglicher Verantwortung freizusprechen.
(Quelle:https://www.theguardian.com/books/2025/mar/25/richard-osman-meta-copyright-ai)

Neue Gerichtsdokumente zeigen, dass Meta sogar Torrent-Netzwerke verwendete, um urheberrechtlich geschützte Bücher für das Training seiner KI herunterzuladen – obwohl das eigene KI-Team des Unternehmens deutlich gewarnt hatte.
(Quelle: https://the-decoder.de/meta-nutzte-piraterie-netzwerke-fuer-ki-trainingsdaten-mit-zuckerbergs-segen)

Als ich eines meiner englischsprachigen Bücher dann auch in der Datenbank fand, war ich nicht verwundert.
(Quelle: https://www.theatlantic.com/technology/archive/2025/03/search-libgen-data-set/682094/)

Frühe Internettage und der Gedanke des Teilens

Früher war das Internet noch keine so kommerzielle Plattform, sondern vielmehr ein gemeinschaftliches Projekt, das von visionären Menschen vorangetrieben wurde. Es gab eine Kultur der Zusammenarbeit und des Wissensaustauschs, die entscheidend dazu beitrug, dass das Internet  sich so schnell und so weit entwickelt hat. Ich habe damals tolle Menschen kennengelernt und so viel von Ihnen gelernt. Dafür bin ich heute sehr dankbar, denn ohne diese Begegnungen wäre mein Leben sicherlich anders verlaufen.

Aufgrund dieser Erfahrung war und ist es mir immer noch wichtig, mein Wissen zu teilen und, wenn möglich, andere Menschen zu unterstützen.

Das Problem mit Metas Vorgehen

Doch jetzt geht es um etwas anderes: Meta, ein milliardenschweres Unternehmen, hat sich wohlmöglich an einer Piratenbibliothek bedient, um seine kommerzielle KI weiterzuentwickeln. Während Forscher:innen und Autor:innen mühsam um Finanzierung kämpfen, nutzt Meta deren Arbeit, ohne zu zahlen oder auch nur um Erlaubnis zu fragen. Was mich besonders stört, ist die Argumentation, dass das Training der KI „Fair Use“ sei. Fair Use ist eine rechtliche Ausnahme, die in den USA existiert und es erlaubt, geschütztes Material unter bestimmten Bedingungen zu nutzen. Doch das gilt nicht für die massenhafte Verwertung urheberrechtlich geschützter Inhalte durch ein gewinnorientiertes Unternehmen.

KI braucht unsere Daten

KI kann sich nur entwickeln, wenn sie kontinuierlich mit Daten gefüttert wird – und genau das tun wir alle jeden Tag. Jede Online-Suche, jede Chatbot-Interaktion, jedes „Gefällt mir“ in sozialen Medien trägt zur Verbesserung von Algorithmen bei. Wir füttern KI täglich, indem wir mit ihr kommunizieren, Bilder oder Texte generieren lassen.

Auch  ich nutze die KI.  Die Zeichnung  am Anfang des Beitrags  habe ich mir mit Hilfe der Photoshop KI zeichnen lassen. Das sind doch wirklich niedliche Mäuse!  Ich wüsste wirklich gerne wer - der stilistische Urheber - hinter dieser Zeichnung ist.

Selbst wenn wir nichts aktiv beitragen, analysieren Algorithmen unser Verhalten – was wir lesen, worauf wir klicken, wie lange wir auf einer Seite bleiben.

Das Problem dabei: Wer profitiert davon? Wir trainieren KI mit unseren Daten, aber am Ende verdienen große Konzerne damit jede Menge Geld.

Ich frage mich, wie wir als Gesellschaft darauf reagieren wollen. Die Debatte um KI-Training und Urheberrecht steckt noch in den Anfängen. Müssen KI-Unternehmen für Trainingsdaten bezahlen? Sollten wissenschaftliche Arbeiten und Bücher für solche Zwecke generell freigegeben werden, oder braucht es neue Schutzmechanismen?

Autor:innen, Wissenschaftler:innen und Verlage könnten massive finanzielle Einbußen erleiden, wenn ihre Inhalte ohne Lizenz genutzt werden. Gleichzeitig verstärkt sich ein Muster: Während sich Einzelpersonen an strenge Urheberrechtsgesetze halten müssen, scheinen Konzerne einfach tun und lassen zu können, was sie wollen.

Was können wir in Zukunft tun: Gesellschaft für KI-Nutzungsrechte

In Deutschland gibt es die GEMA (Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte) und die Wort< (Verwertungsgesellschaft WORT), die sich um die Urheberrechte und Vergütungen von Künstlern kümmern. Die GEMA verwaltet die Rechte von Musikschaffenden wie Komponisten und Textdichtern und sorgt dafür, dass sie für die Nutzung ihrer Werke vergütet werden. Die VG Wort hingegen kümmert sich um die Rechte von Autoren und Verlagen, indem sie Tantiemen für die Nutzung literarischer Werke wie Bücher, Artikel und andere Texte einzieht und verteilt.

In ähnlicher Weise wäre es denkbar, eine Gesellschaft zu gründen, die sich um die Urheberrechte aller  geistiger Leistungen kümmert, die von Künstlicher Intelligenz (KI) genutzt werden. Diese Gesellschaft könnte eine zentrale Anlaufstelle für die Verwaltung und Verwertung von Rechten sein, die durch KI-generierte Inhalte betroffen sind. Sie würde sicherstellen, dass die ursprünglichen Urheber (wie Autoren, Musiker,Künstler etc.)  fair entlohnt werden, wenn deren Werke oder Daten in den Lernprozessen der KI verwendet werden. Eine solche Gesellschaft könnte ähnlich wie die GEMA oder VG Wort arbeiten oder ein Kooperationsprojekt sein, aber speziell auf die Herausforderungen und Rechte im Zusammenhang mit KI-Nutzung ausgerichtet sein.

Jetzt aktuell

Falls Sie auch betroffen  sind können Sie an Meta wenden und Einspruch einnlegen. Die amerikanische Autorengilde hat ein Online-Formular vorbereitet. Ob das auch für europäische Urheber Sinn macht weiss ich nicht genau.

Beschwerdeformular

Außerdem könnte es sinnvoll sein konkrete Nutzungsbedingungen für künstliche Itelligenz im Impressum von Websites und Publikationen anzugeben. Wir könnten zudem  KI-Bots auch direkt durch eine robots.txt-Datei von unsere Website fernhalten.
Dass dieses Verhalten allerdings die Auffindbarkeit unserer Websites bei den Suchmaschinen beeinflusst, ist klar.  Denn für  diesen Service zahlen wir mit unseren Daten.

Mit der korrekten Formulierung  für  die Copyrighthinweise könnte sich vielleicht ein Rechtsanwalt befassen. Vielleicht fühlt sich jemand der Leser berufen.

Hier nur eine, nicht rechtliche geprüfte, Idee.

Urheberrecht und KI-Training

Publikationen und Dokumente - nicht rechtlich geprüft

Alle Inhalte des Dokuments einschließlich Texte, Bilder und anderer Medien, unterliegen dem Urheberrecht. Die Nutzung unserer Inhalte zum Training von Künstlicher Intelligenz (KI), ist ohne ausdrückliche schriftliche Genehmigung untersagt.

Websites - nicht rechtlich geprüft

Alle Inhalte dieser Website, einschließlich Texte, Bilder und anderer Medien, unterliegen dem Urheberrecht. Die Nutzung unserer Inhalte zum Training von Künstlicher Intelligenz (KI), insbesondere durch automatisierte Crawler oder KI-Modelle, ist ohne ausdrückliche schriftliche Genehmigung untersagt.  Um das unerlaubte Scraping durch KI-Bots zu verhindern, haben wir entsprechende Maßnahmen in unserer robots.txt-Datei implementiert. Solltest du Inhalte unserer Website verwenden oder lizenzieren wollen, kontaktiere uns bitte.

AI - Bots  blockieren: Anweisung robots.txt

Die robots.txt-Datei ist eine einfache Textdatei, die von Webseitenbetreibern verwendet wird, um Web-Crawler oder „Bots“ (automatisierte Programme) anzuweisen, welche Teile ihrer Website sie crawlen (durchsuchen) dürfen und welche nicht. Dies betraf bis dato  vor allem Suchmaschinen-Bots (wie Googlebot von Google). Diese Technik wird aber jetzt auch Künstlicher Intelligenz (KI) genutzt, um Daten zu sammeln, zu analysieren.

Bis gerade eben war ich noch überzeugt, dass  diese Art der Blockade verlässlich  funktioniert – bis meine alte i-Worker-Truppe mich darauf hinwies, dass unseriöse Bots dies lediglich als Empfehlung betrachten und sich davon nicht wirklich von ihrem Beutezug abhalten lassen. Aber vielleicht signalisiert man damit zumindest, dass man nicht beraubt werden möchte.

User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: Google-Extended
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: anthropic-ai
Disallow: /
User-agent: FacebookBot
Disallow: /
User-agent: Applebot
Disallow: /
User-agent: Baiduspider
Disallow: /
User-agent: Yandex
Disallow:/

Ich nutze Cookies,
aber nur technisch notwendige Session-Cookies.