Die Frühjahrstagung des VFM beleuchtete das Spannungsfeld zwischen Künstlicher Intelligenz, Nachhaltigkeit und Ethik – mit überraschenden Erkenntnissen und einem klaren Appell an Medienschaffende – drei spannende Auftaktvorträge eröffneten hierzu einen spannenden Denkraum und konkreten Handlungsansätze.
In der Biosphäre Potsdam, wo ein künstliches Ökosystem durch digitale Technologie im Gleichgewicht gehalten wird, eröffnete der vfm e.V. seine diesjährige Frühjahrstagung mit einer Kernfrage unserer Zeit: Wie verträgt sich der rasante Aufstieg Künstlicher Intelligenz mit ökologischer Nachhaltigkeit und ethischer Verantwortung? Die Antworten der Expert*innen zeichneten ein vielschichtiges Bild – mit direkten Konsequenzen für alle, die täglich mit Informationen, digitalen Werkzeugen und journalistischem Anspruch arbeiten.

Technik, Natur und Ethik: Kein Widerspruch
Bereits in seinem Grußwort setzte Nico Franzen, Geschäftsführer der Biosphäre Potsdam, einen überraschenden Akzent: „Was wir hier in unseren Klimazonen erleben, ist eine harmonische Symbiose zwischen Technologie und Natur.“ Sensoren, Algorithmen und automatisierte Steuerungssysteme halten das empfindliche Gleichgewicht des künstlichen Regenwaldes aufrecht – ein Modell, das sich auch auf den Umgang mit Wissen und Medien übertragen lässt. So wie ein Ökosystem Pflege braucht, benötigen auch Daten und Inhalte eine bewusste, nachhaltige und verantwortungsvolle Handhabung. Die KI kann hier helfen, Inhalte zugänglich zu machen – doch Ursprung und Verantwortung bleiben menschlich.
Diese Verantwortung betrifft nicht nur den Energieverbrauch, sondern auch ethische Fragen der KI-Nutzung. Wie viel Ethik braucht die künstliche Intelligenz – und wie viel davon brauchen wir? Diese Frage stand im Zentrum des Vortrags von Prof. Dr. Sabine Ammon (TU Berlin). Für Medienschaffende birgt das wertvolle Denkanstöße – und einen klaren Appell: Mitgestalten, statt nur Anwenden!

Die ökologische Kehrseite der KI-Revolution
Die Eröffnungskeynote hielt Prof. Dr. Marius Lindauer, KI-Experte der Leibniz Universität Hannover, der die aktuelle Entwicklung von KI-Modellen mit ihren ökologischen Implikationen verknüpfte. Seine Zahlen ließen aufhorchen: Moderne LLM wie GPT‑4 oder Gemini verbrauchen in ihrer Entwicklung Strommengen, die mit dem Jahresbedarf kleinerer Städte vergleichbar sind. Die Entwicklungskosten von über 100 Millionen US-Dollar pro Großmodell fließen zu einem erheblichen Teil in Energiekosten. Die Zahlen sind zwar je nach Studie variierend, aber Sie zeigen deutlich, weshalb solche Grundlegenden KI-Modelle meist nur durch die finanzielle Schlagkraft von Big Tech erst ermöglicht werden und wie manche Anbieter dafür sogar den rechtlichen Rahmen sprengen.
„Der weltweite KI-Energieverbrauch bewegt sich inzwischen im Bereich ganzer Industriestaaten,“ berichtete Lindauer. „Wir sprechen von Strommengen, die mit dem Gesamtverbrauch von Ländern wie Spanien oder Japan vergleichbar sind.“ Besonders problematisch: Für die Kühlung der Rechenzentren werden Milliarden Liter Wasser verbraucht – teilweise in Regionen, die ohnehin unter Wasserknappheit leiden – wie Kalifornien, der Bigtec-Heimat im Silicon Valley.
Eine Studie des MIT aus 2024 beziffert den CO₂-Fußabdruck eines einzelnen ChatGPT-Prompts mit rund 9 Gramm – vergleichbar mit dem Ausdrucken einer Seite Papier. Bei Millionen täglicher Anfragen summiert sich dies zu einem signifikanten ökologischen Faktor.
Besonders beunruhigend: Selbst effizientere Technologien lösen das Problem nicht automatisch. Lindauer verwies hierzu auf das Jevons-Paradoxon – ein wirtschaftswissenschaftliches Phänomen, bei dem Effizienzsteigerungen nicht zu weniger, sondern zu mehr Ressourcenverbrauch führen, weil die Nutzung durch die vermeintliche Nachhaltigkeit exponentiell zunimmt.
Jevons Paradoxon – Ein Beispiel
Stell dir vor, herkömmliche Glühbirnen werden durch energieeffiziente LED-Lampen ersetzt. Diese verbrauchen nur einen Bruchteil des Stroms für die gleiche Lichtleistung.
Erwartung: Der Stromverbrauch für Beleuchtung sinkt, weil jede Lampe weniger Energie benötigt.
Was tatsächlich passiert (Jevons-Paradoxon): Weil das Licht jetzt viel günstiger ist:
- Werden mehr Lampen installiert (z. B. für stimmungsvolle Beleuchtung, Außenbeleuchtung, Dauerbetrieb).
- Menschen lassen das Licht öfter oder länger an.
- Neue Beleuchtungskonzepte (z. B. smarte Systeme) führen zu weiterem Verbrauch.
Folge: Der gesamte Stromverbrauch für Beleuchtung kann trotz höherer Effizienz sogar steigen, weil der gesunkene Preis pro Lichteinheit den Anreiz zur Mehrnutzung erhöht
Früher war man froh, wenn das Nokia-Handy zwei Tage mit einer Akkuladung auskam. Heute sind Smartphones und ihre Akkus zwar deutlich leistungsfähiger und energieeffizienter – doch trotzdem hält der Akku meist nur einen Tag. Der Grund: Mit der gestiegenen Effizienz nahm auch die Nutzung zu – und vor allem die Komplexität der Rechenprozesse.
„Was wir bei Smartphones erlebten, wiederholt sich bei KI,“ warnte der Lindauer. „Je leistungsfähiger und zugänglicher die Technologie wird, desto selbstverständlicher und häufiger setzen wir sie ein – auch für Aufgaben, die mit wesentlich ressourcensparenden Methoden lösbar wären.“

Auch hier ein Beispiel aus unserer täglichen Arbeit: Obwohl man mit unserer DeepVA Object- und Scene Recognition Tags für die Verschlagwortung generieren könnte, ist man natürlich geneigt, dies z.B. mit modernsten Tools wie unserem Deep VA Visual Understanding zu lösen – eine Funktion, die auf einem VLM basiert und damit viel rechenintensiver ist. Solche Überlegungen und Abwägungen müssen angestellt werden, wenn es um KI und Nachhaltigkeit geht – allerdings sind unsere Funktionen sehr effizient und benötigen keine großen Rechenzentren, sondern laufen meist in vorhandener Infrastruktur.
KI in der Medienpraxis: Chance mit doppeltem Boden
Ob automatische Transkription, News-Aggregation oder Content-Generierung – KI ist längst Teil des redaktionellen Alltags. Doch wie Prof. Ammon betonte, liegt die eigentliche Herausforderung nicht im Tool selbst, sondern in den Praktiken, die sich darum entwickeln. „Die meisten Probleme entstehen nicht durch das Artefakt, sondern durch die Anwendungskultur“, so Ammon. Nicht das Ergebnis der Algorithmen ist das Problem, sondern in welchen Kontext das Ergebnis gesetzt wird. Medienschaffende müssten lernen, bestehende Ethik-Leitlinien wie Transparenz oder Fairness in den jeweiligen Kontext zu übersetzen und praktisch umzusetzen.
Das bedeutet:
-
Plausibilitätsprüfung: Ist das KI-Ergebnis nachvollziehbar?
Kann ich erkennen, wie die KI zu diesem Ergebnis gekommen ist
-
Reflexionskompetenz: Verfügt das Team über das Wissen, um es einzuordnen?
Weiß die Redaktion genug über KI, um das Ergebnis richtig zu bewerten?
-
Domänenethik: Werden berufsspezifische Werte wie Pressefreiheit berücksichtigt?
Achten wir darauf, dass bei der KI-Nutzung journalistische Grundregeln eingehalten werden?
-
Funktionale Transparenz: Können Journalist*innen erklären, wie das Ergebnis zustande kam?
Können wir unseren Leser*innen verständlich machen, wie und warum die KI das so ausgegeben hat?
Dies erfordert sogenannte epistemische Souveränität – also die Fähigkeit, KI-Ausgaben in journalistisch fundierte Urteile zu überführen. Journalist:Innen sollen in der Lage sein, die Ergebnisse einer KI nicht nur zu übernehmen, sondern zu hinterfragen, zu bewerten und in den richtigen Kontext zu setzen. Es reicht nicht, der Technik zu vertrauen – man muss wissen, was sie leistet, warum sie es tut und wie verlässlich sie ist, um damit ethisch umgehen zu können. Dabei stellte Prof. Ammon die vielen Vorteile der Technologie, nicht in Frage.

Nachhaltigkeit durch Gestaltung – nicht durch Verzicht
Trotz der auf den ersten Blick ernüchternden Bilanz sieht auch Lindauer klar die positive Potenziale: KI kann durch optimierte Logistik, intelligente Produktionssteuerung und effiziente Informationsaufbereitung helfen, Ressourcen zu sparen und ist hierzu schon vielerorts im Einsatz. Entscheidend sei aber auch hier das „Wie oft, wofür und wie bewusst“. Statt auf Gigamodellen und Cloudlösungen zu setzen, könnten kleinere, lokal betriebene Systeme viele Aufgaben ebenfalls effizient erledigen – bei deutlich geringerem Ressourcenverbrauch.
Auch Prof. Ammon fordert eine aktive Mitgestaltung des Themas KI durch die Medienschaffenden. Ethik dürfe kein nachträglicher Zusatz sein, sondern müsse integraler Bestandteil bei der Entwicklung, Auswahl und Anwendung von Tools sein und müsse oft genug von den Nutzern adressiert werden, um Gehör zu finden. Die aktive Mitgestaltung – z.B. durch Mitarbeiterschulungen, selbst entwickelte Richtlinien oder Rückkopplung bei der Entwicklung von Tools gemeinsam mit den Entwicklern – sei keine Kür, sondern Pflicht.
Medienarbeit mit Verantwortung
Für Medienprofis ergibt sich damit ein differenziertes Bild ihrer Rolle: Einerseits können KI-Werkzeuge die Arbeit erleichtern. Andererseits trägt jede Nutzung einen ökologischen und ethischen Rucksack. Eine Umfrage des Reuters Institute aus 2024 zeigt: 78 % der Medienhäuser nutzen KI regelmäßig, aber nur 12 % berücksichtigen Nachhaltigkeitskriterien. Die Diskrepanz zwischen Bewusstsein und Handeln scheint in dieser Studie erheblich.
Auf der Frühjahrstagung gab es deshalb auch konkrete Handlungsempfehlungen:
-
Bewusster KI-Einsatz:
Nicht jede Recherche, nicht jede Texterstellung, nicht jede Bildbearbeitung benötigt KI-Unterstützung. Die Frage „Ist hier wirklich ein leistungshungriges Modell nötig?“ sollte Teil des professionellen Selbstverständnisses werden.
-
Kompetente Auswahl:
Je präziser die Anforderungen formuliert werden, desto effizienter kann KI arbeiten. Medienprofis sollten lernen, Prompts so zu gestalten, dass sie mit minimaler Rechenleistung optimale Ergebnisse erzielen. Oft spielt die Eingabesprache schon eine große Rolle – Englisch ist z.B. meist effizienter.
-
Medienbildung:
Wer KI nutzt, muss auch deren Grenzen erklären können – nicht nur in Fußnoten, sondern auch in der Erzählung. Ohne dieses Wissen, begibt man sich in eine Blinde Abhängigkeit.
-
Alternative Technologien:
Lokale, spezialisierte KI-Lösungen können für viele Aufgaben ausreichen und sparen erhebliche Ressourcen im Vergleich zu Cloud-basierten Diensten.

Ein umfassendes Bewusstsein im Umgang mit KI scheint dabei auch in Zahlen einen Nachhaltigen Mehrwert zu erzeugen: Laut einer Studie der Boston Consulting Group könnten Medienunternehmen durch bewusste KI-Auswahl ihren digitalen CO₂-Fußabdruck um bis zu 40 % reduzieren – ohne Qualitätseinbußen. Und in dieser Studie spielten die geopolitischen Überwerfungen der letzten Monate noch keine Rolle – diese kommen noch on-top.
Fazit: KI braucht Haltung – und aktives Gestalten
Die Frühjahrstagung des vfm machte unmissverständlich klar: Künstliche Intelligenz bewegt sich zwischen Klimakiller und Hoffnungsträger, zwischen neutralem Werkzeug und gesellschaftlich wirksamen Medium. Wohin die Reise geht, ist keine rein technische, sondern eine gestalterische Frage – und liegt maßgeblich in den Händen der Medienschaffenden.
Der AI Act mag gesetzliche Rahmen setzen, doch die ethische Praxis entscheidet sich im Redaktionsalltag: in der Auswahl von Tools, im reflektierten Umgang mit Ergebnissen und in der Verantwortung gegenüber Publikum und Umwelt.
Gefragt ist deshalb ein neues Technikverständnis: Nicht das technisch Machbare darf Maßstab sein, sondern das verantwortungsvoll Zielgerichtete. Wer mit KI arbeitet, muss nicht alles tun, was möglich ist – sondern das Richtige tun, weil es sinnvoll und vertretbar ist. Prof. Lindauer fragte deshalb abschließend ketzerisch, ob seine Einstiegsfolie aus KI-generierten Selbstporträts den CO2-Ausstoß wert sei, nur um die Aufmerksamkeit des Publikums zu erregen – eine gute Frage.
