KI: Klima­killer, Hoffnungs­träger und was ist eigentlich mit der Ethik?

Die Frühjahrs­tagung des VFM beleuchtete das Spannungsfeld zwischen Künst­licher Intel­ligenz, Nachhal­tigkeit und Ethik – mit überra­schenden Erkennt­nissen und einem klaren Appell an Medien­schaf­fende – drei spannende Auftakt­vor­träge eröff­neten hierzu einen spannenden Denkraum und konkreten Handlungs­an­sätze.

In der Biosphäre Potsdam, wo ein künst­liches Ökosystem durch digitale Techno­logie im Gleich­ge­wicht gehalten wird, eröffnete der vfm e.V. seine diesjährige Frühjahrs­tagung mit einer Kernfrage unserer Zeit: Wie verträgt sich der rasante Aufstieg Künst­licher Intel­ligenz mit ökolo­gi­scher Nachhal­tigkeit und ethischer Verant­wortung? Die Antworten der Expert*innen zeich­neten ein vielschich­tiges Bild – mit direkten Konse­quenzen für alle, die täglich mit Infor­ma­tionen, digitalen Werkzeugen und journa­lis­ti­schem Anspruch arbeiten.

Die Expert:innen aus allen Medien­häusern waren sowohl digital als auch vor Ort anwesend und betei­ligten sich an der Diskussion

Technik, Natur und Ethik: Kein Wider­spruch

Bereits in seinem Grußwort setzte Nico Franzen, Geschäfts­führer der Biosphäre Potsdam, einen überra­schenden Akzent: „Was wir hier in unseren Klima­zonen erleben, ist eine harmo­nische Symbiose zwischen Techno­logie und Natur.“ Sensoren, Algorithmen und automa­ti­sierte Steue­rungs­systeme halten das empfind­liche Gleich­ge­wicht des künst­lichen Regen­waldes aufrecht – ein Modell, das sich auch auf den Umgang mit Wissen und Medien übertragen lässt. So wie ein Ökosystem Pflege braucht, benötigen auch Daten und Inhalte eine bewusste, nachhaltige und verant­wor­tungs­volle Handhabung. Die KI kann hier helfen, Inhalte zugänglich zu machen – doch Ursprung und Verant­wortung bleiben menschlich.

Diese Verant­wortung betrifft nicht nur den Energie­ver­brauch, sondern auch ethische Fragen der KI-Nutzung. Wie viel Ethik braucht die künst­liche Intel­ligenz – und wie viel davon brauchen wir? Diese Frage stand im Zentrum des Vortrags von Prof. Dr. Sabine Ammon (TU Berlin). Für Medien­schaf­fende birgt das wertvolle Denkan­stöße – und einen klaren Appell: Mitge­stalten, statt nur Anwenden!

Biosphäre Potsdam – ein Ort der Nachhal­tigkeit: Ökologie, Bildung aber auch Techno­logie hält sich hier die Waage und sorgt für klima­ti­sches Gleich­ge­wicht

Die ökolo­gische Kehrseite der KI-Revolution

Die Eröff­nungs­keynote hielt Prof. Dr. Marius Lindauer, KI-Experte der Leibniz Univer­sität Hannover, der die aktuelle Entwicklung von KI-Modellen mit ihren ökolo­gi­schen Impli­ka­tionen verknüpfte. Seine Zahlen ließen aufhorchen: Moderne LLM wie GPT‑4 oder Gemini verbrauchen in ihrer Entwicklung Strom­mengen, die mit dem Jahres­bedarf kleinerer Städte vergleichbar sind. Die Entwick­lungs­kosten von über 100 Millionen US-Dollar pro Großmodell fließen zu einem erheb­lichen Teil in Energie­kosten. Die Zahlen sind zwar je nach Studie variierend, aber Sie zeigen deutlich, weshalb solche Grund­le­genden KI-Modelle meist nur durch die finan­zielle Schlag­kraft von Big Tech erst ermög­licht werden und wie manche Anbieter dafür sogar den recht­lichen Rahmen sprengen.

„Der weltweite KI-Energieverbrauch bewegt sich inzwi­schen im Bereich ganzer Indus­trie­staaten,“ berichtete Lindauer. „Wir sprechen von Strom­mengen, die mit dem Gesamt­ver­brauch von Ländern wie Spanien oder Japan vergleichbar sind.“ Besonders proble­ma­tisch: Für die Kühlung der Rechen­zentren werden Milli­arden Liter Wasser verbraucht – teilweise in Regionen, die ohnehin unter Wasser­knappheit leiden – wie Kalifornien, der Bigtec-Heimat im Silicon Valley.

Eine Studie des MIT aus 2024 beziffert den CO₂-Fußabdruck eines einzelnen ChatGPT-Prompts mit rund 9 Gramm – vergleichbar mit dem Ausdrucken einer Seite Papier. Bei Millionen täglicher Anfragen summiert sich dies zu einem signi­fi­kanten ökolo­gi­schen Faktor.

Besonders beunru­higend: Selbst effizi­entere Techno­logien lösen das Problem nicht automa­tisch. Lindauer verwies hierzu auf das Jevons-Paradoxon – ein wirtschafts­wis­sen­schaft­liches Phänomen, bei dem Effizi­enz­stei­ge­rungen nicht zu weniger, sondern zu mehr Ressour­cen­ver­brauch führen, weil die Nutzung durch die vermeint­liche Nachhal­tigkeit exponen­tiell zunimmt.

Jevons Paradoxon – Ein Beispiel

Stell dir vor, herkömm­liche Glühbirnen werden durch energie­ef­fi­ziente LED-Lampen ersetzt. Diese verbrauchen nur einen Bruchteil des Stroms für die gleiche Licht­leistung.

Erwartung: Der Strom­ver­brauch für Beleuchtung sinkt, weil jede Lampe weniger Energie benötigt.

Was tatsächlich passiert (Jevons-Paradoxon): Weil das Licht jetzt viel günstiger ist:

  • Werden mehr Lampen instal­liert (z. B. für stimmungs­volle Beleuchtung, Außen­be­leuchtung, Dauer­be­trieb).
  • Menschen lassen das Licht öfter oder länger an.
  • Neue Beleuch­tungs­kon­zepte (z. B. smarte Systeme) führen zu weiterem Verbrauch.

Folge: Der gesamte Strom­ver­brauch für Beleuchtung kann trotz höherer Effizienz sogar steigen, weil der gesunkene Preis pro Licht­einheit den Anreiz zur Mehrnutzung erhöht

Früher war man froh, wenn das Nokia-Handy zwei Tage mit einer Akkuladung auskam. Heute sind Smart­phones und ihre Akkus zwar deutlich leistungs­fä­higer und energie­ef­fi­zi­enter – doch trotzdem hält der Akku meist nur einen Tag. Der Grund: Mit der gestie­genen Effizienz nahm auch die Nutzung zu – und vor allem die Komple­xität der Rechen­pro­zesse.

„Was wir bei Smart­phones erlebten, wiederholt sich bei KI,“ warnte der Lindauer. „Je leistungs­fä­higer und zugäng­licher die Techno­logie wird, desto selbst­ver­ständ­licher und häufiger setzen wir sie ein – auch für Aufgaben, die mit wesentlich ressour­cen­spa­renden Methoden lösbar wären.“

Auch das Publikum meldete sich rege zum Vortrag von Prof. Lindauer zu Wort.

Auch hier ein Beispiel aus unserer täglichen Arbeit: Obwohl man mit unserer DeepVA Object- und Scene Recognition Tags für die Verschlag­wortung generieren könnte, ist man natürlich geneigt, dies z.B. mit modernsten Tools wie unserem Deep VA Visual Under­standing zu lösen – eine Funktion, die auf einem VLM basiert und damit viel rechen­in­ten­siver ist. Solche Überle­gungen und Abwägungen müssen angestellt werden, wenn es um KI und Nachhal­tigkeit geht – aller­dings sind unsere Funktionen sehr effizient und benötigen keine großen Rechen­zentren, sondern laufen meist in vorhan­dener Infra­struktur.

KI in der Medien­praxis: Chance mit doppeltem Boden

Ob automa­tische Transkription, News-Aggregation oder Content-Generierung – KI ist längst Teil des redak­tio­nellen Alltags. Doch wie Prof. Ammon betonte, liegt die eigent­liche Heraus­for­derung nicht im Tool selbst, sondern in den Praktiken, die sich darum entwi­ckeln. „Die meisten Probleme entstehen nicht durch das Artefakt, sondern durch die Anwen­dungs­kultur“, so Ammon. Nicht das Ergebnis der Algorithmen ist das Problem, sondern in welchen Kontext das Ergebnis gesetzt wird. Medien­schaf­fende müssten lernen, bestehende Ethik-Leitlinien wie Trans­parenz oder Fairness in den jewei­ligen Kontext zu übersetzen und praktisch umzusetzen.

Das bedeutet:

  • Plausi­bi­li­täts­prüfung: Ist das KI-Ergebnis nachvoll­ziehbar?

    Kann ich erkennen, wie die KI zu diesem Ergebnis gekommen ist

  • Refle­xi­ons­kom­petenz: Verfügt das Team über das Wissen, um es einzu­ordnen?

    Weiß die Redaktion genug über KI, um das Ergebnis richtig zu bewerten?

  • Domänen­ethik: Werden berufs­spe­zi­fische Werte wie Presse­freiheit berück­sichtigt?

    Achten wir darauf, dass bei der KI-Nutzung journa­lis­tische Grund­regeln einge­halten werden?

  • Funktionale Trans­parenz: Können Journalist*innen erklären, wie das Ergebnis zustande kam?

    Können wir unseren Leser*innen verständlich machen, wie und warum die KI das so ausge­geben hat?

Dies erfordert sogenannte episte­mische Souve­rä­nität – also die Fähigkeit, KI-Ausgaben in journa­lis­tisch fundierte Urteile zu überführen. Journalist:Innen sollen in der Lage sein, die Ergeb­nisse einer KI nicht nur zu übernehmen, sondern zu hinter­fragen, zu bewerten und in den richtigen Kontext zu setzen. Es reicht nicht, der Technik zu vertrauen – man muss wissen, was sie leistet, warum sie es tut und wie verlässlich sie ist, um damit ethisch umgehen zu können. Dabei stellte Prof. Ammon die vielen Vorteile der Techno­logie, nicht in Frage.

Prof. Ammon gab konkrete Empfeh­lungen für die Anwendung von KI im Arbeits­alltag ab.

Nachhal­tigkeit durch Gestaltung – nicht durch Verzicht

Trotz der auf den ersten Blick ernüch­ternden Bilanz sieht auch Lindauer klar die positive Poten­ziale: KI kann durch optimierte Logistik, intel­li­gente Produk­ti­ons­steuerung und effiziente Infor­ma­ti­ons­auf­be­reitung helfen, Ressourcen zu sparen und ist hierzu schon vielerorts im Einsatz. Entscheidend sei aber auch hier das „Wie oft, wofür und wie bewusst“. Statt auf Gigamodellen und Cloud­lö­sungen zu setzen, könnten kleinere, lokal betriebene Systeme viele Aufgaben ebenfalls effizient erledigen – bei deutlich gerin­gerem Ressour­cen­ver­brauch.

Auch Prof. Ammon fordert eine aktive Mitge­staltung des Themas KI durch die Medien­schaf­fenden. Ethik dürfe kein nachträg­licher Zusatz sein, sondern müsse integraler Bestandteil bei der Entwicklung, Auswahl und Anwendung von Tools sein und müsse oft genug von den Nutzern adres­siert werden, um Gehör zu finden. Die aktive Mitge­staltung – z.B. durch Mitar­bei­ter­schu­lungen, selbst entwi­ckelte Richt­linien oder Rückkopplung bei der Entwicklung von Tools gemeinsam mit den Entwicklern – sei keine Kür, sondern Pflicht.

Medien­arbeit mit Verant­wortung

Für Medien­profis ergibt sich damit ein diffe­ren­ziertes Bild ihrer Rolle: Einer­seits können KI-Werkzeuge die Arbeit erleichtern. Anderer­seits trägt jede Nutzung einen ökolo­gi­schen und ethischen Rucksack. Eine Umfrage des Reuters Institute aus 2024 zeigt: 78 % der Medien­häuser nutzen KI regel­mäßig, aber nur 12 % berück­sich­tigen Nachhal­tig­keits­kri­terien. Die Diskrepanz zwischen Bewusstsein und Handeln scheint in dieser Studie erheblich.

Auf der Frühjahrs­tagung gab es deshalb auch konkrete Handlungs­emp­feh­lungen:

  • Bewusster KI-Einsatz:

    Nicht jede Recherche, nicht jede Texterstellung, nicht jede Bildbe­ar­beitung benötigt KI-Unterstützung. Die Frage „Ist hier wirklich ein leistungs­hung­riges Modell nötig?“ sollte Teil des profes­sio­nellen Selbst­ver­ständ­nisses werden.

  • Kompe­tente Auswahl:

    Je präziser die Anfor­de­rungen formu­liert werden, desto effizi­enter kann KI arbeiten. Medien­profis sollten lernen, Prompts so zu gestalten, dass sie mit minimaler Rechen­leistung optimale Ergeb­nisse erzielen. Oft spielt die Einga­be­sprache schon eine große Rolle – Englisch ist z.B. meist effizi­enter.

  • Medien­bildung:

    Wer KI nutzt, muss auch deren Grenzen erklären können – nicht nur in Fußnoten, sondern auch in der Erzählung. Ohne dieses Wissen, begibt man sich in eine Blinde Abhän­gigkeit.

  • Alter­native Techno­logien:

    Lokale, spezia­li­sierte KI-Lösungen können für viele Aufgaben ausreichen und sparen erheb­liche Ressourcen im Vergleich zu Cloud-basierten Diensten.

Prof. Ammon appel­lierte nicht nur an das Nutzen, sondern auch an das Reflek­tieren der jewei­ligen Nutzung.

Ein umfas­sendes Bewusstsein im Umgang mit KI scheint dabei auch in Zahlen einen Nachhal­tigen Mehrwert zu erzeugen: Laut einer Studie der Boston Consulting Group könnten Medien­un­ter­nehmen durch bewusste KI-Auswahl ihren digitalen CO₂-Fußabdruck um bis zu 40 % reduzieren – ohne Quali­täts­ein­bußen. Und in dieser Studie spielten die geopo­li­ti­schen Überwer­fungen der letzten Monate noch keine Rolle – diese kommen noch on-top.

Fazit: KI braucht Haltung – und aktives Gestalten

Die Frühjahrs­tagung des vfm machte unmiss­ver­ständlich klar: Künst­liche Intel­ligenz bewegt sich zwischen Klima­killer und Hoffnungs­träger, zwischen neutralem Werkzeug und gesell­schaftlich wirksamen Medium. Wohin die Reise geht, ist keine rein technische, sondern eine gestal­te­rische Frage – und liegt maßgeblich in den Händen der Medien­schaf­fenden.

Der AI Act mag gesetz­liche Rahmen setzen, doch die ethische Praxis entscheidet sich im Redak­ti­ons­alltag: in der Auswahl von Tools, im reflek­tierten Umgang mit Ergeb­nissen und in der Verant­wortung gegenüber Publikum und Umwelt.

Gefragt ist deshalb ein neues Technik­ver­ständnis: Nicht das technisch Machbare darf Maßstab sein, sondern das verant­wor­tungsvoll Zielge­richtete. Wer mit KI arbeitet, muss nicht alles tun, was möglich ist – sondern das Richtige tun, weil es sinnvoll und vertretbar ist. Prof. Lindauer fragte deshalb abschließend ketze­risch, ob seine Einstiegs­folie aus KI-generierten Selbst­por­träts den CO2-Ausstoß wert sei, nur um die Aufmerk­samkeit des Publikums zu erregen – eine gute Frage.

Auf der Frühjahrs­tagung wurde viel über die großen Fragen disku­tiert, aber auch die kleinen Impulse gaben Anregungen zum Nachdenken über Nachhal­tigkeit und Ökologie.

Teilen

Email
LinkedIn
Facebook
Twitter
Suche

Inhaltsübersicht

Tage :
Stunden :
Minuten :
Sekunden

Neueste KI-Nachrichten

Abonnieren Sie unseren Newsletter

Keine Sorge, unser Newsletter ist für wichtige Neuigkeiten reserviert, so dass wir nur hin und wieder ein paar Updates versenden. Kein Spam!