11.03.2025 – Gemeinsam mit anderen lokalen Großunternehmen setzen sich die Hamburger Energienetze für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz ein.
Bereits heute unterstützen KI-Anwendungen viele Unternehmen bei Routinetätigkeiten – wie etwa bei der Formulierung von Standard-Texten, der Auswertung großer Datenmengen oder in Chat-Anwendungen für das interne Wissensmanagement. Doch wo immer die schnell wachsenden Einsatzgebiete von Algorithmen und Künstlicher Intelligenz liegen, gibt es auch Risiken. „Künstliche Intelligenz spielt in unserem Arbeitsalltag eine zunehmende Rolle“, sagt Dr. Peter Wolffram, Geschäftsführer der Hamburger Energienetze. „Als städtisches Unternehmen und Betreiber kritischer Infrastruktur müssen wir diese Technologie besonders umsichtig betrachten, um ihre Chancen zu nutzen und dabei die Risiken zu mindern.“
Symbolbild: Die „Kollegin KI“ im Einsatz bei den Hamburger Energienetzen. (Foto: KI-generiert, Hamburger Energienetze GmbH)
Konkret bedeutet dies, jede einzelne KI-Anwendung im Unternehmen genau zu evaluieren und kritisch zu prüfen, um mögliche Folgen abzuschätzen. Das ist nach Meinung des Hamburger Netzbetreibers notwendig, da Fairness, Resilienz, Sicherheit, Transparenz und Erklärbarkeit zentrale Bestandteile eines verantwortungsbewussten Umgangs mit KI-Systemen sind. Aus diesem Grund arbeiten die Hamburger Energienetze gemeinsam mit großen Unternehmen wie der Otto Group, der HPC Hamburg Port Consulting, den Hamburger Energiewerken oder Lufthansa Industry Solutions an Leitlinien und konkreten Maßnahmen für alle Unternehmen, die Künstliche Intelligenz einsetzten.
Responsible AI Alliance
Im Hamburger Bündnis mit Namen „Responsible AI Alliance“ (RAI) kommen die Expert:innen aus den Unternehmen mit Rechts- und Ethikfachleuten zusammen, um in monatlichen Austauschterminen Einschätzungen zu Anwendungsszenarien zu erarbeiten und konkrete Praxiserfahrungen miteinander zu teilen.
Nach Meinung der Hamburger Energienetze hat der KI-Praxiseinsatz bereits gezeigt, dass zwischen der täglichen ChatGPT-Anfrage und dem Einsatz von KI in Big-Data-Projekten sowohl Chancen als auch Risiken bestehen. So sind manche KI-Anwendungen – beispielsweise im Umgang mit non-binären Personen oder bei anderen personenbezogenen Daten – in der Vergangenheit aufgrund diskriminierender Vorfälle in die Kritik geraten. Auch in den sozialen Medien gefährden Vorschlags-Algorithmen vielfach einen faktenbasierten Diskurs. Um solche Folgen in Hamburger Unternehmen gar nicht erst entstehen zu lassen, wollen die Partner der RAI definierte Leitplanken und Handlungsempfehlungen formulieren und kontinuierlich weiterentwickeln.
Dabei wollen Mitglieder der RAI den speziellen Rechtsrahmen, den die EU in ihrer Verordnung über künstliche Intelligenz „Artificial Intelligence Act“ im Februar 2025 in Kraft gesetzt hat, mit der Praxis verknüpfen. Auf diese Weise sichert die Initiative ab, dass KI in den Unternehmen verantwortungsbewusst zum Einsatz kommt. (cp)
Beitragsbild: Joachim / stock.adobe.com (KI generiert)