News

Newsfilter

KI.Meetup NRW: AI Act now – was es für Unternehmen jetzt zu tun gibt

Am 21. November 2024 lädt KI.NRW gemeinsam mit der AICommunityOWL im Rahmen der KI Biennale zum dritten »KI Meetup NRW« in den Digital Campus Zollverein ein.

 

Gebündelte KI-Expertise auf Symposium: Prüfungsangebote für Künstliche Intelligenz skalieren

Prüfung, Konformität, Zertifizierung – auf dem Symposium »Scaling AI Assessments«, veranstaltet durch das Flagship-Projekt »ZERTIFIZIERTE KI«, haben Forschende, Unternehmen und Rechtsexpert*innen Lösungsansätze und neueste Entwicklungen für die Operationalisierung von Prüfungen Künstlicher Intelligenz (KI) vorgestellt und diskutiert. Im Fokus stand hierbei die Umsetzung der Europäischen KI-Verordnung (engl. »AI Act«), die einen dringenden Bedarf nach skalierbaren Angeboten zur KI-Qualitätssicherung mit sich bringt.

Symposium zu marktfähigen KI-Prüfungen

Am 30. September und 1. Oktober drehte sich in den Design Offices Dominium in Köln zwei Tage lang alles um Vertrauenswürdigkeit als zentrale Voraussetzung für Anwendungen der Künstlichen Intelligenz. Ziel des Symposiums war es, marktfähige KI-Prüfungen für vertrauenswürdige KI voranzutreiben.

ZERTIFIZIERTE KI auf der Hannover Messe 2024

Treffen Sie unsere Expertinnen und Experten persönlich auf der Hannover Messe 2024. Auf dem Fraunhofer-Stand in Halle 2, Stand B24, können sich Fachbesucherinnen und Fachbesucher vom 22. bis 26. April 2024 kostenlos zum Projekt informieren.

Fraunhofer-Podcast

Im Podcast der Fraunhofer-Gesellschaft spricht Dr. Maximilian Poretschkin, Leiter KI-Absicherung und -Zertifizierung am Fraunhofer IAIS und Projektleiter des KI.NRW Flagships »Zertifizierte KI« über KI-Zertifizierung »made in Germany«.

Standar­disierungs­aktivitäten

Im Projekt arbeiten wir kontinuierlich an Standardisierungsaktivitäten, um Qualitätsanforderungen für Werkzeuge, Prozesse und Anwendungsfelder Künstlicher Intelligenz zu definieren. Diese dienen als Grundlage für die Entwicklung praxistauglicher KI-Prüfungen.

Whitepaper zu vertrauenswürdigen KI-Anwendungen mit Foundation-Modellen

Die Vertrauenswürdigkeit von KI-Anwendungen wird auch mit der kommenden KI-Verordnung der EU adressiert. Das neue Whitepaper erläutert, wie sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und stellt eine risikobasierte Systematik zur Bewertung und Sicherung der Vertrauenswürdigkeit solcher KI-Anwendungen vor. 

2nd International Workshop |
Responsible AI Engineering RAIE ’24

Im Rahmen der International Conference of Software Engineering 2024 in Lissabon findet auch der zweite Workshop “Responsible AI Engineering RAIE ’24” statt. Der Call for Papers läuft noch bis zum 08. November, jetzt teilnehmen!

Whitepaper: KI-Anwendungen systematisch prüfen und absichern

Das neue Whitepaper stellt ein Prüf-Framework vor, das als Plattform zur Integration von KI-Prüfwerkzeugen dient. Außerdem werden ausgewählte KI-Prüfwerkzeuge, die für unterschiedliche Anwendungsbereiche genutzt werden können, sowie ihre Funktionalitäten im Detail erklärt.

Herzliche Einladung

Fachlicher Austausch und innovative Praxisbeispiele: Beim FORUM ZERTIFIZIERTE KI bringen wir wichtige Akteure aus Wissenschaft, Wirtschaft und Politik rund um vertrauenswürdige KI zusammen und zeigen, wie Unternehmen sich auf die kommende Regulatorik vorbereiten und KI-Prüfungen gewinnbringend einsetzen können.

Workshop »Ansätze zum Testen neuronaler Netze«

Im Online-Workshop am 12.12. geht um neue Ansätze und konkrete Verfahren zur Sicherung der Qualität neuronaler Netze durch systematisches und automatisiertes Testen, angepasst an Deep Learning Tools.

Workshop »Bias im Kontext Smart Hospital«

Welche Bias-Arten gibt es und welche Auswirkungen haben sie? Im Workshop am 25. November beleuchten wir das Thema aus den Perspektiven Recht, Medizin und Technik und gehen mit Ihnen in die Diskussion.

Mit­wirkung an Standar­disierungs­aktivitäten

Im Projekt ZERTIFIZIERTE KI wurden die Arbeiten zum 3. Standar­disierungs­projekt gestartet: »DIN SPEC 92005: Künst­liche Intelli­genz – Quanti­fizierung von Un­sicher­heiten im Maschi­nellen Lernen«. Sie haben Inter­esse an der Mit­wirkung? Wir freuen uns über Ihre Anmeldung. Nutzen Sie dafür diesen Login‑Code: DS92005.

Mitwirkung an Standardisierungsaktivitäten

Sie haben Interesse an der Mitwirkung am Geschäftsplan der geplanten DIN SPEC 92001-3 »Künstliche Intelligenz – Life Cycle Prozesse und Qualitätsanforderungen – Teil 3: Erklärbarkeit«? Schreiben Sie uns bis zum 1. August an ZERTIFIZIERTE.KI(at)din.de.

Ver­fahren zur Inter­pretier­bar­keit von neuro­nalen Netzen

Der Anwender­­kreis »Trans­parenz in neuro­­nalen Netzen« geht in die nächste Runde. Melden Sie sich jetzt für den zweiten digitalen Work­shop rund um Ver­fahren zur Inter­pretier­bar­keit am 21. Juni 2022 an.