offenen Walnuss

Bitkom AI Brownbag Lunch

06.04.2023 | Brownbag Lunch #3: KI & Talente 

In dieser Ausgabe des AI Brownbag Lunch haben wir gemeinsam mit unseren Gästen Wiebke Denkena, Laurenz Hemmen und Pegah Maham von der Stiftung für Neue Verantwortung diskutiert, wie attraktiv Deutschland als Standort für Talente im Bereich KI ist. 

Grundlage für unsere Diskussion war eine Pilotstudie mit dem Titel „Standort Deutschland – Destination oder Drehscheibe?“, die unsere Gäste im Vorfeld zu diesem Thema durchgeführt haben.  

Die Bundesregierung betrachtet KI als Schlüsseltechnologie für die Wettbewerbs- und Innovationsfähigkeit Deutschlands. Der Anspruch, mit KI „made in Germany“ dem internationalen Wettbewerb einen Stempel aufzudrücken, wird mit einer ambitionierten Strategie und mehreren Milliarden an Fördergeldern untermauert. Um seine ehrgeizigen Ziele zu erreichen, muss Deutschland um die besten Köpfe konkurrieren. Aber wie attraktiv ist Deutschland für KI-Forschende? Gelingt es Universitäten und Forschungsinstituten, vielversprechende Nachwuchswissenschaftler:innen aus aller Welt anzuziehen? Und wo gehen diese Talente nach Abschluss ihres Studiums beziehungsweise ihrer Promotion hin? Die Diskussion dieser und vieler weitere Fragen finden Sie hier.

Zur Aufzeichnung

16.03.2023 | Brownbag Lunch #2: KI & Urheberrecht

Im Rahmen des zweiten AI Brownbag Lunch am 16.03.2023 haben wir uns dem Thema “KI und Urheberrecht” gewidmet. Mit Anwendungen wie ChatGPT oder Lensa ist greifbar zu sehen, wozu KI-Programm bereits in der Lage sind. Aber wie sieht es eigentlich mit den Arbeitsergebnissen dieser Programme aus? Sind KI-generierte Bilder, Texte oder Musik urheberrechtlich geschützt? Können an KI-Werken Lizenzen eingeräumt werden? Wer erhält etwaige Lizenzentgelte für KI-Kunst? Rechtsanwalt Tom Brägelmann und MLaw und Promotionsstudent Pablo Schumacher haben uns Fragen rund um die urheberrechtlichen Aspekte in Bezug KI-Inhalte und KI-Technologien beantworten und Einblicke in die Einsatzmöglichkeiten von KI-Programmen bei der juristischen Arbeit und in der Wissenschaft gegeben.  

Zur Aufzeichnung

10.02.2023 | Brownbag Lunch #1: KI & Haftung  

In der Auftaktveranstaltung am 10.02.2023 haben wir uns dem Thema “KI und Haftung“ gewidmet. Prof. Dr. Dipl. Biol. Herbert Zech von der Humboldt-Universität zu Berlin hat einen Vortrag zu den verschiedenen Akteuren gehalten, die als Haftungssubjekte für künstlich intelligente Systeme in Frage kommen. Darüber hinaus ist das bestehende Haftungsrecht mit aktuellen Gesetzesinitiativen der Europäischen Union, wie etwa dem Entwurf der KI-Haftungsrichtlinie und der Produkthaftungsrichtlinie, verglichen worden.  

Zur Aufzeichnung

Simultane Positionsbestimmung und Kartierung für autonome Systeme

Prof. Dr. Daniel Cremers, TU München

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

Mehr dazu

The reconstruction of the 3D world from moving cameras has seen enormous progress over the last couple of years. Already in the 2000s, researchers have pioneered algorithms which can reconstruct camera motion and sparse feature-points in real-time. In his talk, Daniel Cremers will introduce direct methods for camera tracking and 3D reconstruction which do not require feature point estimation, but exploit all available input data and which recover dense or semi-dense geometry rather than sparse point clouds. Experimental results confirm that the direct approaches lead to a drastic boost in precision and robustness. He will present recent developments on Simultaneous Localization and Mapping (SLAM) using monocular and stereo cameras, inertial sensors and deep neural networks with applications relevant to autonomous systems.

AI in Life Sciences

Prof. Dr. Jan Komorowski, Uppsala University

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

Mehr dazu

Machine Learning (ML) has recently gained a lot of attention also in the area of Life Sciences. While a huge majority of work is focused on Deep Learning (DL), which provides some of the best classifiers, it has several limitations; DL requires a very large number of examples to learn from and it is a black box type of a learner. In Life Sciences an explanation of the classification is of equally big, if not bigger importance. Essentially, given a classifier the researcher wants to know which features (aka attributes or variables) and at what values lead to predictions by the classifier. Oftentimes the number of examples to learn from is not very big and yet we would like to build at least some hypotheses that would help limit the search space to manageable limits.To this end, Professor Komorowski will talk about how rule-based AI systems have gained a renewed interest among researchers who want to make significant discoveries in Life Sciences. He will elaborate on concrete examples from his research on Avian Influenza Virus, HIV and other syndromes to illustrate the importance of interpretable classifiers.

Einsatzmöglichkeiten des maschinellen Lernens mit Quantenrechnern

Prof. Dr. Christian Bauckhage, Fraunhofer IAIS & Universität Bonn

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

Mehr dazu

In diesem Vortrag beschreibt Professor Bauckhage die grundlegenden Prinzipien, Charakteristika und Vorteile des Quantencomputing. Insbesondere zeigt er, dass gewisse Quantencomputing Paradigmen (adiabatic quantum computing) als Verallgemeinerung gewisser Neurocomputing Paradigmen (Hopfield networks) verstanden werden können. Diese Beziehung zwischen Neurocomputing und Quantumcomputing lässt erwarten, dass Quantencomputer zur Lösung einer ganzen Klasse von KI-Problemen genutzt werden können. Anschließend präsentiert er einige Beispiele, die dies illustrieren.

Multiagent Systems: Perspectives for Future AI

Prof. Dr. Michael Rovatsos, University of Edinburgh

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

Mehr dazu

Many real-world AI domains are characterised by interaction between rational (human or artifical) agents that pursue their own, often conflicting, objectives in a shared environment. In this talk, Professor Rovatsos will present an overview of different multiagent planning, learning, and reasoning techniques we have developed under the overarching theme of 'coordination technology', highlighting their relevance to high-impact application domains such as logistics, sharing economy, and social networking. He will also present three areas where he thinks these techniques can make significant contributions in the future - ethical self-regulation of online platforms, auditable AI, and digital twins of sociotechnical systems.

Einsatz der KI für medizinische Bildinterpretation

Mit Prof. Dr. Frank Puppe, Universität Würzburg.

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

 

Mehr dazu

Neuronale Netze haben die maschinelle Bildverarbeitung revolutioniert, was auch die Interpretation medizinischer Bilder umfasst. Im Vortrag werden Grundlagen sowie der aktuelle Forschungsstand in zwei Beispieldomänen (Klassifikation von Röntgenbildern, Detektion von Polypen in Endoskopien) dargestellt. Zudem wird der Referent auf die Echtzeiterkennung in Videos eingehen. Abschließend wird der Grad an Unterstützung von Ärzten durch KI thematisiert.

KI wertschöpfend in Unternehmen einsetzen

Mit Prof. Dr. Patrick Glauner, Hochschule Deggendorf.

Die Aufzeichnung des Vortrags ist hier verfügbar.

 

Mehr dazu

Diese Sonderausgabe haben wir am Digitaltag (19.06.2020) präsentiert. Unser Referent, Prof. Dr. Patrick Glauner (Hochschule Deggendorf), erklärt, wie KI wertschöpfend in Unternehmen eingesetzt werden kann. Der Vortrag bietet im ersten Teil eine Einführung in KI und zeigt verschiedene Anwendungsfälle auf, mit denen wir im täglichen Leben zu tun haben. Im zweiten Teil stellt der Vortrag vor, wie man KI-Potentiale in Unternehmen erkennt und welche technischen und organisatorischen Herausforderungen bei der Umsetzung von KI-Anwendungen auftreten können. Es werden zudem Best-Practices zur Umsetzung von KI vorgestellt und wie diese zu produktiven Anwendungen führen, die schlussendlich einen finanziellen Mehrwert schaffen

Einsatz der KI in sicherheitskritischen Systemen

Mit Prof. Dr. Mario Trapp, Leiter des Fraunhofer-Instituts für Kognitive Systeme.

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

 

Mehr dazu

Künstliche Intelligenz verspricht nie dagewesene Möglichkeiten. Sie stößt allerdings dort an ihre Grenzen, wo sie auf hohe Sicherheitsanforderungen im Sinne von Safety trifft. Das heißt: Im schlimmsten Fall kann ein Fehler der KI Menschenleben kosten. Dies stellt sowohl die Forschung als auch die Industrie vor große Herausforderungen, wie das Beispiel autonomes Fahren zeigt. Zwar gibt es sehr viele Prototypen, die das enorme Potenzial der KI aufzeigen. Aber selbst große Tech-Unternehmen schieben die Markteinführung immer weiter nach hinten – aufgrund fehlender Möglichkeiten eines belastbaren Sicherheitsnachweises. Auch die industrielle Fertigung ist auf eine verlässliche KI angewiesen. Wenn aufgrund von Fehlentscheidungen der KI Produktionsanlagen stillstehen oder fehlerhafte Produkte ausgeliefert werden, drohen enorme finanzielle Verluste. Künstliche Intelligenz für praktische Anwendungen absichern – das steht im Mittelpunkt des Vortrags. Der Referent erklärt, warum bestehende Verfahren oder auch häufig diskutierte Ansätze zur Absicherung autonomer Autos nicht ausreichen. Zur Sprache kommen Konzepte, wie sichere und zuverlässige KI-basierte Systeme entwickelt werden können: durch Verbesserung der KI-Verfahren selbst, aber auch durch Verfahren und Architekturen, die sicherstellen, dass das System trotz Fehler der KI sicher und zuverlässig funktioniert. Zuletzt zeigt ein Ausblick, wie Künstliche Intelligenz trotz dieser Herausforderungen auch heute schon in sicherheitskritischen Anwendungen zum Einsatz kommt.

Reponsible AI

Mit Prof. Dr. Christoph Lütge, Technische Universität München.

Die Aufzeichnung des Vortrags ist hier verfügbar.

 

Mehr dazu

Derzeit werden weltweit KI- und datenbasierte Projekte im Kampf gegen COVID-19 und andere Epidemien ins Leben gerufen. Diese Projekte haben das Potenzial, politische Entscheidungen zu beeinflussen und könnten die Gesundheitssysteme der Zukunft prägen. Wir brauchen aber auch Ethik-Richtlinien für solche Systeme: Wir brauchen Responsible AI, damit Menschen Vertrauen in diese Systeme gewinnen. Diese Richtlinien dürfen kein Hindernis für Innovationen oder für die Bekämpfung von Epidemien sein, müssen aber negative Auswirkungen von KI von vornherein verhindern. Zu diesem Zweck hat das TUM Institute for Ethics in AI das Global AI Ethics Consortium ins Leben gerufen, das - in Kooperation mit Partnern weltweit – verantwortungsbewusste KI im Kampf gegen COVID-19 und andere Epidemien voranbringen will.

Dritte Welle der KI

Mit Prof. Dr. Ute Schmid, Universität Bamberg.

Die Aufzeichnung des Vortrags ist hier verfügbar.

 

Mehr dazu

Maschinelles Lernen wird als eine der wichtigsten Zukunftstechnologien für viele Bereiche der Wirtschaft und der Gesellschaft angesehen. Insbesondere Erfolge von Ansätzen der tiefen neuronalen Netze auf Bilddaten versprechen, dass Modelle für komplexe Entscheidungsszenarien direkt aus Rohdaten gelernt werden können. Zunehmend zeigt sich allerdings, dass rein datengetriebene Ansätze in vielen Bereichen nicht umsetzbar sind: Zum einen können die hohen Anforderungen an die Menge und die Qualität an Daten, die hier für benötigt werden, häufig nicht oder nur mit sehr hohem Aufwand generiert werden. Zum anderen sind Entscheidungen von Blackbox-Modellen in vielen Bereichen rechtlich und ethisch unzulässig. Entsprechend wird aktuell die sogenannte '3rd Wave of AI' ausgerufen, nach der nun Erklärbarkeit die Ansätze des rein datengetriebenen maschinellen Lernens ablöst. Im Vortrag wird aufgezeigt, dass maschinelles Lernen neben tiefen Netzen eine Fülle weiterer Ansätze zu bieten hat. Insbesondere werden aktuelle Entwicklungen für interaktives, erklärbares Maschinelles Lernen erörtert. Ansprechpartner: Dr. Nabil Alsabah, Bereichsleiter Künstliche Intelligenz & Big-Data.AI Summit im Bitkom.

Privatsphäre wahrende Technologie für KI und Föderiertes Lernen

Mit Prof. Dr. Michael Huth, Imperial College London.

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

 

Mehr dazu

Künstliche Intelligenz, insbesondere das Maschinelle Lernen, spielen eine Schlüsselrolle in der momentanen Digitalisierung unserer Wirtschaft und Gesellschaft. Ein effizienter Einsatz von KI muss aber Datenschutzanforderungen erfüllen und, im weiteren Sinne, kulturelle Werte wie das Wahren der Privatsphäre nicht gefährden. In diesem Vortrag wird Professor Huth daher Privatsphäre wahrende Technologien vorstellen und ihre Stärken sowie Schwächen hervorheben. Dann wird er, anhand einer Fallstudie des föderierten Lernens, aufzeigen wie der koordinierte Einsatz unterschiedlicher solcher Technologien eine effiziente KI ermöglicht. Diese wird nicht nur das Vertrauen der Benutzer genießen, sondern auch den Anforderungen des Datenschutzes gerecht werden.

Ethisch-rechtliche Kontrolle von KI Systemen

Mit Prof. Dr. Christoph Benzmüller, Freie Universität Berlin.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

 

Mehr dazu

Die Entwicklung ethisch-rechtlicher Kontrollmechanismen für intelligente und zunehmend autonome Systeme, insbesondere in kritischen Anwendungsgebieten, ist eine wichtige Aufgabe, der wir uns zeitnah stellen müssen. Eine relevante Frage dabei ist, ob ethisch-rechtliches Wissen aus Daten verlässlich gelernt werden kann (und sollte) oder ob es sinnvoller ist, solches Wissen deklarativ vorzugeben. Der KI-Professor Benzmüller plädiert für einen Lösungsansatz, der beide Vorgehensweisen integriert. Die letztendliche Entscheidungskompetenz solle jedoch, so Benzmüller, einer explizit ethisch-rechtlichen Inferenzmaschine vorbehalten bleiben.

Chinas Digitalstrategie

Mit Dr. Kristin Shi-Kupfer, Mercator Institut für China-Studien (MERICS).

Die Aufzeichnung des Vortrags ist hier verfügbar.

 

Mehr dazu

In Europa beobachten wir Chinas Digitaloffensive im In- und Ausland mit einer Mischung von Bewunderung und Angst. So attestieren wir chinesischen Unternehmen einen technischen Vorsprung in der Bild- und Spracherkennung. Wir loben Chinas Investitionen in KI-Forschung und -Entwicklung. Wir wollen uns Chinas rege Startup-Szene gerne abgucken. Gleichzeitig beklagen wir – vielleicht zu Unrecht –, dass China uns im KI-Bereich abgehängt hätte. Wir schaudern vor dem KI-gestützten gesellschaftlichen Bonitätssystem (Social Credit System). Wir debattieren, was Chinas Vordringen in die digitalen Plattformen für unsere digitale Souveränität bedeutet. Dr. Shi-Kupfer, Leiterin des Forschungsbereichs Politik, Gesellschaft und Medien am MERICS, wird die widersprüchlichen Facetten von Chinas Digitalisierungskurs in ein schlüssiges Bild integrieren.

Z Inspection: Towards a Process for Assessing Ethical AI

Mit Prof. Dr. Roberto V. Zicari, Universität Frankfurt.

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

 

Mehr dazu

Maschinelles Lernen hat sich zu einer wichtigen Methode zur Analyse großer Datenmengen entwickelt. Interessant ist dies unter anderem in der Medizin, insbesondere dem Gebiet der Präzisionsmedizin, in dem die Gesundheitsversorgung auf den individuellen Patienten zugeschnitten werden soll. Der Vortrag wird über die jüngsten Entwicklungen auf diesem Gebiet informieren, wobei ein besonderer Schwerpunkt auf der Diagnose und Überwachung neurologischer Erkrankungen wie Morbus Parkinson liegt.

Maschinelles Lernen für die Präzisionsmedizin

Mit Prof. Dr. Björn Eskofier, Universität Erlangen-Nürnberg.

Die Aufzeichnung des Vortrags ist hier verfügbar.

Die Folien zum Beitrag stehen im Bitkom-Mitgliederportal zum Download bereit.

 

Mehr dazu
Maschinelles Lernen hat sich zu einer wichtigen Methode zur Analyse großer Datenmengen entwickelt. Interessant ist dies unter anderem in der Medizin, insbesondere dem Gebiet der Präzisionsmedizin, in dem die Gesundheitsversorgung auf den individuellen Patienten zugeschnitten werden soll. Der Vortrag wird über die jüngsten Entwicklungen auf diesem Gebiet informieren, wobei ein besonderer Schwerpunkt auf der Diagnose und Überwachung neurologischer Erkrankungen wie Morbus Parkinson liegt.
Roboter-Fußball: Quo vadis?

Mit Dr. Thomas Röfer, Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI).

Die Aufzeichnung des Vortrags ist hier verfügbar.

 

Mehr dazu

1997 hat eine Gruppe von KI-Wissenschaftlern die Initiative RoboCup mit einem sehr ambitionierten Ziel ins Leben gerufen: 2050 soll ein Team von Robotfußballern den amtierenden Fußballweltmeister in einem regulären Spiel besiegen. In den vergangenen zwei Dekaden sind enorme Fortschritte in der Hardware erzielt worden, die wiederum den Einsatz anspruchsvollerer Algorithmen beflügelt haben. So konnte man sich über die Jahre den Regeln des menschlichen Fußballs weiter annähern. Hat man 2018 Freistöße und Torwartabstöße erlaubt, so gehören jetzt auch Eckstöße zu den Standardsituationen, mit denen Robotfußballer zurechtkommen müssen.

xAI: Nachvollziehbarkeit maschineller Lernverfahren am Beispiel neuronaler Netze

Mit Prof. Dr. Marco Huber, Leiter des Forschungszentrums Cyber Cognitive Intelligence am Fraunhofer IPA & Universität Stuttgart.

Die Aufzeichnung des Vortrags ist hier verfügbar.

 

Mehr dazu

Tiefe neuronale Netze (Deep-Learning-Algorithmen) sind zu einer Schlüsseltechnologie in Bereichen wie Fertigung, Gesundheitswesen und Finanzen geworden. Denn sie ermöglichen Vorhersagen mit hoher Genauigkeit. Es gibt jedoch viele Szenarien, in denen sehr präzise Vorhersagen allein nicht ausreichen und wo Vertrauen in die Urteilskraft der Algorithmen von entscheidender Bedeutung ist. Kritische Entscheidungen müssen also durch Erklärungen ergänzt werden, damit die Nutzer diese Entscheidungen nachvollziehen können. In diesem Vortrag stellt Marco Huber einen praktischen Ansatz zum Extrahieren von Informationen aus neuronalen Netzen vor. Zu diesem Zweck werden einfache Entscheidungsbäume aus trainierten Modellen extrahiert, anhand deren die Entscheidungen der neuronalen Netze erklärt werden können.