In dieser Ausgabe des AI Brownbag Lunch haben wir gemeinsam mit unseren Gästen Wiebke Denkena, Laurenz Hemmen und Pegah Maham von der Stiftung für Neue Verantwortung diskutiert, wie attraktiv Deutschland als Standort für Talente im Bereich KI ist.
Grundlage für unsere Diskussion war eine Pilotstudie mit dem Titel „Standort Deutschland – Destination oder Drehscheibe?“, die unsere Gäste im Vorfeld zu diesem Thema durchgeführt haben.
Die Bundesregierung betrachtet KI als Schlüsseltechnologie für die Wettbewerbs- und Innovationsfähigkeit Deutschlands. Der Anspruch, mit KI „made in Germany“ dem internationalen Wettbewerb einen Stempel aufzudrücken, wird mit einer ambitionierten Strategie und mehreren Milliarden an Fördergeldern untermauert. Um seine ehrgeizigen Ziele zu erreichen, muss Deutschland um die besten Köpfe konkurrieren. Aber wie attraktiv ist Deutschland für KI-Forschende? Gelingt es Universitäten und Forschungsinstituten, vielversprechende Nachwuchswissenschaftler:innen aus aller Welt anzuziehen? Und wo gehen diese Talente nach Abschluss ihres Studiums beziehungsweise ihrer Promotion hin? Die Diskussion dieser und vieler weitere Fragen finden Sie hier.
Im Rahmen des zweiten AI Brownbag Lunch am 16.03.2023 haben wir uns dem Thema “KI und Urheberrecht” gewidmet. Mit Anwendungen wie ChatGPT oder Lensa ist greifbar zu sehen, wozu KI-Programm bereits in der Lage sind. Aber wie sieht es eigentlich mit den Arbeitsergebnissen dieser Programme aus? Sind KI-generierte Bilder, Texte oder Musik urheberrechtlich geschützt? Können an KI-Werken Lizenzen eingeräumt werden? Wer erhält etwaige Lizenzentgelte für KI-Kunst? Rechtsanwalt Tom Brägelmann und MLaw und Promotionsstudent Pablo Schumacher haben uns Fragen rund um die urheberrechtlichen Aspekte in Bezug KI-Inhalte und KI-Technologien beantworten und Einblicke in die Einsatzmöglichkeiten von KI-Programmen bei der juristischen Arbeit und in der Wissenschaft gegeben.
In der Auftaktveranstaltung am 10.02.2023 haben wir uns dem Thema “KI und Haftung“ gewidmet. Prof. Dr. Dipl. Biol. Herbert Zech von der Humboldt-Universität zu Berlin hat einen Vortrag zu den verschiedenen Akteuren gehalten, die als Haftungssubjekte für künstlich intelligente Systeme in Frage kommen. Darüber hinaus ist das bestehende Haftungsrecht mit aktuellen Gesetzesinitiativen der Europäischen Union, wie etwa dem Entwurf der KI-Haftungsrichtlinie und der Produkthaftungsrichtlinie, verglichen worden.
The reconstruction of the 3D world from moving cameras has seen enormous progress over the last couple of years. Already in the 2000s, researchers have pioneered algorithms which can reconstruct camera motion and sparse feature-points in real-time. In his talk, Daniel Cremers will introduce direct methods for camera tracking and 3D reconstruction which do not require feature point estimation, but exploit all available input data and which recover dense or semi-dense geometry rather than sparse point clouds. Experimental results confirm that the direct approaches lead to a drastic boost in precision and robustness. He will present recent developments on Simultaneous Localization and Mapping (SLAM) using monocular and stereo cameras, inertial sensors and deep neural networks with applications relevant to autonomous systems.
Machine Learning (ML) has recently gained a lot of attention also in the area of Life Sciences. While a huge majority of work is focused on Deep Learning (DL), which provides some of the best classifiers, it has several limitations; DL requires a very large number of examples to learn from and it is a black box type of a learner. In Life Sciences an explanation of the classification is of equally big, if not bigger importance. Essentially, given a classifier the researcher wants to know which features (aka attributes or variables) and at what values lead to predictions by the classifier. Oftentimes the number of examples to learn from is not very big and yet we would like to build at least some hypotheses that would help limit the search space to manageable limits.To this end, Professor Komorowski will talk about how rule-based AI systems have gained a renewed interest among researchers who want to make significant discoveries in Life Sciences. He will elaborate on concrete examples from his research on Avian Influenza Virus, HIV and other syndromes to illustrate the importance of interpretable classifiers.
In diesem Vortrag beschreibt Professor Bauckhage die grundlegenden Prinzipien, Charakteristika und Vorteile des Quantencomputing. Insbesondere zeigt er, dass gewisse Quantencomputing Paradigmen (adiabatic quantum computing) als Verallgemeinerung gewisser Neurocomputing Paradigmen (Hopfield networks) verstanden werden können. Diese Beziehung zwischen Neurocomputing und Quantumcomputing lässt erwarten, dass Quantencomputer zur Lösung einer ganzen Klasse von KI-Problemen genutzt werden können. Anschließend präsentiert er einige Beispiele, die dies illustrieren.
Many real-world AI domains are characterised by interaction between rational (human or artifical) agents that pursue their own, often conflicting, objectives in a shared environment. In this talk, Professor Rovatsos will present an overview of different multiagent planning, learning, and reasoning techniques we have developed under the overarching theme of 'coordination technology', highlighting their relevance to high-impact application domains such as logistics, sharing economy, and social networking. He will also present three areas where he thinks these techniques can make significant contributions in the future - ethical self-regulation of online platforms, auditable AI, and digital twins of sociotechnical systems.
Neuronale Netze haben die maschinelle Bildverarbeitung revolutioniert, was auch die Interpretation medizinischer Bilder umfasst. Im Vortrag werden Grundlagen sowie der aktuelle Forschungsstand in zwei Beispieldomänen (Klassifikation von Röntgenbildern, Detektion von Polypen in Endoskopien) dargestellt. Zudem wird der Referent auf die Echtzeiterkennung in Videos eingehen. Abschließend wird der Grad an Unterstützung von Ärzten durch KI thematisiert.
Diese Sonderausgabe haben wir am Digitaltag (19.06.2020) präsentiert. Unser Referent, Prof. Dr. Patrick Glauner (Hochschule Deggendorf), erklärt, wie KI wertschöpfend in Unternehmen eingesetzt werden kann. Der Vortrag bietet im ersten Teil eine Einführung in KI und zeigt verschiedene Anwendungsfälle auf, mit denen wir im täglichen Leben zu tun haben. Im zweiten Teil stellt der Vortrag vor, wie man KI-Potentiale in Unternehmen erkennt und welche technischen und organisatorischen Herausforderungen bei der Umsetzung von KI-Anwendungen auftreten können. Es werden zudem Best-Practices zur Umsetzung von KI vorgestellt und wie diese zu produktiven Anwendungen führen, die schlussendlich einen finanziellen Mehrwert schaffen
Künstliche Intelligenz verspricht nie dagewesene Möglichkeiten. Sie stößt allerdings dort an ihre Grenzen, wo sie auf hohe Sicherheitsanforderungen im Sinne von Safety trifft. Das heißt: Im schlimmsten Fall kann ein Fehler der KI Menschenleben kosten. Dies stellt sowohl die Forschung als auch die Industrie vor große Herausforderungen, wie das Beispiel autonomes Fahren zeigt. Zwar gibt es sehr viele Prototypen, die das enorme Potenzial der KI aufzeigen. Aber selbst große Tech-Unternehmen schieben die Markteinführung immer weiter nach hinten – aufgrund fehlender Möglichkeiten eines belastbaren Sicherheitsnachweises. Auch die industrielle Fertigung ist auf eine verlässliche KI angewiesen. Wenn aufgrund von Fehlentscheidungen der KI Produktionsanlagen stillstehen oder fehlerhafte Produkte ausgeliefert werden, drohen enorme finanzielle Verluste. Künstliche Intelligenz für praktische Anwendungen absichern – das steht im Mittelpunkt des Vortrags. Der Referent erklärt, warum bestehende Verfahren oder auch häufig diskutierte Ansätze zur Absicherung autonomer Autos nicht ausreichen. Zur Sprache kommen Konzepte, wie sichere und zuverlässige KI-basierte Systeme entwickelt werden können: durch Verbesserung der KI-Verfahren selbst, aber auch durch Verfahren und Architekturen, die sicherstellen, dass das System trotz Fehler der KI sicher und zuverlässig funktioniert. Zuletzt zeigt ein Ausblick, wie Künstliche Intelligenz trotz dieser Herausforderungen auch heute schon in sicherheitskritischen Anwendungen zum Einsatz kommt.
Derzeit werden weltweit KI- und datenbasierte Projekte im Kampf gegen COVID-19 und andere Epidemien ins Leben gerufen. Diese Projekte haben das Potenzial, politische Entscheidungen zu beeinflussen und könnten die Gesundheitssysteme der Zukunft prägen. Wir brauchen aber auch Ethik-Richtlinien für solche Systeme: Wir brauchen Responsible AI, damit Menschen Vertrauen in diese Systeme gewinnen. Diese Richtlinien dürfen kein Hindernis für Innovationen oder für die Bekämpfung von Epidemien sein, müssen aber negative Auswirkungen von KI von vornherein verhindern. Zu diesem Zweck hat das TUM Institute for Ethics in AI das Global AI Ethics Consortium ins Leben gerufen, das - in Kooperation mit Partnern weltweit – verantwortungsbewusste KI im Kampf gegen COVID-19 und andere Epidemien voranbringen will.
Maschinelles Lernen wird als eine der wichtigsten Zukunftstechnologien für viele Bereiche der Wirtschaft und der Gesellschaft angesehen. Insbesondere Erfolge von Ansätzen der tiefen neuronalen Netze auf Bilddaten versprechen, dass Modelle für komplexe Entscheidungsszenarien direkt aus Rohdaten gelernt werden können. Zunehmend zeigt sich allerdings, dass rein datengetriebene Ansätze in vielen Bereichen nicht umsetzbar sind: Zum einen können die hohen Anforderungen an die Menge und die Qualität an Daten, die hier für benötigt werden, häufig nicht oder nur mit sehr hohem Aufwand generiert werden. Zum anderen sind Entscheidungen von Blackbox-Modellen in vielen Bereichen rechtlich und ethisch unzulässig. Entsprechend wird aktuell die sogenannte '3rd Wave of AI' ausgerufen, nach der nun Erklärbarkeit die Ansätze des rein datengetriebenen maschinellen Lernens ablöst. Im Vortrag wird aufgezeigt, dass maschinelles Lernen neben tiefen Netzen eine Fülle weiterer Ansätze zu bieten hat. Insbesondere werden aktuelle Entwicklungen für interaktives, erklärbares Maschinelles Lernen erörtert. Ansprechpartner: Dr. Nabil Alsabah, Bereichsleiter Künstliche Intelligenz & Big-Data.AI Summit im Bitkom.
Künstliche Intelligenz, insbesondere das Maschinelle Lernen, spielen eine Schlüsselrolle in der momentanen Digitalisierung unserer Wirtschaft und Gesellschaft. Ein effizienter Einsatz von KI muss aber Datenschutzanforderungen erfüllen und, im weiteren Sinne, kulturelle Werte wie das Wahren der Privatsphäre nicht gefährden. In diesem Vortrag wird Professor Huth daher Privatsphäre wahrende Technologien vorstellen und ihre Stärken sowie Schwächen hervorheben. Dann wird er, anhand einer Fallstudie des föderierten Lernens, aufzeigen wie der koordinierte Einsatz unterschiedlicher solcher Technologien eine effiziente KI ermöglicht. Diese wird nicht nur das Vertrauen der Benutzer genießen, sondern auch den Anforderungen des Datenschutzes gerecht werden.
Die Entwicklung ethisch-rechtlicher Kontrollmechanismen für intelligente und zunehmend autonome Systeme, insbesondere in kritischen Anwendungsgebieten, ist eine wichtige Aufgabe, der wir uns zeitnah stellen müssen. Eine relevante Frage dabei ist, ob ethisch-rechtliches Wissen aus Daten verlässlich gelernt werden kann (und sollte) oder ob es sinnvoller ist, solches Wissen deklarativ vorzugeben. Der KI-Professor Benzmüller plädiert für einen Lösungsansatz, der beide Vorgehensweisen integriert. Die letztendliche Entscheidungskompetenz solle jedoch, so Benzmüller, einer explizit ethisch-rechtlichen Inferenzmaschine vorbehalten bleiben.
In Europa beobachten wir Chinas Digitaloffensive im In- und Ausland mit einer Mischung von Bewunderung und Angst. So attestieren wir chinesischen Unternehmen einen technischen Vorsprung in der Bild- und Spracherkennung. Wir loben Chinas Investitionen in KI-Forschung und -Entwicklung. Wir wollen uns Chinas rege Startup-Szene gerne abgucken. Gleichzeitig beklagen wir – vielleicht zu Unrecht –, dass China uns im KI-Bereich abgehängt hätte. Wir schaudern vor dem KI-gestützten gesellschaftlichen Bonitätssystem (Social Credit System). Wir debattieren, was Chinas Vordringen in die digitalen Plattformen für unsere digitale Souveränität bedeutet. Dr. Shi-Kupfer, Leiterin des Forschungsbereichs Politik, Gesellschaft und Medien am MERICS, wird die widersprüchlichen Facetten von Chinas Digitalisierungskurs in ein schlüssiges Bild integrieren.
Maschinelles Lernen hat sich zu einer wichtigen Methode zur Analyse großer Datenmengen entwickelt. Interessant ist dies unter anderem in der Medizin, insbesondere dem Gebiet der Präzisionsmedizin, in dem die Gesundheitsversorgung auf den individuellen Patienten zugeschnitten werden soll. Der Vortrag wird über die jüngsten Entwicklungen auf diesem Gebiet informieren, wobei ein besonderer Schwerpunkt auf der Diagnose und Überwachung neurologischer Erkrankungen wie Morbus Parkinson liegt.
1997 hat eine Gruppe von KI-Wissenschaftlern die Initiative RoboCup mit einem sehr ambitionierten Ziel ins Leben gerufen: 2050 soll ein Team von Robotfußballern den amtierenden Fußballweltmeister in einem regulären Spiel besiegen. In den vergangenen zwei Dekaden sind enorme Fortschritte in der Hardware erzielt worden, die wiederum den Einsatz anspruchsvollerer Algorithmen beflügelt haben. So konnte man sich über die Jahre den Regeln des menschlichen Fußballs weiter annähern. Hat man 2018 Freistöße und Torwartabstöße erlaubt, so gehören jetzt auch Eckstöße zu den Standardsituationen, mit denen Robotfußballer zurechtkommen müssen.
Tiefe neuronale Netze (Deep-Learning-Algorithmen) sind zu einer Schlüsseltechnologie in Bereichen wie Fertigung, Gesundheitswesen und Finanzen geworden. Denn sie ermöglichen Vorhersagen mit hoher Genauigkeit. Es gibt jedoch viele Szenarien, in denen sehr präzise Vorhersagen allein nicht ausreichen und wo Vertrauen in die Urteilskraft der Algorithmen von entscheidender Bedeutung ist. Kritische Entscheidungen müssen also durch Erklärungen ergänzt werden, damit die Nutzer diese Entscheidungen nachvollziehen können. In diesem Vortrag stellt Marco Huber einen praktischen Ansatz zum Extrahieren von Informationen aus neuronalen Netzen vor. Zu diesem Zweck werden einfache Entscheidungsbäume aus trainierten Modellen extrahiert, anhand deren die Entscheidungen der neuronalen Netze erklärt werden können.