Expertinnen und Experten der Plattform Lernende Systeme beleuchten in einem neuen Whitepaper, wie es um die Entwicklung europäischer bzw. deutscher KI-Sprachmodelle bestellt ist.
Große Sprachmodelle wie ChatGPT oder PaLM 2 versprechen mächtige KI-Lösungen für Wirtschaft und Gesellschaft. Ihre Ergebnisse sind jedoch nicht immer nachvollziehbar, oft fehlerhaft oder mit Vorurteilen behaftet. Expertinnen und Experten der Plattform Lernende Systeme sehen die Forschung in Deutschland in einer guten Ausgangsposition, um die technischen Herausforderungen der KI-Technologie anzugehen, sie im Sinne europäischer Werte zu entwickeln und so ihre Potenziale für Deutschland und Europa auszuschöpfen. Voraussetzung dafür sei ein europäisches Ökosystem für die Entwicklung großer Sprachmodelle sowie eine anwendungsnahe Forschung, die den Transfer in die industrielle Praxis erleichtere, so die Experten der Plattform. In einem aktuellem Whitepaper benennen sie die dringlichsten Forschungsbedarfe und Handlungsoptionen.
Obwohl deutsche Forscherinnen und Forscher an vielen Stellen an der Entwicklung großer Sprachmodelle beteiligt sind, dürfe die Forschung und Entwicklung in Deutschland in diesem dynamischen Forschungsfeld, das stark durch außereuropäische Akteure und große Technologieunternehmen geprägt wird, nicht den Anschluss verlieren, heißt es in dem Whitepaper. “Wenn wir Sprachmodelle für Anwendungen in und aus Europa nutzen wollen, brauchen wir europäische Sprachmodelle, die die hiesigen Sprachen beherrschen, die Bedürfnisse unserer Unternehmen und ethischen Anforderungen unserer Gesellschaft berücksichtigen. Aktuell werden die Sprachmodelle aber von amerikanischen und chinesischen Tech-Riesen erstellt – und kontrolliert”, so Volker Tresp, Professor für Maschinelles Lernen an der Ludwig-Maximilians-Universität München und Leiter der Arbeitsgruppe Technologische Wegbereiter und Data Science der Plattform Lernende Systeme.
Aktuell gibt es nur wenige einsprachige, sogenannte monolinguale Modelle, die auf ausschließlich deutschen Textdaten beruhen. Auch Modelle, die domänen-spezifische Sprache sensibler Anwendungsbereiche wie Medizin und Justiz berücksichtigen, sind nicht verbreitet. Viele bedeutende, mehrsprachige Modelle wie GPT-4 sind hingegen für die öffentliche Forschung meist nicht offen zugänglich.
“Sprachmodelle verfügen über ein enormes wirtschaftliches Potenzial. Für einen Großteil der deutschen Unternehmen ist es aber nicht rentabel, Sprachmodelle für den Einsatz im eigenen Betrieb aufzubauen. Leider existiert derzeit jedoch kein ausreichend leistungsfähiges und kommerziell nutzbares Modell für die deutsche Sprache. Wir benötigen daher offen zugängliche Modelle – insbesondere auch für die deutsche Sprache – sowie Methoden, mit denen sich diese kostengünstig an die spezifischen Anforderungen verschiedener Industriezweige anpassen lassen”, sagt Alexander Löser, Gründer und Sprecher des Forschungszentrums Data Science an der Berliner Hochschule für Technik und Mitglied der Arbeitsgruppe Technologische Wegbereiter und Data Science.
Patentanmeldungen im Bereich der additiven Fertigung (3D-Druck) sind zwischen 2013 und 2020 mit einer durchschnittlichen jährlichen Rate von 26,3 Prozent gestiegen. Wie das Europäische Patentamt weiter berichtet, wurden seit 2001 weltweit mehr als 50.000 bedeutende Erfindungen im Zusammenhang mit 3D-Druck-Technologien als internationale Patentfamilien (IPF) veröffentlicht. ‣ weiterlesen
Der Anteil der Unternehmen, die KI einsetzen, ist binnen eines Jahres von 9 auf 15 Prozent gestiegen. Das ist das Ergebnis einer Bitkom-Befragung unter 605 Unternehmen. Zwei Drittel von ihnen sehen KI als wichtigste Zukunftstechnologie.‣ weiterlesen
Derzeit erleben wir multiple Krisen - neben zunehmenden geopolitischen Spannungen entwickelt sich die Erderwärmung zu einer immer größeren Herausforderung. Das Umweltbundesamt rechnet bis Ende des 21. Jahrhunderts mit einer Erhöhung der mittleren Erdtemperatur um bis zu 5,7 Grad Celsius, sofern nicht kurzfristig eine massive Reduktion der CO2-Emissionen erfolgt. Wie der CO2-Fußabdruck dabei unterstützen kann, beschreibt ein Beitrag des Beratungsunternehmens Aflexio.‣ weiterlesen
Nachhaltigkeit und Wirtschaftlichkeit für den Industriesektor Hand in Hand? Dies kann Realität werden. Das kürzlich abgeschlossene Forschungsprojekt 'Climate Solution for Industries' (CS4I) unter Beteiligung des Fraunhofer IPA setzt bereits bei Investitionsentscheidungen an und widmet sich dem 'True Carbon Footprint'.‣ weiterlesen
Viele Anlagen und Rechner in der Industrie sind smart - so viel ist klar. Sie können sehen, hören und sprechen. Dass sie technisch nun auch riechen können, ist deshalb nicht verwunderlich. Technologien wie die 'AI Nose' sollen die Konsumgüterindustrie noch intelligenter machen und Unternehmen dabei helfen, Wettbewerbsvorteile zu sichern und auszubauen.‣ weiterlesen
Alle Beschäftigten in der Industrie sollen zukünftig in der Lage sein, KI-Tools zu bedienen, neue Prüfanwendungen einzurichten und zu warten - ohne Expertenwissen. Das ist das Ziel des Forschungsprojekts 'DeKIOps'. Unter Leitung der Arbeitsgruppe für Supply Chain Services des Fraunhofer-Instituts für Integrierte Schaltungen IIS wollen Senswork, Inovex und Eresult bis Ende 2025 Leitlinien und zwei Demonstratoren in industriellen Anwendungen entwickeln.‣ weiterlesen
Unternehmen reden viel über die möglichen Auswirkungen von KI- und ML-Anwendungen, aber oft wenig über deren Qualität. Und die hängt in erster Linie vom Dateninput ab. Der Datenspezialist Aparavi erklärt, wieso ein hochwertiges Dateninventar die Voraussetzung für eine sinn- und wertvolle KI- oder ML-Lösung ist.‣ weiterlesen
Viele Industrieunternehmen stoßen mit Ethernet und WLAN an ihre Grenzen. Denn für die Umsetzung von IIoT-Lösungen mit vernetzten Sensoren, Maschinen und anderen Geräten brauchen sie 5G-Netze. Doch noch zögern vor allem kleine und mittlere Unternehmen, in 5G zu investieren.‣ weiterlesen
Kontinuierliche Entwicklungen und zukunftsweisende Technologien treiben den Fortschritt der industriellen Kommunikation voran. Zu den Schlüsseltechnologien zählt Time-Sensitive Networking (TSN). John Browett, General Manager der CC-Link Partner Association (CLPA), erläutert, wie TSN die Voraussetzungen für den nächsten Schritt im digitalen Zeitalter schafft.‣ weiterlesen
Das Bundeskriminalamt zählte im vergangenen Jahr 136.865 Fälle von Cyberkriminalität und damit mehr Taten als im Jahr zuvor. Für deutsche Unternehmen beliefen sich die Schäden nach Angaben des Bitkom auf mehr als 203Mrd.€.‣ weiterlesen
Fast jedes vierte deutsche Unternehmen (24 Prozent) sieht Deutschland in der Forschung zu künstlicher Intelligenz weltweit in der Spitzengruppe. Das übersetzt sich bislang allerdings noch nicht in die Wirtschaft.‣ weiterlesen