IBM verdoppelt Rechenleistung f?r Quantenrechner

IBM hat die Entwicklung und den erfolgreichen Test der bislang leistungsst?rksten universellen Quantenprozessoren des Unternehmens angek?ndigt. Einer der beiden Prototypen wird den Kern der ersten kommerziellen IBM Q Systeme bilden, die in naher Zukunft einigen fr?hen Nutzern zur Verf?gung gestellt werden sollen.

IBM Research Staff Member Katie Pooley, an Applied Physics PhD from Harvard who joined IBM in 2015, at the Thomas J Watson Research Center, is a process integrator on the IBM Q team. In the photo, Pooley is examining a cryostat with the new prototype of a commercial quantum processor inside. (Bild: ?Andy Aaron/ IBM Deutschland GmbH/Flickr.com)

IBM Research Staff Member Katie Pooley, an Applied Physics PhD from Harvard who joined IBM in 2015, at the Thomas J Watson Research Center, is a process integrator on the IBM Q team. In the photo, Pooley is examining a cryostat with the new prototype of a commercial quantum processor inside. (Bild: ?Andy Aaron/ IBM Deutschland GmbH/Flickr.com)

(Bild: ?Andy Aaron/ IBM Deutschland GmbH/Flickr.com)

Im M?rz dieses Jahres k?ndigte IBM bereits die industrieweit erste Initiative zur Bereitstellung eines universell verf?gbaren Quantencomputers f?r kommerzielle und wissenschaftliche Anwendungen mit dem Namen IBM Q an. IBM Q Systeme und Services werden ?ber die IBM Cloudplattform verf?gbar sein. Das Unternehmen bietet der ?ffentlichkeit bereits seit einem Jahr Zugriff auf Quantenprozessoren und entsprechende Schulungsunterlagen, um so dem Thema einen gr??eren Raum f?r alle Interessierten zu schaffen. Bis heute wurden mehr als 300.000 Quantenexperimente mit Hilfe dieses Angebots durchgef?hrt. Mit der Ank?ndigung der neuen IBM Q-Prozessoren will das Unternehmen die Grundlage f?r die L?sung von Problemen im wirtschaftlichen wie wissenschaftlichen Kontext schaffen, die selbst mit klassischen Supercomputern nicht zu bew?ltigen sind.

Details der beiden Prozessoren

Der 16-Qubit Prozessor erm?glicht weitaus komplexere Experimente als der bisher verf?gbare 5-Qubit Prozessor. Entwickler, Programmierer und Forscher k?nnen den kostenlosen Zugriff auf die Installation nutzen, um Quantenalgorithmen auszutesten und Experimente durchzuf?hren. Zus?tzlich werden Lernmaterialien und Simulationen zur Verf?gung gestellt. Ein Betazugang ist seit Kurzem ?ber das neue Software Development Kit auf GitHub offen. Der erste Prototyp eines kommerziellen Prozessors mit 17 Qubits stellt den bis heute leistungsf?higsten IBM Quantenprozessor dar. Dank zahlreicher Verbesserungen beim Material und der Architektur ist er mindestens zweimal so schnell wie die heute ?ber die IBM Cloud zugreifbaren Prozessoren und wird den Kern der ersten kommerziell verf?gbaren IBM Q Systeme bilden. „Die angek?ndigten Verbesserungen erlauben es IBM, zuk?nftig Prozessoren zu bauen, die aus 50 oder mehr Qubits bestehen und damit die Leistung heutiger Computersysteme ?bersteigen“, sagt Arvind Krishna, Senior Vice President and Director of IBM Research and Hybrid Cloud. Die Leistungsf?higkeit von Quantenprozessoren zur L?sung von ganz praktischen Problemen h?nge aber von weitaus mehr ab, als der reinen Zahl ihrer Qubits. Aufgrund der fragilen Natur von Quanteninformationen brauche es f?r eine Leistungsverbesserung auch Qualit?tsverbesserungen bei den einzelnen Qubits sowie ihrer Interaktion untereinander bei gleichzeitiger Minimierung der auftretenden Quantenfehler. IBM hat hierzu eine neue Metrik ?bernommen, die die Leistungsf?higkeit von Quantensystemen charakterisiert – das so genannte Quantum Volume. Quantum Volume steht f?r die Anzahl und Qualit?t der Qubits, ihrer Leiterverbindungen sowie den Fehlerraten im Rahmen Quantenzustandsmessungen. In den n?chsten Jahren plant IBM diese Technologie voranzutreiben und das Quantum Volume zuk?nftiger Systeme weiter zu verbessern.

IBM verdoppelt Rechenleistung für Quantenrechner
Bild: ©Andy Aaron/ IBM Deutschland GmbH/Flickr.com


Das könnte Sie auch interessieren

Der McAfee Labs 2018 Threat Predictions-Report identifiziert fünf Schwerpunkte, die 2018 eine wichtige Rolle in der Welt der Cybersicherheit spielen werden: Die Trends reichen von den Gefahren durch serverlose Apps, die Entwicklung von Ransomware und maschinellem Lernen, bis hin zu Datenschutz-Problemen durch IoT-Geräte und Apps für Jugendliche.‣ weiterlesen

Eine heute erschienene Studie von acatech – Deutsche Akademie der Technikwissenschaften und TU9, dem Verbund führender Technischer Universitäten in Deutschland, zeigt: An Universitäten ist die Studienabbruchquote in den Ingenieurwissenschaften mit 21 bis 23 Prozent niedriger als bisher angenommen. Der Grund: Im Vergleich zu früheren Untersuchungen konnten Fach- bzw. Hochschulwechsler berücksichtigt werden, die nicht als Studienabbrecher zählen. Trotz des positiven Befundes sprechen sich acatech und TU9 in einer gemeinsamen Position für eine weitere Senkung der Quote aus – und geben entsprechende Handlungsempfehlungen.‣ weiterlesen

Industrie 4.0 in Deutschland ist keine Zukunftsmusik mehr. Aber wo genau bewegen wir uns hin? Wie kann die Umsetzung in der Fläche vorangetrieben werden? Und welche Rolle spielen dabei neue Technologien wie 5G oder Blockchain? Diesen und anderen Fragen widmeten sich Ende November 2017 die Arbeitsgruppen der Plattform Industrie 4.0 auf ihrer Klausur in Berlin.‣ weiterlesen

Nur jedes zweite Unternehmen in Deutschland hat sich bei der Umsetzung der EU-Datenschutzgrundverordnung (DS-GVO) bislang Hilfe von externen Experten geholt. Gerade einmal 48 Prozent aller Unternehmen mit 20 oder mehr Beschäftigen geben demnach an, Spezialisten außerhalb des eigenen Hauses hinzugezogen zu haben.‣ weiterlesen

Mit der sich wandelnden Umgebung ändern sich die Anforderungen sowohl an die logistischen Prozesse als auch an die Mitarbeiter. Auf dem Weg zur Industrie 4.0 wächst auf der einen Seite der Anspruch, stabile organisationale und prozessuale Rahmenbedingungen zu schaffen, sowie auf der anderen Seite die Bedeutung, den Menschen in den Mittelpunkt der Betrachtung zu rücken.‣ weiterlesen

Studie von Stifterverband und McKinsey: In Deutschland fehlen 95.000 Datenspezialisten sowie 24.000 Lehrer für ein Pflichtfach Informatik – Soziale Selektion an Schulen setzt sich an Hochschulen fort – Alarmierende Entwicklung bei Lehrerausbildung – Flüchtlinge werden bis 2020 rund 40.000 Studienplätze benötigen‣ weiterlesen