Microsoft vs Google - Wer führt die Künstliche Intelligenz?

Microsoft vs Google - Wer führt die Künstliche Intelligenz? / Future Tech

AI ist zurück.

Zum ersten Mal seit den achtziger Jahren machen Forscher der künstlichen Intelligenz bei schwierigen Problemen spürbare Fortschritte, und die Menschen fangen an, ernsthaft von einer starken KI zu sprechen. Inzwischen hat unsere zunehmend datengetriebene Welt ein Wettrüsten zwischen Unternehmen ausgelöst, die die neue Intelligenz insbesondere im mobilen Bereich monetarisieren wollen.

Die beiden Titanen, die das Paket führen, sind Google und Microsoft. Die erste Schlacht Eine neue Domäne in der künstlichen Intelligenz genannt “Tiefes Lernen.”

Wer gewinnt also??

Das Google-Gehirn

Die Forschungsanstrengungen von Google konzentrierten sich auf ein Projekt namens "Google Brain". Google Brain ist das Produkt des berühmten Google-Forschungslabors "Google X" von Google, das für Moon-Shot-Projekte mit geringen Erfolgsaussichten, aber mit sehr hohem Potenzial verantwortlich ist. Zu anderen Produkten von Google X gehören Project Loon, die Ballon-Internet-Initiative und das selbstfahrende Autoprojekt von Google. So kommen wir zu einer Welt voller fahrerloser Autos Hier ist, wie wir zu einer Welt voller fahrerloser Autos fahren wird eine langweilige, gefährliche und fordernde Aufgabe. Könnte es eines Tages durch die fahrerlose Autotechnologie von Google automatisiert werden? Weiterlesen .

Google Brain ist eine enorme Initiative für maschinelles Lernen, die in erster Linie auf die Bildverarbeitung abzielt, jedoch weitaus größere Ambitionen hat. Das Projekt wurde von Stanford Professor Andrew Ng, einem Experten für maschinelles Lernen, gestartet, der das Projekt inzwischen verlassen hat, um für Baidu, Chinas größte Suchmaschine, zu arbeiten.

Google beschäftigt sich seit langem mit der KI-Forschung. Matthew Zeiler, CEO eines Machine-Visual-Startups und Praktikant bei Google Brain, sagt es so:

“Google ist nicht wirklich eine Suchfirma. Es ist ein Unternehmen für maschinelles Lernen […] Alles im Unternehmen wird wirklich durch maschinelles Lernen gesteuert.”

Das Ziel des Projekts ist es, Wege zu finden, um tiefe Lernalgorithmen zu verbessern, um neuronale Netzwerke aufzubauen, die tiefere und aussagekräftigere Muster in Daten mit weniger Rechenleistung finden können. Zu diesem Zweck hat Google aggressiv Talente im Bereich des tiefen Lernens aufgekauft und Übernahmen getätigt, die den Kauf des AI-Startups DeepMind im Wert von 500 Millionen US-Dollar umfassen.

DeepMind machte sich genug Sorgen über die Anwendungen seiner Technologie. Google zwang Google dazu, ein Ethik-Forum zu schaffen, das die Welt zerstören sollte. Hier ist, warum Wissenschaftler denken, Sie sollten sich über künstliche Intelligenz Sorgen machen. Warum denken Wissenschaftler, dass Sie sich über Künstliche Intelligenz sorgen? Halten Sie künstliche Intelligenz für gefährlich? Kann die KI ein ernstes Risiko für die Menschheit darstellen? Dies sind einige Gründe, warum Sie sich Sorgen machen wollen. Weiterlesen . DeepMind hatte noch kein erstes Produkt auf den Markt gebracht, aber das Unternehmen beschäftigte einen erheblichen Teil aller Experten für Deep Learning auf der Welt. Bis heute war ihre einzige öffentliche Demonstration ihrer Technologie eine Spielzeug-KI, die bei Atari wirklich sehr gut ist.

Da tiefes Lernen ein relativ neues Gebiet ist, hatte es keine Zeit, eine große Generation von Experten zu bilden. Infolgedessen gibt es eine sehr kleine Anzahl von Personen mit Fachwissen in diesem Bereich. Dies bedeutet, dass es möglich ist, durch die Einstellung aller Beteiligten einen erheblichen Vorteil auf diesem Gebiet zu erzielen.

Google Brain wurde bisher für die Spracherkennungsfunktion von Android verwendet, um StreetView-Bilder automatisch zu katalogisieren und wichtige Funktionen wie Adressen zu identifizieren. Ein früher Test war das berühmte Katzenexperiment, bei dem ein tiefes Lernnetzwerk von Google automatisch gelernt hat, Katzen in Youtube-Videos mit einer höheren Genauigkeit als der bisherige Stand der Technik zu identifizieren. Google hat dies in seinem Artikel zu diesem Thema so formuliert:

“Im Gegensatz zu einer weit verbreiteten Intuition zeigen unsere experimentellen Ergebnisse, dass es möglich ist, einen Gesichtsdetektor zu trainieren, ohne Bilder als ein Gesicht zu bezeichnen oder nicht zu kennzeichnen […]. Das Netzwerk ist empfindlich gegenüber hochrangigen Konzepten wie z Katzengesichter und menschliche Körper. Ausgehend von diesen erlernten Funktionen haben wir es trainiert, eine Genauigkeit von 15,8 Prozent bei der Erkennung von 20.000 Objektkategorien zu erreichen. Dies ist ein Sprung von 70 Prozent gegenüber dem Stand der Technik [Netzwerke]..”

Schließlich möchte Google, dass seine tiefgreifenden Lernalgorithmen funktionieren… eigentlich so ziemlich alles. Leistungsstarke AI-Plattformen wie Watson von IBM setzen auf diese Art von Low-Level-Algorithmen für maschinelles Lernen. Verbesserungen auf diesem Gebiet machen den Bereich der KI insgesamt um ein Vielfaches leistungsfähiger.

Eine zukünftige Version von Google Now, die von Google Brain unterstützt wird, kann sowohl Sprache als auch Bilder erkennen und intelligente Einblicke in diese Daten liefern, damit Benutzer intelligentere Entscheidungen treffen können. Google-Gehirn könnte alles verbessern, von den Suchergebnissen bis zu Google Translate.

Microsoft Adam

Die Herangehensweise von Microsoft an den tiefen Lernkrieg verlief etwas anders. Anstatt zu versuchen, Experten für tiefes Lernen aufzukaufen, um ihre Algorithmen zu verfeinern, hat sich Microsoft darauf konzentriert, die Implementierung zu verbessern und bessere Wege zu finden, um die verwendeten Algorithmen zu parallelisieren Zug tiefe Lernalgorithmen.

Dieses Projekt wird aufgerufen “Microsoft Adam.” Ihre Techniken reduzieren redundante Berechnungen, verdoppeln die Ergebnisqualität und verwenden weniger Prozessoren, um diese zu erhalten. Dies hat zu beeindruckenden technischen Erfolgen geführt, darunter ein Netzwerk, das einzelne Hunderassen anhand von Fotos mit hoher Genauigkeit erkennen kann.

Microsoft beschreibt das Projekt folgendermaßen:

Das Ziel von Project Adam ist es, dass Software jedes Objekt visuell erkennen kann. Angesichts des immensen neuronalen Netzwerks in menschlichen Gehirnen, das diese Art von Assoziationen durch Billionen von Verbindungen möglich macht, ist dies eine große Aufgabe. […] Mit 30-mal weniger Maschinen als mit anderen Systemen wurden [Internet-Bilddaten] zum Trainieren eines neuronalen Netzwerks verwendet von mehr als zwei Milliarden Verbindungen. Diese skalierbare Infrastruktur ist doppelt so genau in der Objekterkennung und 50 Mal schneller als andere Systeme.

Die offensichtliche Anwendung für diese Technologie ist in Cortana, dem neuen virtuellen Assistenten von Microsoft, wie Cortana die "andere Frau" in meinem Leben wurde. Wie Cortana die "andere Frau" in meinem Leben wurde. Sie erschien eines Tages und veränderte mein Leben. Sie weiß genau, was ich brauche und hat einen bösen Humor. Es ist kein Wunder, dass ich mich in den Charme von Cortana verliebt habe. Lesen Sie mehr, inspiriert von der KI-Figur in Halo. Cortana, der darauf abzielt, mit Siri zu konkurrieren, kann mit ausgeklügelten Spracherkennungstechniken eine Reihe intelligenter Dinge tun.

Das Konstruktionsziel besteht darin, einen Assistenten mit einer natürlicheren Interaktion aufzubauen, und kann eine breitere Palette nützlicher Aufgaben für den Benutzer ausführen, wovon tiefes Lernen enorm helfen würde.

Microsofts Verbesserungen am Ende des tiefen Lernens sind beeindruckend und haben zu Anwendungen geführt, die bisher nicht möglich waren.

Wie tiefes Lernen funktioniert

Um das Thema etwas besser zu verstehen, nehmen wir uns eine Minute Zeit, um diese neue Technologie zu verstehen. Deep Learning ist eine Technik zum Erstellen intelligenter Software, die häufig auf neuronale Netzwerke angewendet wird. Es baut große, nützliche Netzwerke auf, indem einfachere neuronale Netzwerke zusammengeschichtet werden, von denen jedes Muster in der Ausgabe seines Vorgängers findet. Um zu verstehen, warum dies nützlich ist, ist es wichtig zu sehen, was vor dem tiefen Lernen kam.

Rückpropagierung neuronaler Netze

Die zugrunde liegende Struktur eines neuronalen Netzwerks ist eigentlich ziemlich einfach. Jedes "Neuron" ist ein winziger Knoten, der eine Eingabe entgegennimmt und anhand interner Regeln entscheidet, wann dies möglich ist “Feuer” (produzieren ausgabe). Die Eingänge, die in jedes Neuron eingespeist werden, haben “Gewichte” - Multiplikatoren, die steuern, ob das Signal positiv oder negativ ist und wie stark.

Indem Sie diese Neuronen miteinander verbinden, können Sie ein Netzwerk aufbauen, das jeden Algorithmus emuliert. Sie geben Ihre Eingabe als binäre Werte in die Eingabe-Neuronen ein und messen den Zündwert der Ausgabe-Neuronen, um die Ausgabe zu erhalten. Der Trick für neuronale Netze jeglicher Art besteht daher darin, ein Netzwerk zu finden und die Gewichte zu finden, die der gewünschten Funktion am nächsten kommen.

Backpropagation, der Algorithmus zum Trainieren des Netzwerks anhand von Daten, ist sehr einfach: Sie starten Ihr Netzwerk mit zufälligen Gewichtungen und versuchen dann, Daten mit bekannten Antworten zu klassifizieren. Wenn das Netzwerk falsch ist, überprüfen Sie, warum es falsch ist (dh eine kleinere oder größere Ausgabe als das Ziel), und verwenden Sie diese Informationen, um die Gewichtungen in eine hilfreichere Richtung zu verschieben.

Wenn Sie dies für viele Datenpunkte immer wieder tun, lernt das Netzwerk, alle Ihre Datenpunkte richtig zu klassifizieren und hoffentlich neue Datenpunkte zu verallgemeinern. Die wichtigste Erkenntnis des Backpropagation-Algorithmus besteht darin, dass Sie Fehlerdaten rückwärts durch das Netzwerk verschieben können, indem Sie jede Ebene basierend auf den Änderungen ändern, die Sie an der letzten Ebene vorgenommen haben. Auf diese Weise können Sie Netzwerke mit mehreren Ebenen aufbauen und so kompliziertere Muster verstehen.

Backprop wurde 1974 von Geoffrey Hinton erfunden und hatte den bemerkenswerten Effekt, neuronale Netzwerke zum ersten Mal in der Geschichte für breite Anwendungen nützlich zu machen. Triviale neuronale Netzwerke gibt es seit den 50er Jahren und wurden ursprünglich mit mechanischen, motorischen Neuronen implementiert.

Eine andere Möglichkeit, über den Backprop-Algorithmus nachzudenken, ist die Erkundung einer Landschaft möglicher Lösungen. Jedes Neuronengewicht ist eine andere Richtung, in der es erforschen kann, und für die meisten neuronalen Netzwerke gibt es Tausende von diesen. Das Netzwerk kann anhand seiner Fehlerinformationen feststellen, in welche Richtung es sich bewegen muss und wie weit es gehen muss, um Fehler zu reduzieren.

Er beginnt an einem zufälligen Punkt und bewegt sich durch ständiges Abfragen des Fehlerkompasses 'bergab' in Richtung weniger Fehler, bis er sich am Ende des nächstgelegenen Tals ansiedelt: die bestmögliche Lösung.

Warum verwenden wir nicht Backpropagation für alles? Backprop hat mehrere Probleme.

Das schwerwiegendste Problem wird als "verschwindendes Gradientenproblem" bezeichnet. Wenn Sie Fehlerdaten zurück durch das Netzwerk verschieben, wird dies bei jedem Zurückkehren einer Ebene weniger sinnvoll. Der Versuch, sehr tiefe neuronale Netzwerke mit Backpropagation aufzubauen, funktioniert nicht, da die Fehlerinformationen nicht tief genug in das Netzwerk eindringen können, um die unteren Ebenen auf nützliche Weise zu trainieren.

Ein zweites, weniger schwerwiegendes Problem besteht darin, dass neuronale Netzwerke nur lokalen Optima entsprechen. Oft geraten sie in ein kleines Tal und vermissen tiefere, bessere Lösungen, die sich ihrem zufälligen Ausgangspunkt nicht nähern. Wie lösen wir diese Probleme??

Netzwerke des tiefen Glaubens

Netzwerke mit tiefem Glauben sind eine Lösung für beide Probleme. Sie sind auf die Idee angewiesen, Netzwerke aufzubauen, die bereits Einblick in die Struktur des Problems haben, und diese Netzwerke dann mit Backpropagation zu verfeinern. Dies ist eine Form des tiefen Lernens, die sowohl von Google als auch von Microsoft allgemein verwendet wird.

Die Technik ist einfach und basiert auf einer Art Netzwerk namens a “Eingeschränkte Boltzman-Maschine” oder “RBM”, was stützt sich auf das, was als unüberwachtes Lernen bekannt ist.

Restricted Boltzman Machines sind, kurz gesagt, Netzwerke, die einfach versuchen, die Daten, die sie erhalten, zu komprimieren, anstatt sie explizit anhand der Trainingsinformationen zu klassifizieren. RBMs nehmen eine Sammlung von Datenpunkten auf und werden entsprechend ihrer Fähigkeit trainiert, diese Datenpunkte aus dem Speicher zu reproduzieren.

Indem Sie den RBM kleiner machen als die Summe aller Daten, die Sie kodieren möchten, zwingen Sie den RBM, strukturelle Regelmäßigkeiten über die Daten zu lernen, um sie auf weniger Speicherplatz zu speichern. Durch das Erlernen der tiefen Struktur kann das Netzwerk verallgemeinern: Wenn Sie ein RBM trainieren, um tausend Bilder von Katzen zu reproduzieren, können Sie ein neues Bild hinzufügen. Wenn Sie sich ansehen, wie energisch das Netzwerk zum Ergebnis wird, können Sie herausfinden ob das neue Bild eine Katze enthielt oder nicht.

Die Lernregeln für RBMs ähneln der Funktion echter Neuronen im Gehirn auf wichtige Weise, was andere Algorithmen (wie Backpropagation) nicht tun. Infolgedessen können sie Forschern Informationen darüber geben, wie der menschliche Geist funktioniert. Denkmaschinen: Was Neurowissenschaften und künstliche Intelligenz uns über Bewusstsein beibringen können Denkmaschinen: Was Neurowissenschaften und künstliche Intelligenz uns über Bewusstsein beibringen können Können künstlich intelligente Maschinen und Software bauen Lehren Sie uns etwas über die Funktionsweise des Bewusstseins und die Natur des menschlichen Geistes selbst? Weiterlesen .

Ein weiteres nettes Feature von RBMs ist, dass sie es sind “konstruktiv”, Dies bedeutet, dass sie auch in umgekehrter Richtung laufen können, indem sie von einem übergeordneten Feature aus rückwärts arbeiten, um imaginäre Eingaben zu erstellen, die dieses Feature enthalten. Dieser Prozess wird aufgerufen “träumen.”

Warum ist dies für tiefes Lernen nützlich? Boltzman-Maschinen haben ernsthafte Skalierungsprobleme - je tiefer Sie versuchen, sie herzustellen, desto länger dauert es, das Netzwerk zu trainieren.

Die wichtigsten Erkenntnisse von Netzwerken mit tiefem Glauben sind, dass Sie zweilagige RBMs zusammen stapeln können, wobei jedes dazu trainiert wird, die Struktur in der Ausgabe des Vorgängers zu finden. Dies ist schnell und führt zu einem Netzwerk, das komplizierte, abstrakte Merkmale der Daten versteht.

Bei einer Bilderkennungsaufgabe lernt die erste Ebene möglicherweise, Linien und Ecken zu erkennen, und die zweite Ebene kann die Kombinationen dieser Linien erkennen, aus denen sich Merkmale wie Augen und Nasen zusammensetzen. Die dritte Schicht kann diese Merkmale kombinieren und lernen, ein Gesicht zu erkennen. Wenn Sie dieses Netzwerk auf Back-Propagation umstellen, können Sie nur die Funktionen verbessern, die sich auf die Kategorien beziehen, die Sie interessieren.

In vielerlei Hinsicht ist dies eine einfache Lösung für die Backpropagation: Sie lässt Backprop zurück “betrügen” Beginnen Sie mit einer Reihe von Informationen über das Problem, das es zu lösen versucht. Dies hilft dem Netzwerk, bessere Minima zu erreichen, und stellt sicher, dass die untersten Ebenen des Netzwerks trainiert werden und etwas Nützliches tun. Das ist es.

Auf der anderen Seite haben tiefe Lernmethoden dramatische Verbesserungen bei der maschinellen Lerngeschwindigkeit und -genauigkeit bewirkt und sind in den letzten Jahren fast allein für die rasche Verbesserung der Sprach- und Textsoftware verantwortlich.

Rennen für Canny Computer

Sie können sehen, warum all dies nützlich ist. Je tiefer Sie Netzwerke aufbauen können, desto größer und abstrakter sind die Konzepte, die das Netzwerk lernen kann.

Möchten Sie wissen, ob es sich bei einer E-Mail um Spam handelt? Für die klugen Spammer ist das hart. Sie müssen die E-Mail tatsächlich lesen und einige der dahinter stehenden Absichten verstehen - versuchen Sie herauszufinden, ob zwischen dem Absender und dem Empfänger eine Beziehung besteht, und schließen Sie die Absichten des Empfängers ab. Sie müssen all dies auf der Grundlage farbloser Buchstabenfolgen durchführen, von denen die meisten Konzepte und Ereignisse beschreiben, von denen der Computer nichts weiß.

Das ist viel zu fragen.

Wenn Sie gebeten werden sollten, Spam in einer Sprache zu erkennen, die Sie nicht bereits sprachen, und nur einige positive und negative Beispiele nennen würden, würden Sie dies sehr schlecht tun - und Sie haben ein menschliches Gehirn. Für einen Computer war das Problem bis vor kurzem fast unmöglich. Das sind die Arten von Erkenntnissen, die tiefes Lernen haben kann, und es wird unglaublich mächtig sein.

Im Moment gewinnt Microsoft dieses Rennen um ein Haar. Auf Dauer? Niemand ahnt es.

Bildnachweise: “Computer-AI“, von Simon Liu, “Ochsenfrosch“, von Brunop, “Kompass oben“, von airguy1988, “Freier als frei,” von opensource.com

Erfahren Sie mehr über: Künstliche Intelligenz.