November 22, 2024

HL-1.tv

Das Lübecker Statdfernsehen

Künstliche Intelligenz ist Sprachbeherrschung.  Sollen wir dem vertrauen, was er sagt?

Künstliche Intelligenz ist Sprachbeherrschung. Sollen wir dem vertrauen, was er sagt?

Aber weil die Geläufigkeit von GPT-3 viele Beobachter beeindruckt hat, hat der Big-Language-Model-Ansatz in den letzten Jahren auch erhebliche Kritik auf sich gezogen. Einige Skeptiker argumentieren, dass die Software nur zur blinden Nachahmung fähig ist – dass sie die grammatikalischen Muster der menschlichen Sprache nachahmt, aber nicht in der Lage ist, eigene Ideen zu generieren oder komplexe Entscheidungen zu treffen, eine grundlegende Einschränkung, die verhindern würde, dass der LLM-Ansatz zu etwas reift, das dem Menschen ähnelt Intelligenz. Für diese Kritiker ist GPT-3 das neueste brillante Objekt in einer langen Geschichte des KI-Hypes, das Forschungsgelder und Aufmerksamkeit auf das lenkt, was sich letztendlich als Sackgasse erweisen wird, und verhindert, dass andere vielversprechende Ansätze reifen. Andere Kritiker glauben, dass Programme wie GPT-3 für immer durch Vorurteile, Propaganda und Fehlinformationen in den Daten, mit denen sie trainiert wurden, beeinträchtigt werden, was bedeutet, dass ihre Verwendung von mehr als Salontricks immer unverantwortlich sein wird.

Wo auch immer Sie zu dieser Debatte kommen, das Tempo der jüngsten Verbesserungen bei großen Sprachmodellen macht es schwer vorstellbar, dass sie in den kommenden Jahren nicht kommerziell eingesetzt werden. Damit stellt sich die Frage, wie die Welt entfesselt werden soll – und in dieser Hinsicht auch die weiteren massiven Fortschritte der künstlichen Intelligenz. Beim Aufstieg von Facebook und Google haben wir gesehen, wie die Dominanz in einer neuen Welt der Technologie schnell zu einer erstaunlichen Macht über die Gesellschaft führen kann, und künstliche Intelligenz droht in ihren endgültigen Auswirkungen sogar noch transformativer zu sein als soziale Medien. Was ist die richtige Art von Organisation, um etwas von dieser Größenordnung und diesem Ehrgeiz aufzubauen und zu besitzen, mit einem solchen Versprechen und Missbrauchspotenzial?

Siehe auch  Laptop-Kaufratgeber: 5 Dinge, die Sie wissen sollten, bevor Sie investieren

Oder sollen wir es überhaupt bauen?

OpenAI-Ursprünge Es geht auf den Juli 2015 zurück, als sich eine kleine Gruppe von Tech-Stars zu einem privaten Abendessen im Rosewood Hotel an der Sand Hill Road, dem emblematischen Herzen des Silicon Valley, versammelte. Das Abendessen fand inmitten von zwei jüngsten Entwicklungen in der Welt der Technologie statt, einer positiven und einer beunruhigenden. Andererseits haben radikale Fortschritte in der Rechenleistung – und einige neue Durchbrüche im Design neuronaler Netze – eine spürbare Aufregung im Bereich des maschinellen Lernens geschaffen. Der lange „KI-Winter“, die Jahrzehnte, in denen das Feld dem frühen Hype nicht gerecht werden konnte, schien endlich aufzutauen. Eine Gruppe an der University of Toronto trainierte ein Programm namens AlexNet, um Klassen von Objekten in Bildern (Hunde, Schlösser, Traktoren, Tische) mit einer viel höheren Genauigkeit zu identifizieren, als jedes neuronale Netzwerk zuvor erreicht hatte. Google stürzte sich schnell darauf, AlexNet-Ersteller einzustellen, während es gleichzeitig DeepMind erwarb und seine eigene Initiative namens Google Brain startete. Die breite Akzeptanz von intelligenten Assistenten wie Siri und Alexa hat gezeigt, dass selbst geschriebene Agenten großartige Kunden sein können.

Aber im gleichen Zeitraum hat sich die öffentliche Einstellung gegenüber den großen Technologieunternehmen grundlegend verändert, wobei einst so beliebte Unternehmen wie Google oder Facebook für ihre nahezu monopolistische Macht, die Verstärkung von Verschwörungstheorien und das rücksichtslose Saugen unserer Aufmerksamkeit kritisiert wurden Algorithmus-Feeds. In den redaktionellen Seiten und auf der TED-Plattform sind seit langem Bedenken über die Gefahren der künstlichen Intelligenz aufgetaucht. Nick Bostrom von der University of Oxford hat sein Buch Superintelligence veröffentlicht, das eine Reihe von Szenarien vorstellt, in denen fortschrittliche KI von den Interessen der Menschheit abweichen könnte, mit potenziell schlimmen Folgen. Ende 2014, Das sagte Stephen Hawking der BBC Dass „die Entwicklung einer vollständigen künstlichen Intelligenz das Ende der Menschheit bedeuten könnte“. Es schien, als ob der Zyklus der Unternehmenskonsolidierung, der das Zeitalter der sozialen Medien markierte, bereits mit KI stattfand, aber nur dieses Mal könnten die Algorithmen nicht nur Polarisierung säen oder unsere Aufmerksamkeit an den Meistbietenden verkaufen – sie könnten am Ende die Menschheit zerstören selbst. Wieder einmal deuteten alle Beweise darauf hin, dass diese Macht von einigen wenigen Riesenkonzernen im Silicon Valley kontrolliert werden würde.

Siehe auch  Die großen Geheimnisse der Physik: Ist Zeit eine Illusion?

Die Agenda für das Abendessen in der Sand Hill Road an einem Juliabend war äußerst ehrgeizig: herauszufinden, wie die KI-Forschung am besten auf möglichst positive Ergebnisse ausgerichtet werden kann, und die negativen kurzfristigen Folgen zu vermeiden, die die Web 2.0-Ära und lange getrübt haben -Termine existenzielle Bedrohungen. Nach diesem Abendessen nahm eine neue Idee Gestalt an – eine, die schnell zu einer Vollzeitbeschäftigung für Sam Altman von Y Combinator und Greg Brockman wurde, der Stripe kürzlich verlassen hatte. Interessanterweise war die Idee weniger technisch als vielmehr organisatorisch: Wenn KI die Welt auf sichere und nützliche Weise entfesseln soll, bedarf es Innovationen in Bezug auf Governance, Anreize und Beteiligung von Interessengruppen. Der technische Weg für das, was die Fachwelt Künstliche Allgemeine Intelligenz oder AGI nennt, war der Gruppe noch nicht klar. Aber die besorgniserregenden Vorhersagen von Bostrom und Hawking überzeugten sie davon, dass die Verwirklichung von KI durch KI eine erstaunliche Menge an Macht und moralischer Belastung bei jedem, der sie schließlich erfand und kontrollierte, erhöhen würde.

Im Dezember 2015 gab die Gruppe die Gründung einer neuen Einheit namens OpenAI bekannt. Altman unterschrieb als CEO des Unternehmens, wobei Brockmann die Technologie beaufsichtigte; Ein weiterer Teilnehmer des Abendessens, AlexNet-Mitbegründer Ilya Sutskiver, wurde von Google als Forschungsleiter eingestellt. (Elon Musk, der ebenfalls beim Abendessen anwesend war, trat dem Vorstand bei, verließ ihn jedoch 2018). BlogeintragBrockmann und Sotscover legten den Umfang ihrer Ambitionen dar: „OpenAI ist ein gemeinnütziges Forschungsunternehmen für künstliche Intelligenz“, schrieben sie. Sie fügten hinzu: „Unser Ziel ist es, digitale Intelligenz so zu entwickeln, dass sie der Menschheit als Ganzes am ehesten zugute kommt, unabhängig von der Notwendigkeit, eine finanzielle Rendite zu erzielen. Und im Geiste der Freiheit so weit und gleich wie möglich. “

Siehe auch  Apple kehrt die Richtlinie zur Fernarbeit um, Exec wechselt zu Alphabet

OpenAI-Gründer werden eine Datei veröffentlichen Allgemeine Charta Drei Jahre später formulierte er die Grundprinzipien der neuen Organisation. Das Dokument wurde leicht als ungenaue Recherche zu Googles Mantra „Sei nicht böse“ von Anfang an interpretiert, eine Anerkennung, dass die Maximierung des sozialen Nutzens – und die Minimierung des Schadens – neuer Technologien nicht immer eine einfache Arithmetik war. Während Google und Facebook beide durch Closed-Source-Algorithmen und proprietäre Netzwerke eine globale Dominanz erreicht haben, versprachen die Gründer von OpenAI, den anderen Weg zu gehen und neue Forschungsergebnisse und Codes frei mit der Welt zu teilen.