Wie der Computer lesen und schreiben lernte
Computer und Sprache
Die Analyse von Sprache, Sprachein- und Sprachausgabe, das Auffinden von Textstücken und die maschinelle Übersetzung sind Themenbereich, die Computerwissenschafter von jeher beschäftigen und Schwierigkeiten bereiten.
8. April 2017, 21:58
Schon im 18.Jahrhundert versuchten manche einer Maschine das Sprechen beizubringen. Wolfgang von Kempelen zum Beispiel. Er entwickelte eine akustisch-mechanische Sprachmaschine, die er 1791 in Wien vorstellte. Auf der Weltausstellung 1939 in Paris präsentierte Homer Dudley, der als Physiker bei Bell Labs arbeitete, seinen Voder.
Der Voder
Der Voder war ein früher Versuch, Sprache zu analysieren und die menschliche Stimme zu imitieren. Vannevar Bush, in den 40er Jahren wissenschaftlicher Berater von Präsident Roosevelt und Visionär was die Möglichkeiten der Computerei betrifft, beschrieb in seinem Artikel: "As we may think" das Erlebnis auf der Weltausstellung in Paris folgendermaßen: "Auf der Weltausstellung 1939 wurde eine Maschine namens 'Voder' vorgestellt. Ein Mädchen drückte eine Taste und aus einem Lautsprecher ertönte eine Stimme. Kein menschlicher Laut beeinflusste je das Geschehen. Mit Hilfe der Tasten wurden elektronische Vibrationen erzeugt, die dann an den Lautsprecher weitergeleitet wurden."
Erste Ideen und Konzepte
In den 50er und 60er Jahren beschäftigten sich Computerlinguisten vor allem mit der maschinellen Übersetzung von Warren Weaver hatte darüber 1947 ein Paper geschrieben.
Die ersten Ideen und Konzepte wurden 1952 auf der ersten großen Konferenz zu diesem Thema veröffentlicht. Das war vier Jahre vor der ersten Konferenz über künstliche Intelligenz. Karen Spärck Jones präsentierte ihre Doktorarbeit über semantische Klassifikationssysteme 1958 in Washington DC, auf einer großen internationalen Konferenz über wissenschaftliche Information; damals war man zunehmend daran interessiert, automatisierte Methoden zu finden, mit denen man die Informationsflut bewältigen könnte.
Frühe Hoffnungen
In den 40er und 50er Jahren hatten die Computer, wenn überhaupt, nur sehr geringen Speicherplatz zur Verfügung. Die Rechner befolgten noch keine wenn/dann Befehle und wollte man etwas ausdrucken, so war das ein kompliziertes Unterfangen, das nicht Minuten, sondern Tage und Wochen in Anspruch nahm, erzählt Karen Spärck Jones. Trotzdem träumte man davon, dass eines Tage der Computer Text und Sprache genauso gut beherrschen wird, wie der Mensch.
Übersetzungen
Das vorrangige Ziel der Wissenschafter lautete damals russische Texte ins englische zu übersetzten. Es war die Zeit des kalten Krieges. Und die Amerikaner standen wegen des erfolgreichen Starts von Sputnik unter Schock, war man doch zuvor davon ausgegangen, dass eine russische Technik nie und nimmer besser sein könnte als eine amerikanische.
Grammatik für den Computer
Aber als erstes brauchte man für den Computer eine Grammatik. Dafür mussten ganz neue Wege beschritten werden. Man musste etwas, das relativ passiv ist, nämlich eine einfache Beschreibung, in etwas dynamisches verwandeln: in ein Set an kombinierbaren Regeln.
Man begann mit der Syntaxanalyse. Dann versuchte man in die Tiefe zu gehen, indem man Annahmen wie: auf ein X folgt ein Y erstellte. Allerdings erkannte man sehr bald, dass Sprache so nicht funktioniert.
Paralleltexte
Andere versuchten ihr Glück, indem sie die Struktur von zwei Sprachen miteinander verglichen. Heute nennt man diese Methode "Language Modelling". Dafür brauchte man einen Text, der in zwei unterschiedlichen Sprachen existiert.
Diese Paralleltexte wurden dann Satz für Satz verglichen und analysiert. Darüber konnte man mit der Zeit Hypothesen aufstellen, was das jeweilige äquivalente Wort sein müsste. Und man bekommt eine Idee, welche Wörter man Paaren kann und auch etwas über deren Anordnung in einem Satz.
Alpac
Das "Automatic Language Processing Advisory Committee", kurz Alpac veröffentlichte 1966 veröffentlichten einen vernichtenden Report über die bisherigen Bemühungen der amerikanischen Linguistengemeinde.
Das bedeutet erstmal das Aus für viele Forschungslabors. Nur die US-Air-Force finanzierte damals noch ein Projekt aus dem später die Übersetzungssoftware Systran hervorging. Eines jener automatischen Übersetzungstools, die heute kommerziell erfolgreich am Markt reüssiert.
Download-Tipp
Ö1 Club-Mitglieder können die Sendung nach Ende der Live-Ausstrahlung im Download-Bereich runterladen
Links
History of speech recognition
As we may think 1944, Vannevar Bush
Karen Spärck Jones
matrix.ORF.at
futurezone.ORF.at