12.11.2004 Artikelansicht
Ausschnitt Zeitungsausschnitt
Drucken Drucken

 

Schlaue Computer trennen Spreu von Weizen

Textanalyse mittels Rechner soll entlasten Ñ Suche nach Struktur und Inhalt


Bielefeld (sas). Implizite Informationen oder Mehrdeutigkeiten sind für den normalen Leser kein Problem. Ein Computer aber kommt hier an seine Grenzen: Mehrdeutiges überfordert ihn. Rechner »schlauer« zu machen ist daher das Ziel des Linguisten Prof. Dr. Alexander Mehler. Der 37-Jährige, einer der wenigen Juniorprofessoren in einem geisteswissenschaftlichen Fach, lehrt und forscht seit April an der Universität Bielefeld.
Mehler gehört der Forschergruppe »Texttechnologie« an und arbeitet mit Kollegen der Hochschulen in Dortmund, Tübingen und Gießen zusammen. Finanziert wird ihre Arbeit von der Deutschen Forschungsgemeinschaft (DFG), bei der gerade ein Antrag auf Verlängerung läuft.
»Die Computer-basierte Textanalyse ist angesichts der heutigen Textmassen sinnvoll, sie kann helfen, die Spreu vom Weizen zu trennen«, begründet Mehler sein Forschungsinteresse. Sinnvoll oder überflüssig - diese Vorauswahl soll künftig zur Entlastung ein Computer treffen. »Wenn man heute über eine Suchmaschine und Schlagwörter Informationen sucht, bekommt man Textnachweise, deren Zahl in die Tausende gehen kann. Und dabei ist es durchaus möglich, dass ein wichtiger Text nachrangig erscheint. Wir wollen also weg von der Schlagwort-basierten Suche«, erläutert Mehler einen zweiten Ansatz. Der Computer von morgen soll mehr nach Struktur und Inhalt suchen. Dafür aber muss er die Texte eben auch »verstehen«, muss zum Beispiel beim Abgleich von medizinischen Diagnosen nicht nur auf Fachausdrücke reagieren, sondern auch die laienhaften Beschreibungen der unterschiedlichsten Patienten richtig zuordnen. »Außerdem kann das 'Textmining' helfen, Plagiate von Studierenden herauszufiltern«, nennt Mehler ein anderes Anwendungsgebiet. Seine Studenten sind also gewarnt.
Zu Mehlers Forschungsinteressen gehören aber auch Fragen nach Art und Tempo der Verbreitung von Informationen im Internet. »Es gilt das Konzept der 'Kleinen Welten'. Wie in sozialen Netzen gibt es Knoten - Texte - , die miteinander verbunden sind und sich in irgendeiner Form auf einander beziehen.« Diese Struktur der Kleinen Welten entspricht den Rezeptionsgewohnheiten des Menschen. Noch werden die Links, die verbindenden Hinweise im Internet, händisch eingesetzt. »Unser Ziel ist, das zu automatisieren: nicht nach mechanistischen Prinzipien, sondern nach kognitiven Kriterien, die wiederum dem Denken des Menschen entsprechen.« Auch hier hofft der Linguist auf DFG-Gelder - und schwärmt bereits von einem weiteren Projekt: der Weiterentwicklung des »E-Learnings«.
Mit dem Computer sollen Studierende künftig daheim ihre Aufgaben lösen, die Lehre quasi mit einem elektronischen Tutor fortsetzen. Lehrinhalte, überlegt er, sollten weltweit standardisiert formuliert werden - egal, wie die Eingabe des Dozenten ist. »Dabei werden nur die Formate vereinheitlicht, nicht die Inhalte. Die Studierenden sollen ja kontroverse Meinungen kennenlernen.«

Artikel vom 12.11.2004