Devoir de Philosophie

Künstliche Intelligenz - Informatik.

Publié le 11/06/2013

Extrait du document

Künstliche Intelligenz - Informatik. 1 EINLEITUNG Künstliche Intelligenz, im weitesten Sinn ein Begriff für die Fähigkeit einer Maschine, kognitive Funktionen des Menschen (Wahrnehmung, Denken, Bewegungssteuerung) zumindest teilweise durch Computerprogramme zu simulieren. Die KI-Forschung ist ein Teilgebiet der Informatik, bedient sich aber auch verschiedener Aspekte der Mathematik, der Linguistik, neuerdings auch der Neurophysiologie, aber insbesondere Theorien der Kognitiven Psychologie. 2 KLASSISCHE KÜNSTLICHE INTELLIGENZFORSCHUNG: SYMBOLVERARBEITUNG Alan Mathison Turing Der britische Mathematiker Alan Mathison Turing war Computerexperte und Pionier auf dem Gebiet der künstlichen Intelligenz. 1936 veröffentlichte Turing eine Abhandlung, die das Konzept einer Rechenmaschine enthielt. Mit Hilfe der Turing-Maschine war theoretisch jede mathematische Berechnung möglich. 1950 stellte Turing ein Experiment vor, mit dem sich die Frage beantworten lassen sollte, ob Maschinen denken können. Das Experiment ging als Turing-Test in die Geschichte ein. Im gleichen Jahr entwickelte er auch den ersten Schachcomputer der Welt. Science Source/Photo Researchers, Inc. Der Begriff KI wird auf solche Computersysteme und -programme angewendet, die menschliche kognitive Funktionen simulieren. Computer sind inzwischen in der Lage, sehr komplizierte Aufgaben zu lösen, wenn sie auch leistungsmäßig (sieht man von der Geschwindigkeit ab) noch weit von der Leistungsfähigkeit menschlicher kognitiver Funktionen entfernt sind. Die interessantesten Gebiete der KI sind die automatische Mustererkennung, die Konstruktion wahrnehmender und sich selbst steuernder Roboter und die Expertensysteme z. B. in der medizinischen Diagnostik. Die derzeitige Forschung beschäftigt sich beispielsweise mit Mustererkennungsprogrammen, die den Computer befähigen, geschriebene oder gesprochene Sprache zu verstehen, zusammenzufassen und Fragen zu ihrer Bedeutung zu beantworten. Grundlegend für solche Programme ist die Fähigkeit des Systems, grammatikalisc...

« (2) Die Einheiten eines Netzes arbeiten parallel: Im Unterschied zu seriell arbeitenden Algorithmen ist die Verarbeitung in Netzwerken (quasi-)parallel: Jede Einheitempfängt gleichzeitig von jeder anderen einen Input (Eingangsinformation), verarbeitet den Input und gibt gleichzeitig an jede andere einen Output (Ausgangsinformation)weiter.

Solange Computer noch seriell arbeiten, müssen die Algorithmen zur Simulation neuronaler Netze quasi-parallel bleiben, also das seriell ausführen, was im Netzparallel ablaufen würde. (3) Die funktionellen Eigenschaften der Einheiten sind in idealisierter Form denen von Neuronen nachgebildet: (a) Die Einheiten summieren Eingangsinformationen, d.

h.,mehrere Inputs, die eine Einheit von anderen erhält, addieren sich zu einem Gesamtinput.

(b) Die Einheiten können (nichtlineare) Schwellenoperationen ausführen: Siewerden erst bei Überschreiten eines Gesamtinputs aktiv, der einen bestimmten Schwellenwert übersteigt.

(c) Die Einheiten sind aufgrund der Schwellenoperation entwederaktiv oder inaktiv, d.

h., sie nehmen nur diskrete Zustände an. (4) Die Einheiten sind alle miteinander verknüpft: (a) Die Verknüpfungen sind kontinuierlich gewichtet.

Die Stärke eines Gewichts ist das Ergebnis der Häufigkeitgemeinsamer Aktivierung zweier Einheiten in der Vergangenheit.

Je größer ein Gewicht, desto stärker ist die gegenseitige Aktivierung der Einheiten.

(b) Die fortlaufendeAnpassung der Verknüpfungsgewichte im Verlauf von Lernen geschieht nach Regeln, z.

B.

der generalisierten Hebb-Regel: Das Verknüpfungsgewicht für zwei Einheiten wirdum einen kleinen Betrag erhöht, wenn sie beide gleichzeitig aktiv sind. (5) Die Speicherung von „Wissen” ist verteilt: Das heißt, die Informationsspeicherung geschieht durch ein spezifisches Muster der Gewichte, welche die Verknüpfungenzwischen Einheiten kennzeichnen, und nicht, wie im Rahmen des Symbolverarbeitungsansatzes, durch einzelne Einheiten.

Ein solches System „weiß” also nur, welcheEinheiten mit welchen anderen mit welcher Wahrscheinlichkeit in der Vergangenheit gemeinsam aktiv waren.

Die Speicherung ist also in dem Sinne verteilt, als dieInformation in dem jeweils bestehenden Aktivierungsmuster aller Elemente enthalten ist; die Information verteilt sich auf die spezifische Kombination aktiver und inaktiverElemente. Verfasst von:Thomas StofferMicrosoft ® Encarta ® 2009. © 1993-2008 Microsoft Corporation.

Alle Rechte vorbehalten.. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles