Devoir de Philosophie

Computer - Informatik.

Publié le 11/06/2013

Extrait du document

Computer - Informatik. 1 EINLEITUNG Bürocomputer Der Einzug der Computer in die Büros hat aufgrund des damit möglichen schnelleren Zugriffs auf Informationen und der deutlich größeren Kommunikationsmöglichkeiten den Arbeitsalltag revolutioniert. © Microsoft Corporation. Alle Rechte vorbehalten. - Informatik. Computer, elektronisch arbeitende Maschine, mit der sich verschiedene Arten von Daten verarbeiten lassen. Computer können Befehlssätze oder Programme entgegennehmen und die in den Programmen enthaltenen Befehle ausführen. Dazu nimmt der Computer Berechnungen numerischer Daten oder eine Auswertung und Verarbeitung von Informationen vor. Die wesentlichen Grundelemente, die einen Computer ausmachen, sind die Eingabeeinheit (z. B. Tastatur), eine Vorrichtung zur Verarbeitung der Daten (z. B. Mikroprozessor), eine oder mehrere Ausgabeeinheiten (z. B. Bildschirm, Drucker) sowie ein Speicherelement (z. B. Festplatte). Diese Bausteine, den Computer inbegriffen, fasst man auch unter dem Begriff Hardware zusammen. Im Gegensatz dazu steht die so genannte Software, die alle möglichen Arten von Programmen beinhaltet. Die moderne Welt der Hochtechnologie ist ohne die Entwicklung des Computers kaum noch vorstellbar. Computer verschiedener Typen und Größen finden im Bereich der Speicherung und Verarbeitung von Daten weite Verbreitung in der Gesellschaft, angefangen von beispielsweise geheimen Regierungsdaten, über Transaktionen der Banken bis hin zu privaten Haushaltskonten. Computer haben durch die Techniken der Automation ein neues Zeitalter der Fabrikation eröffnet und moderne Kommunikationssysteme erheblich verbessert. Sie sind grundlegende Hilfsmittel in fast jedem Gebiet der Forschung und angewandten Technik, wie z. B. für die Aufstellung von Modellen, die man für Wettervorhersagen benutzt. Datenbankanbieter und Computernetzwerke offerieren eine große Auswahl von Informationsquellen. In Deutschland hat sich die Zahl der PC-Besitzer in dem Zeitraum 1993 bis 1998 von 8,3 Millionen (1993) auf nahezu 16,8 Millionen (1998) etwas mehr als verdoppelt. 2 COMPUTERTYPEN Computer lassen sich in zwei Haupttypen einteilen: in analoge und in digitale Computer. Meistens ist jedoch mit dem Begriff Computer der digitale Typ gemeint. Der Unterschied zwischen einem analogen oder digitalen Computer liegt in der Verarbeitungsweise der Daten. Bei Analogcomputern wird die zu verarbeitende Originalgröße beispielsweise entsprechend ihrer jeweiligen Werte in physikalische Größen, wie elektrische Ströme oder Spannungen, umgesetzt. Im Gegensatz dazu rechnen die Verarbeitungseinheiten von Digitalcomputern die Originalgröße vor der eigentlichen Bearbeitung in Folgen von Binärzahlen um. Der Vorteil bei dieser Vorgehensweise: Um manche Ausgangsgrößen originalgetreu zu behandeln und wiederzugeben, benötigt man häufig nur einen gewissen Bruchteil von digitalen Daten, also nicht die komplette Anzahl. Dadurch gewinnt man gegenüber der analogen Verarbeitung eine gewisse Zeitersparnis und benötigt außerdem auch weniger Speicherkapazität. Computeranlagen, die sowohl digitale als auch analoge Komponenten enthalten, werden Hybridcomputer genannt. Sie kommen meist für Probleme mit einer hohen Anzahl komplexer Gleichungen - wie bei Zeitintegralen - zum Einsatz. Daten in analoger Form können mit einem Analog-Digital-Wandler auch Digitalcomputern zugänglich gemacht werden. Ebenso dienen Digital-Analog-Wandler für den umgekehrten Vorgang. 2.1 Analogcomputer Ein Analogcomputer ist im Prinzip ein Rechenautomat, bei dem die einzelnen Rechenschritte durch analog verlaufende physikalische Prozesse dargestellt werden. Heutzutage realisiert man diese Prozesse durch elektronische Bauteile. Früher verwendete man auch mechanische, pneumatische oder auch elektromechanische Elemente. Ein typischer elektromechanischer Analogcomputer wandelt z. B. Eingaben in Spannungen um, die mit speziellen Schaltelementen addiert oder multipliziert werden. Die resultierenden Ergebnisse werden in einem fortlaufenden Prozess erzeugt und an einen Bildschirm weitergeleitet. Für andere Zwecke lassen sich diese Ergebnisse auch in eine andere Form umwandeln. 2.2 Digitalcomputer Alle Handlungen, die ein Digitalcomputer vornimmt, basieren im Prinzip auf einer Grundoperation: der Fähigkeit zu erkennen, ob ein Schalter bzw. ein ,,Gatter" geöffnet oder geschlossen ist. Ein Computer kann also nur zwei Zustände in seinen mikroskopisch kleinen Schaltungen erkennen: an oder aus, hohe oder niedrige Spannung bzw. die Zahlen 0 oder 1. Die Geschwindigkeit, mit der ein Computer diesen einfachen Akt bewältigt, macht ihn jedoch zu einem Wunderwerk der modernen Technologie. Computergeschwindigkeiten werden in Megahertz gemessen, also in Millionen Zustandsänderungen (Takten) pro Sekunde. Ein Computer mit einer ,,Taktrate" von 100 Megahertz - einer typischen Geschwindigkeit für Mikrocomputer - ist in der Lage, hundert Millionen einzelne Arbeitsschritte in jeder Sekunde durchzuführen. Normale Mikrocomputer erreichen 66 bis 200 Millionen Operationen pro Sekunde, während Supercomputer in der Forschung Geschwindigkeiten von Milliarden Zustandsänderungen in der Sekunde erreichen. Die Geschwindigkeit und Rechenleistung eines Digitalcomputers wird natürlich durch den Umfang der Daten beeinflusst, der in einem Takt bearbeitet werden kann. Mit einem Schalter kann man nur zwei Befehle oder Zahlen wiedergeben: AN würde eine Instruktion oder Zahl symbolisieren und AUS die andere. Durch die Zusammenfassung ganzer Gruppen von Schaltern, die als gesamte Einheiten geprüft werden können, lässt sich die Anzahl der Operationen steigern, die in jedem Takt erkannt werden können. Wenn ein Computer beispielsweise zwei Schalter gleichzeitig ausliest, kann er vier Zahlen (0 bis 3) darstellen oder einen von vier Befehlen in jedem Takt ausführen: AUSAUS (0), AUS-EIN (1), EIN-AUS (2) oder EIN-EIN (3). 3 GESCHICHTE George Boole Der britische Mathematiker und Logiker George Boole (1815-1864) veröffentlichte 1854 in seiner Abhandlung An Investigation of the Laws of Thought ein algebraisches System, das als ,,Boole'sche Algebra" in die Geschichte einging. Auf ihr beruhen die Funktionsweisen von Computern Science Source/Photo Researchers, Inc. Die erste Addiermaschine, ein Vorläufer des Digitalcomputers, wurde 1642 von Blaise Pascal erfunden. Dieses Gerät enthielt eine Reihe von zehnzähnigen Zahnrädern, bei denen jeder Zahn einer Ziffer von null bis neun entsprach. Die Zahnräder waren so miteinander verbunden, dass Zahlen addiert wurden, wenn man die einzelnen Zahnräder um die richtige Anzahl von Zähnen weiterdrehte. In den siebziger Jahren des 17. Jahrhunderts verbesserte Gottfried Wilhelm Leibniz die Addiermaschine von Pascal. Die Konstruktion von Leibniz konnte auch Multiplikationen ausführen. Der französische Erfinder Joseph Marie Jacquard verwendete bei dem Entwurf einer automatischen Webmaschine dünne, gelochte Holzbretter zur Steuerung komplizierter Webmuster. In der ersten Hälfte des 19. Jahrhunderts entwickelte der britische Mathematiker George Boole die nach ihm benannte Boole'sche Algebra. Sie bildet praktisch die mathematische Grundlage für jede digitale Rechen- und Steuerschaltung. Während der achtziger Jahre des 19. Jahrhunderts führte der amerikanische Statistiker Hermann Hollerith zur Datenverarbeitung die Idee der Lochkarten ein, die Jacquards Holzbrettern ähnelten. Mit der Herstellung eines Systems zum Analysieren der gelochten Karten mittels elektrischer Kontakte war er in der Lage, die statistischen Daten der US-amerikanischen Volkszählung von 1890 zusammenzustellen. 3.1 Die analytische Maschine Früher Rechenautomat Als direkter Vorläufer der Computer gilt die vom britischen Mathematiker Charles Babbage (1792-1871) entwickelte ,,Difference Engine", eine programmgesteuerte Rechenmaschine, die er 1820 konzipiert, aber nie gebaut hatte. THE BETTMANN ARCHIVE

« George BooleDer britische Mathematiker und Logiker George Boole (1815-1864) veröffentlichte 1854 in seiner Abhandlung An Investigation of theLaws of Thought ein algebraisches System, das als „Boole’sche Algebra” in die Geschichte einging.

Auf ihr beruhen dieFunktionsweisen von ComputernScience Source/Photo Researchers, Inc. Die erste Addiermaschine, ein Vorläufer des Digitalcomputers, wurde 1642 von Blaise Pascal erfunden.

Dieses Gerät enthielt eine Reihe von zehnzähnigen Zahnrädern, beidenen jeder Zahn einer Ziffer von null bis neun entsprach.

Die Zahnräder waren so miteinander verbunden, dass Zahlen addiert wurden, wenn man die einzelnen Zahnräderum die richtige Anzahl von Zähnen weiterdrehte.

In den siebziger Jahren des 17.

Jahrhunderts verbesserte Gottfried Wilhelm Leibniz die Addiermaschine von Pascal.

DieKonstruktion von Leibniz konnte auch Multiplikationen ausführen. Der französische Erfinder Joseph Marie Jacquard verwendete bei dem Entwurf einer automatischen Webmaschine dünne, gelochte Holzbretter zur Steuerung komplizierterWebmuster.

In der ersten Hälfte des 19.

Jahrhunderts entwickelte der britische Mathematiker George Boole die nach ihm benannte Boole’sche Algebra.

Sie bildet praktischdie mathematische Grundlage für jede digitale Rechen- und Steuerschaltung.

Während der achtziger Jahre des 19.

Jahrhunderts führte der amerikanische StatistikerHermann Hollerith zur Datenverarbeitung die Idee der Lochkarten ein, die Jacquards Holzbrettern ähnelten.

Mit der Herstellung eines Systems zum Analysieren dergelochten Karten mittels elektrischer Kontakte war er in der Lage, die statistischen Daten der US-amerikanischen Volkszählung von 1890 zusammenzustellen. 3.1 Die analytische Maschine Früher RechenautomatAls direkter Vorläufer der Computer gilt die vom britischen Mathematiker Charles Babbage (1792-1871) entwickelte „DifferenceEngine“, eine programmgesteuerte Rechenmaschine, die er 1820 konzipiert, aber nie gebaut hatte.THE BETTMANN ARCHIVE Ebenfalls im 19.

Jahrhundert arbeitete der britische Mathematiker und Erfinder Charles Babbage die Prinzipien der modernen Digitalcomputer aus.

Dabei entwarf er eineReihe von Maschinen, wie beispielsweise die Differenzmaschine.

Sie diente zur Lösung komplizierter mathematischer Probleme.

Viele Historiker halten Babbage und seineAssistentin und Lebensgefährtin Augusta Ada Byron (Lady Lovelace, 1815-1852), die Tochter des englischen Dichters Lord Byron, für die eigentlichen Erfinder desDigitalcomputers.

1844 veröffentlichte Babbage das Konzept der Analytical Engine, die allerdings nie von ihm gebaut wurde.

Erst sein Sohn konnte Teile dieser analytischen Maschine verwirklichen.

Sie besaß bereits zahlreiche Eigenschaften moderner Computer.

Die Konstruktion hatte einen Eingabestrom in Form eines Lochkartenstapels, einen„Speicher” zur Datensicherung und ein „Werk” für arithmetische Operationen sowie einen Drucker zur dauerhaften Aufzeichnung von Daten. 3.2 Die ersten Computer Die ersten Analogcomputer entstanden zu Beginn des 20.

Jahrhunderts.

In den ersten Modellen verwendete man für die Berechnungen rotierende Stifte und mechanischeGetriebe.

Mit diesen Maschinen ließen sich numerische Näherungen von Gleichungen bestimmen, die zu komplex für irgendeine andere Art der Berechnung waren. Der deutsche Ingenieur Konrad Zuse (1910-1995) baute 1936 die erste mit dem binären Zahlensystem arbeitende, programmgesteuerte Rechenmaschine – diese Anlagetrug den Namen Z1.

Zuse war Bauingenieur und wollte mit seinem Apparat rechnerische Routinearbeiten automatisieren.

War der Z1 noch rein mechanisch, so enthielt dasNachfolgemodell Z2 bereits elektromechanische Teile.

Von der Deutschen Versuchsanstalt für Luftfahrt finanziert, war der Z3 der erste betriebsfähige, programmgesteuerteRechenautomat.

Z3 war mit 2 600 Relais und mit logischen Schaltungen (Und, Oder, Nicht) ausgestattet.

Dieser Automat hatte eine Speicherkapazität von 64 Zahlen zu je22 Dualstellen und konnte in der Sekunde bis zu 20 arithmetische Grundoperationen durchführen.

Vier Jahre später veröffentlichte Zuse die erste Programmiersprache derWelt: Plankalkül. Mit dem Z22 entwickelte Zuse seinen ersten Elektronenrechner, mit dem Z23 einen Transistorenrechner. 3.3 Elektronische Computer Alan Mathison TuringDer britische Mathematiker Alan Mathison Turing war Computerexperte und Pionier auf dem Gebiet der künstlichen Intelligenz.

1936veröffentlichte Turing eine Abhandlung, die das Konzept einer Rechenmaschine enthielt.

Mit Hilfe der Turing-Maschine war theoretischjede mathematische Berechnung möglich.

1950 stellte Turing ein Experiment vor, mit dem sich die Frage beantworten lassen sollte,ob Maschinen denken können.

Das Experiment ging als Turing-Test in die Geschichte ein.

Im gleichen Jahr entwickelte er auch denersten Schachcomputer der Welt.. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles