Computerindustrie

Computer sind ein nützlicher und notwendiger Bestandteil der modernen Gesellschaft geworden. Sie wurden in allen Arten von Unternehmen eingesetzt, von Versandhandel und Einzelhandelsverkauf bis hin zu Kommunikation wie Telefonleitungen und Internetzugang. Computer sind in Krankenhäusern und Supermärkten, Universitäten und Einkaufszentren, Restaurants und Regierungsbehörden weit verbreitet. Bis 1998 hatten über 40% aller Familien in den Vereinigten Staaten einen PC.

Der früheste Maschinentyp, der für die Datenverarbeitung verwendet wurde, war der Abakus, der möglicherweise auf 3000 v. Chr. In Babylon zurückgeht. Noch in den 1990er Jahren verwendet, war es ein einfaches System von Perlen, die auf Drähten rutschten. Die nächste große Verbesserung wurde 1623 von Blaise Pascal (1662–1642) vorgenommen, als er eine "mechanische Addiermaschine" entwickelte, die er Pascaline nannte. 1694 nahm Gottfried Wilhem von Leibniz (1646–1716) Änderungen am Pascaline vor, damit es sich ebenfalls vermehren konnte. Ein Engländer namens Charles Babbage (1791–1871) entwarf den ersten modernen Computer. Als Analytical Engine bezeichnet, wurden Lochkarten verwendet. Der Amerikaner Herman Hollerith (1860–1929) verwendete die Lochkartentechnik, um eine Maschine zur Tabellierung der Ergebnisse der US-Volkszählung von 1890 herzustellen. 1896 gründete er die Tabulating Machine Co., die 1924 zu International Business Machines (IBM) wurde. Dr. John V. Atanasoff und sein Assistent Clifford Berry entwickelten 1940 die ersten elektronischen Computerschaltungen mit Boolescher Algebra. 1944 stellte IBM den Mark I-Computer fertig, der elektromagnetische Signale verwendete.

Ab diesem Zeitpunkt war die Computergeschichte von "Generationen" geprägt. Bei der ersten Computergeneration wurden Vakuumröhren verwendet, was zu ihrer charakteristisch großen Größe beitrug. Eine weitere Einschränkung war ihre Programmiersprache. Diese Periode dauerte ungefähr von Ende der 1940er bis Mitte der 1950er Jahre. In der zweiten Generation, etwa Mitte bis Ende der 1950er bis Anfang der 1960er Jahre, wurde der Transistor anstelle der großen Vakuumröhren verwendet. Dies führte zu kleineren, effizienteren und kostengünstigeren Maschinen. Verbesserungen in der Programmiersprache gaben ihnen mehr Flexibilität. Diese Generation von Hardware schuf neue Arbeitsplätze in der Computerindustrie wie Programmierer und Softwareentwickler.

Die dritte Generation, Mitte der 1960er bis 1971, basierte auf der Innovation des Halbleiters, der Transistoren ersetzte, die Wärme und auch die Größe der Computer reduzierte. Eine weitere Neuentwicklung war die Verwendung des Betriebssystems, das mit einem zentralen Programm den Zugriff auf zahlreiche andere Programme kontrollierte. Außerdem wurde von zwei Dartmouth-Professoren eine neue Programmiersprache namens BASIC entwickelt. Die vierte Computergeneration begann 1971 und setzte sich bis in die späten 1990er Jahre mit der Neuentwicklung von integrierten Großschaltungen fort. Dies reduzierte erneut die Größe und den Preis von Computern. 1975 wurde der erste Personal Computer, der Altair 8800, von Micro Instrumentation and Telemetry Systems (MITS) eingeführt. IBM veröffentlichte 1981 seine Version, die das von Bill Gates von Microsoft, einem der bekanntesten Softwareunternehmen, entwickelte Disk Operating System (DOS) verwendete. Apple brachte 1984 seinen Macintosh-Computer auf den Markt. 1986 gab es in den USA über 30 Millionen Computer.

Weitere wichtige Computerunternehmen, die in den 1980er Jahren gegründet wurden, waren Compaq Computers, Sun Microsystems und Unisys Corporation. In den späten 80er Jahren vermarkteten Texas Instruments und Motorola neue Mikroprozessoren. Microsoft Windows, 1985, Windows 3.0, 1990, Windows NT, 1993, Windows 95 und Windows 98 wurden aufgrund der Verwendung von Grafiken, die ihre Verwendung vereinfachten, zu äußerst beliebten Betriebssystemen. Im Jahr 1997 erzielte Microsoft Office 97 für Unternehmen einen Umsatz von insgesamt 78.8 Millionen US-Dollar. Andere sehr beliebte Software in den 1990er Jahren waren Computerspiele wie "Riven: The Sequel to Myst", der Verkaufsschlager von 1997.

Das Internet oder das World Wide Web entstand aufgrund der Bemühungen von Tim Berners-Lee. 1989 half er bei der Entwicklung eines Systems von "Hyperlinks", mit denen auf verwandte Informationen zugegriffen werden konnte, und bis August 1991 wurde dieses System im Internet verwendet, wodurch der Datenaustausch erheblich verbessert wurde. E-Mail war eine beliebte Möglichkeit, Nachrichten im Internet auszutauschen. Die Zahl der Internetnutzer nahm in den neunziger Jahren stark zu, und bis 1990 nutzten etwa 1998 Millionen Menschen das Internet.

Zu den Trends in der Computerindustrie Ende der neunziger Jahre gehörten Miet- oder Leasingoptionen für Computersysteme, zahlreiche Modelle von PCs in der Preisklasse unter 1990 US-Dollar, tragbare Laptops und eine Veränderung der Beliebtheit von großen Großrechnern zu einem "Kunden" / Server-System ", das eine Reihe kleinerer, schnellerer und billigerer Computer verwendete. Eine weitere Neuerung war der "E-Commerce", bei dem Verbraucher in Online-Katalogen stöbern und dann eine Bestellung aufgeben konnten. Waren wurden direkt online gekauft und Bankgeschäfte und Investitionen wurden über das Internet kontrolliert. Bis Ende der neunziger Jahre gab es weltweit schätzungsweise über 1,000 Unternehmen mit Websites.

Am Ende des XNUMX. Jahrhunderts war der Personal Computer ein Teil des täglichen Lebens eines Durchschnittsbürgers geworden. Die Nachfrage nach Arbeitnehmern mit Computerkenntnissen sollte zunehmen, da die Computerindustrie weiterhin eine wichtige Rolle für die Stärke der amerikanischen Wirtschaft spielte.