13 мая 2022

Historia komputera

Znaczenie słowa komputer to „komputer”. Potrzeba przetwarzania danych i obliczeń pojawiła się kilka tysięcy lat temu, do tego wykorzystano liczenie kamieni, patyków i tym podobnych, a około 1500 lat temu zaczęto używać liczydła. W 1642 r. Blaise Pascal wynalazł mechaniczną maszynę do dodawania liczb. W 1673 Gottfried Wilhelm Leibniz zaprojektował pierwszą maszynę sumującą, która wykonała już cztery kroki. Arytmometry zaczęły być szeroko stosowane w XIX wieku, wykonano na nich dość złożone obliczenia, a już pojawił się pierwszy prototyp osoby pracującej na komputerze - „licznik” - ten, który pracuje z maszyną dodającą. Podczas swojej pracy licznik dokładnie wykonywał określoną sekwencję czynności i instrukcji, którą później zaczęto nazywać programem. Ponieważ czynności wykonywane i rejestrowanie wyników były wykonywane przez człowieka, szybkość obliczeń była mocno ograniczona, przez co obliczenia były wykonywane powoli – nawet kilka liczników mogło wykonywać program tygodniami lub miesiącami.

Angielski matematyk Charles Babbage na początku XIX wieku próbował stworzyć urządzenie obliczeniowe - maszynę analityczną, która podobnie jak współczesna technologia komputerowa miała wykonywać operacje obliczeniowe bez udziału ludzi. Maszyna musiała wykonywać programy, które były do ​​niej wprowadzane za pomocą kart dziurkowanych (kawałek lub taśma grubego papieru, gdzie informacje były nanoszone za pomocą dużej liczby małych otworów), które w tamtym czasie były już wykorzystywane w przemyśle tkackim. Jednocześnie potrzebny był magazyn do przechowywania danych z obliczeń i ustalania wyników pośrednich (w dzisiejszym języku jest to pamięć). Ale mimo wszystko pomysł ten nie miał się spełnić - silnik analityczny był zbyt skomplikowany jak na ówczesną technologię i niestety Babbage nie mógł ukończyć tego projektu. Jednak przedstawił podstawowe idee i mechanizmy oraz stworzył prototyp przyszłego komputera. A już w 1943 roku amerykański naukowiec Howard Aiken, korzystając z pracy tego Charlesa Babbage, wykorzystując nowe technologie tamtych czasów, przekaźnik elektryczny, stworzył taką maszynę o nazwie „MARK-1” w jednym z przedsiębiorstw studni- znanej firmy IBM. Podobną maszynę zbudował niemiecki inżynier Konrad Zuse w 1941 roku.

W międzyczasie dramatycznie wzrosło zapotrzebowanie na zautomatyzowane przetwarzanie danych i kilka grup badawczych już nad tym pracowało. Grupa kierowana przez Johna Silence'a i Prespera Eckerta w USA opracowała maszynę ENIAC opartą na lampach próżniowych, która była tysiąc razy szybsza od Mark-1, ale czas potrzebny na wykonanie programu był bardzo długi - od kilku godzin do kilku dni. Aby rozwiązać ten problem, naukowcy zaczęli tworzyć nową maszynę, która mogłaby przechowywać program w swojej pamięci. Wkrótce, bo już w 1945 roku, do opracowania dołączył znany matematyk John von Neumann, który w swoim raporcie w prosty i potoczny sposób wyjaśnił i sformułował zasady działania urządzeń obliczeniowych, czyli komputerów (wyróżniono 4 główne urządzenia: arytmetyczno-logiczne, urządzenie sterujące, urządzenie pamięci masowej i zewnętrzne urządzenie wejścia/wyjścia). W 1949 roku angielski badacz Maurice Wilks zbudował pierwszy komputer oparty na zasadach von Neumanna.

Wszystkie liczby w komputerze są reprezentowane jako 0 i 1, a jednostką informacji jest bit, który może przyjąć wartość zero i jeden, a polecenia maszynowe działają z ośmioma bitami naraz. Osiem bitów składa się na 1 bajt iw nim można zakodować wartość jednego znaku z 256 możliwych - czyli 2 do ósmej potęgi. Następny poziom kilobajtów to „KB” równy 1024 bajty (od 2 do dziesiątej potęgi), megabajt jest skrócony jako „MB” i jest równy 1024 „KB” kilobajtów, a gigabajt „GB” jest równy 1024 „MB” megabajtów , potem terabajty i tak dalej.

Kiedyś programy musiały być napisane w języku maszynowym w kodach, które były bezpośrednio odbierane przez komputer. Ponieważ była to bardzo ciężka i bardzo nieefektywna praca, na początku lat 50. opracowano systemy, które umożliwiały pisanie programów w języku maszynowym przy użyciu notacji mnemonicznej tych poleceń i nazywano to autokodem lub językiem asemblera. Programy asemblera są szybko tłumaczone na instrukcje maszynowe i są używane w przypadkach, gdy wymagane jest osiągnięcie maksymalnej wydajności i minimalnego rozmiaru programu. Jednak pisanie takich programów jest nadal bardzo pracochłonne i wymaga znajomości systemu poleceń odpowiedniego komputera. Dlatego wielu badaczy poszło dalej, ucząc komputery rozumieć przyjazne dla człowieka języki programowania, które nazywano językami programowania wysokiego poziomu, oraz języki takie jak asembler – języki niskiego poziomu (które musiałem „skubać” więcej niż raz na początku moich studiów :)). Pierwszy komercyjny język wysokiego poziomu Fortran został opracowany przez IBM w 1958 roku pod kierownictwem Johna Backusa i był używany do działalności naukowej i nadal jest tam używany. Opracowano również wiele różnych języków wysokiego poziomu do innych celów, ale wykorzystano tylko kilka z nich - SI, SI++, Pascal, BASIC itp. (teraz ta lista jest znacznie dłuższa).

W latach 40-50 komputery były ogromnymi urządzeniami – istniały hale wyłożone szafami ze sprzętem, które oczywiście kosztowały dużo pieniędzy i oczywiście mogły sobie na to pozwolić tylko duże firmy. W 1948 wynaleziono tranzystory, które były w stanie zastąpić lampy próżniowe. A po znalezieniu tanich sposobów na wynalezienie tranzystorów możliwe było stworzenie komputerów setki razy mniejszych niż komputery lampowe. aw 1965 r. Digital Equipment wypuścił pierwszy minikomputer PDP-8, mniej więcej wielkości lodówki, jego koszt wyniósł 20 000 USD. Kilka tranzystorów zostało umieszczonych i stały się znane jako układy scalone. I już w 1968 roku Burrooughs wypuścił pierwszy komputer na układy scalone, aw 1970 ta sama firma Intel wprowadziła na rynek układy scalone pamięci. W tym samym 1970 roku ta sama firma Intel, a w szczególności Edward Hoff, zaprojektowała pierwszą podobizną centralnej jednostki obliczeniowej typu mainframe (Intel-4004). W 1974 roku wypuszczono ulepszony procesor Intel-8080, który stał się standardem w branży komputerowej. W 1975 roku firma MITS wypuściła pierwszy komercyjny komputer Altair-8800 za 500 USD (RAM miała 256 bajtów). W pierwszych miesiącach sprzedano kilka tysięcy próbek, kupujący sami dostarczyli monitor, klawiaturę itp. W 1975 roku Paul Allen i Bill Gates (przyszli twórcy Microsoftu) stworzyli interpreter języka Basic dla komputera Altair.

W połowie 1981 roku wprowadzono pierwszy komputer osobisty o nazwie IBM PC oparty na nowym 16-bitowym procesorze Intel-8088, który zyskał dużą popularność i w ciągu kilku lat wyparł komputery 8-bitowe i stał się faktycznie standardem komputerów osobistych. Ale tajemnica sukcesu IBM tkwi w tym, że firma postawiła w komputerach IBM możliwość ulepszania poszczególnych części i urządzeń, zrobiła komputer składający się z kilku oddzielnych bloków, w przeciwieństwie do swoich konkurentów, którzy nie potrafili budować na swoim sukcesie. Jednocześnie metody parowania urządzeń były dostępne dla wszystkich i nazwano to później zasadą otwartej architektury, która zapewniła sukces komputerowi IBM PC, ale jednocześnie pozbawiła firmę wyłącznego korzystania z owoców różnych rozwój i ulepszenia techniczne. Kalkulacja była poprawna, co pozwoliło niezależnym producentom opracować różne dodatkowe urządzenia i komponenty, których było już setki w ciągu następnych kilku lat. I oczywiście użytkownik otrzymał z tego największą korzyść!

Myślę, że możemy na tym poprzestać, ponieważ wielu z Was widziało już generację IBM PC na procesorach 80-286 i 386, które sprowadzano do nas przez kraje trzecie, Indie i inne, od czasów wielkiego i potężnego ZSRR, pomimo zapotrzebowanie na maszyny tej klasy, nie mogło i nie chciało przyznać się do lagów w tym zakresie.