Znaczenie słowa komputer to „komputer”. Potrzeba przetwarzania danych i obliczeń pojawiła się kilka tysięcy lat temu, do tego wykorzystano liczenie kamieni, patyków i tym podobnych, a około 1500 lat temu zaczęto używać liczydła. W 1642 r. Blaise Pascal wynalazł mechaniczną maszynę do dodawania liczb. W 1673 Gottfried Wilhelm Leibniz zaprojektował pierwszą maszynę sumującą, która wykonała już cztery kroki. Arytmometry zaczęły być szeroko stosowane w XIX wieku, wykonano na nich dość złożone obliczenia, a już pojawił się pierwszy prototyp osoby pracującej na komputerze - „licznik” - ten, który pracuje z maszyną dodającą. Podczas swojej pracy licznik dokładnie wykonywał określoną sekwencję czynności i instrukcji, którą później zaczęto nazywać programem. Ponieważ czynności wykonywane i rejestrowanie wyników były wykonywane przez człowieka, szybkość obliczeń była mocno ograniczona, przez co obliczenia były wykonywane powoli – nawet kilka liczników mogło wykonywać program tygodniami lub miesiącami.
Angielski matematyk Charles Babbage na początku XIX wieku próbował stworzyć urządzenie obliczeniowe - maszynę analityczną, która podobnie jak współczesna technologia komputerowa miała wykonywać operacje obliczeniowe bez udziału ludzi. Maszyna musiała wykonywać programy, które były do niej wprowadzane za pomocą kart dziurkowanych (kawałek lub taśma grubego papieru, gdzie informacje były nanoszone za pomocą dużej liczby małych otworów), które w tamtym czasie były już wykorzystywane w przemyśle tkackim. Jednocześnie potrzebny był magazyn do przechowywania danych z obliczeń i ustalania wyników pośrednich (w dzisiejszym języku jest to pamięć). Ale mimo wszystko pomysł ten nie miał się spełnić - silnik analityczny był zbyt skomplikowany jak na ówczesną technologię i niestety Babbage nie mógł ukończyć tego projektu. Jednak przedstawił podstawowe idee i mechanizmy oraz stworzył prototyp przyszłego komputera. A już w 1943 roku amerykański naukowiec Howard Aiken, korzystając z pracy tego Charlesa Babbage, wykorzystując nowe technologie tamtych czasów, przekaźnik elektryczny, stworzył taką maszynę o nazwie „MARK-1” w jednym z przedsiębiorstw studni- znanej firmy IBM. Podobną maszynę zbudował niemiecki inżynier Konrad Zuse w 1941 roku.
W międzyczasie dramatycznie wzrosło zapotrzebowanie na zautomatyzowane przetwarzanie danych i kilka grup badawczych już nad tym pracowało. Grupa kierowana przez Johna Silence'a i Prespera Eckerta w USA opracowała maszynę ENIAC opartą na lampach próżniowych, która była tysiąc razy szybsza od Mark-1, ale czas potrzebny na wykonanie programu był bardzo długi - od kilku godzin do kilku dni. Aby rozwiązać ten problem, naukowcy zaczęli tworzyć nową maszynę, która mogłaby przechowywać program w swojej pamięci. Wkrótce, bo już w 1945 roku, do opracowania dołączył znany matematyk John von Neumann, który w swoim raporcie w prosty i potoczny sposób wyjaśnił i sformułował zasady działania urządzeń obliczeniowych, czyli komputerów (wyróżniono 4 główne urządzenia: arytmetyczno-logiczne, urządzenie sterujące, urządzenie pamięci masowej i zewnętrzne urządzenie wejścia/wyjścia). W 1949 roku angielski badacz Maurice Wilks zbudował pierwszy komputer oparty na zasadach von Neumanna.
Wszystkie liczby w komputerze są reprezentowane jako 0 i 1, a jednostką informacji jest bit, który może przyjąć wartość zero i jeden, a polecenia maszynowe działają z ośmioma bitami naraz. Osiem bitów składa się na 1 bajt iw nim można zakodować wartość jednego znaku z 256 możliwych - czyli 2 do ósmej potęgi. Następny poziom kilobajtów to „KB” równy 1024 bajty (od 2 do dziesiątej potęgi), megabajt jest skrócony jako „MB” i jest równy 1024 „KB” kilobajtów, a gigabajt „GB” jest równy 1024 „MB” megabajtów , potem terabajty i tak dalej.
Kiedyś programy musiały być napisane w języku maszynowym w kodach, które były bezpośrednio odbierane przez komputer. Ponieważ była to bardzo ciężka i bardzo nieefektywna praca, na początku lat 50. opracowano systemy, które umożliwiały pisanie programów w języku maszynowym przy użyciu notacji mnemonicznej tych poleceń i nazywano to autokodem lub językiem asemblera. Programy asemblera są szybko tłumaczone na instrukcje maszynowe i są używane w przypadkach, gdy wymagane jest osiągnięcie maksymalnej wydajności i minimalnego rozmiaru programu. Jednak pisanie takich programów jest nadal bardzo pracochłonne i wymaga znajomości systemu poleceń odpowiedniego komputera. Dlatego wielu badaczy poszło dalej, ucząc komputery rozumieć przyjazne dla człowieka języki programowania, które nazywano językami programowania wysokiego poziomu, oraz języki takie jak asembler – języki niskiego poziomu (które musiałem „skubać” więcej niż raz na początku moich studiów :)). Pierwszy komercyjny język wysokiego poziomu Fortran został opracowany przez IBM w 1958 roku pod kierownictwem Johna Backusa i był używany do działalności naukowej i nadal jest tam używany. Opracowano również wiele różnych języków wysokiego poziomu do innych celów, ale wykorzystano tylko kilka z nich - SI, SI++, Pascal, BASIC itp. (teraz ta lista jest znacznie dłuższa).
W latach 40-50 komputery były ogromnymi urządzeniami – istniały hale wyłożone szafami ze sprzętem, które oczywiście kosztowały dużo pieniędzy i oczywiście mogły sobie na to pozwolić tylko duże firmy. W 1948 wynaleziono tranzystory, które były w stanie zastąpić lampy próżniowe. A po znalezieniu tanich sposobów na wynalezienie tranzystorów możliwe było stworzenie komputerów setki razy mniejszych niż komputery lampowe. aw 1965 r. Digital Equipment wypuścił pierwszy minikomputer PDP-8, mniej więcej wielkości lodówki, jego koszt wyniósł 20 000 USD. Kilka tranzystorów zostało umieszczonych i stały się znane jako układy scalone. I już w 1968 roku Burrooughs wypuścił pierwszy komputer na układy scalone, aw 1970 ta sama firma Intel wprowadziła na rynek układy scalone pamięci. W tym samym 1970 roku ta sama firma Intel, a w szczególności Edward Hoff, zaprojektowała pierwszą podobizną centralnej jednostki obliczeniowej typu mainframe (Intel-4004). W 1974 roku wypuszczono ulepszony procesor Intel-8080, który stał się standardem w branży komputerowej. W 1975 roku firma MITS wypuściła pierwszy komercyjny komputer Altair-8800 za 500 USD (RAM miała 256 bajtów). W pierwszych miesiącach sprzedano kilka tysięcy próbek, kupujący sami dostarczyli monitor, klawiaturę itp. W 1975 roku Paul Allen i Bill Gates (przyszli twórcy Microsoftu) stworzyli interpreter języka Basic dla komputera Altair.
W połowie 1981 roku wprowadzono pierwszy komputer osobisty o nazwie IBM PC oparty na nowym 16-bitowym procesorze Intel-8088, który zyskał dużą popularność i w ciągu kilku lat wyparł komputery 8-bitowe i stał się faktycznie standardem komputerów osobistych. Ale tajemnica sukcesu IBM tkwi w tym, że firma postawiła w komputerach IBM możliwość ulepszania poszczególnych części i urządzeń, zrobiła komputer składający się z kilku oddzielnych bloków, w przeciwieństwie do swoich konkurentów, którzy nie potrafili budować na swoim sukcesie. Jednocześnie metody parowania urządzeń były dostępne dla wszystkich i nazwano to później zasadą otwartej architektury, która zapewniła sukces komputerowi IBM PC, ale jednocześnie pozbawiła firmę wyłącznego korzystania z owoców różnych rozwój i ulepszenia techniczne. Kalkulacja była poprawna, co pozwoliło niezależnym producentom opracować różne dodatkowe urządzenia i komponenty, których było już setki w ciągu następnych kilku lat. I oczywiście użytkownik otrzymał z tego największą korzyść!
Myślę, że możemy na tym poprzestać, ponieważ wielu z Was widziało już generację IBM PC na procesorach 80-286 i 386, które sprowadzano do nas przez kraje trzecie, Indie i inne, od czasów wielkiego i potężnego ZSRR, pomimo zapotrzebowanie na maszyny tej klasy, nie mogło i nie chciało przyznać się do lagów w tym zakresie.