Prezentacja naukowców informatyki. Prezentacja na temat informatyki na temat „wielcy naukowcy informatyki”


Leonardo da Vinci Przez ponad 300 lat uważano, że Blaise Pascal jest wynalazcą pierwszej maszyny liczącej. Jednak w 1967 roku w Bibliotece Narodowej w Madrycie znaleziono dwa tomy niepublikowanych rękopisów Leonarda da Vinci (), jednego z tytanów renesansu, włoskiego malarza, rzeźbiarza, architekta, naukowca i inżyniera. Wśród rysunków znaleźli szkic trzynastobitowego żmija z dziesięcioma zębami. W celach reklamowych został zebrany przez firmę. Jednak w 1967 r. w Bibliotece Narodowej w Madrycie znaleziono dwa tomy niepublikowanych rękopisów 1BM i okazało się, że jest to całkiem wykonalne.


Wilhelm Schickard Dziesięć lat wcześniej, w 1957 roku, w bibliotece miejskiej Stuttgartu odkryto nieznaną wcześniej kserokopię szkicu urządzenia liczącego, z czego wynikało, że co najmniej 20 lat wcześniej niż „Pascal” pojawił się inny projekt maszyny liczącej. koło". Można było ustalić, że ten szkic to nic innego jak brakujący załącznik do opublikowanego wcześniej listu profesora Uniwersytetu w Tybindze Wilhelma Schickarda do J. Keplera (z), gdzie Schickard, powołując się na rysunek, opisał wyliczenie wynalazł maszynę. Maszyna zawierała urządzenie sumujące i mnożące, a także mechanizm zapisu wyników pośrednich. W innym liście (od) Schickard pisał, że Kepler byłby mile zaskoczony, gdyby zobaczył, jak sama maszyna gromadzi i przenosi w lewo dziesięć lub sto, i jak przy odejmowaniu odbiera to, co trzyma w „umyśle”. Schickard () pojawił się w Tybindze w 1617 roku i wkrótce został profesorem języków orientalnych na tamtejszym uniwersytecie. Jednocześnie korespondował z Keplerem oraz szeregiem naukowców niemieckich, francuskich, włoskich i holenderskich w kwestiach związanych z astronomią. Zwracając uwagę na wybitne zdolności matematyczne młodego naukowca, Kepler polecił mu zająć się matematyką. Shikkard posłuchał tej rady i osiągnął znaczący sukces w nowej dziedzinie. W 1631 został profesorem matematyki i astronomii. A pięć lat później Shikkard i członkowie jego rodziny zmarli na cholerę. Prace naukowca zostały zapomniane...


Blaise Pascal Blaise Pascal () jedna z najsłynniejszych postaci w historii ludzkości. Pascal zmarł w wieku 39 lat, ale mimo tak krótkiego życia przeszedł do historii jako wybitny matematyk, fizyk, filozof, pisarz, który także wierzył w cuda.Niektóre z praktycznych osiągnięć Pascala doczekały się dziś najwyższego wyróżnienia, niewiele osób zna nazwisko ich autora. Na przykład, teraz bardzo niewielu powie, że najczęstszym samochodem jest wynalazek Blaise'a Pascala. Jest też właścicielem pomysłu omnibusów wieloosobowych powozów konnych o stałych trasach pierwszego typu regularnego transportu publicznego. Będąc bardzo młodym (1643), Pascal stworzył urządzenie mechaniczne, maszynę sumującą, która umożliwiała dodawanie liczb w systemie liczb dziesiętnych. W tej maszynie liczby były ustawiane przez odpowiednie obroty tarcz (kół) z podziałkami cyfrowymi, a wynik operacji można było odczytać w okienkach, po jednym dla każdej liczby. Dyski były połączone mechanicznie, a dodatek uwzględniał przeniesienie jednej cyfry na następną. Dysk jednostek był połączony z dyskiem dziesiątek, dysk dziesiątek z dyskiem setek i tak dalej. Główną wadą maszyny sumującej Pascala była niedogodność wykonywania za jej pomocą wszystkich operacji, z wyjątkiem dodawania.


Gottfried Wilhelm Leibniz Gottfried Wilhelm Leibniz () wszedł do historii matematyki przede wszystkim jako twórca rachunku różniczkowego i całkowego, kombinatoryki i teorii wyznaczników. Ale jego nazwisko należy również do wybitnych wynalazców urządzeń liczących.Leibniz urodził się w Lipsku i należał do rodziny znanej z naukowców i polityków. W 1661 Leibniz został studentem. Studiuje filozofię, prawo i matematykę na uniwersytetach w Lipsku, Wiedniu i Altdorfie. W 1666 obronił jednocześnie dwie rozprawy o tytuł docenta prawa i matematyki W 1672 Leibniz poznał holenderskiego matematyka i astronoma Christiana Huygensa. Widząc, ile obliczeń musiał wykonać astronom, Leibniz postanowił wynaleźć mechaniczne urządzenie do obliczeń, które ukończył w 1694 roku. Rozwijając idee Pascala, Leibniz użył operacji przesunięcia do bitowego mnożenia liczb. Jeden egzemplarz maszyny Leibniza trafił do Piotra Wielkiego, który podarował ją cesarzowi chińskiemu, chcąc zaimponować mu europejskimi osiągnięciami technicznymi. Leibniz zbliżył się do stworzenia logiki matematycznej: zaproponował użycie symboli matematycznych w logice i po raz pierwszy wyraził ideę możliwości wykorzystania w niej systemu liczb binarnych, który później znalazł zastosowanie w komputerach automatycznych.


Jerzy Byk Jerzy Byk (). Po Leibnizie wielu wybitnych naukowców prowadziło badania z zakresu logiki matematycznej i systemu liczb binarnych, ale prawdziwy sukces odniósł tutaj angielski samouk matematyk George Boole, którego determinacja nie znała granic. Sytuacja materialna rodziców George'a pozwoliła mu ukończyć jedynie szkołę podstawową dla ubogich, a jakiś czas później Buhl, zmieniając kilka zawodów, otworzył małą szkołę, w której sam się uczył. Poświęcił dużo czasu na samokształcenie i wkrótce zainteresował się ideami logiki symbolicznej. W 1854 roku ukazała się jego główna praca „Badanie praw myślenia, na których opierają się matematyczne teorie logiki i prawdopodobieństwa". Po pewnym czasie stało się jasne, że system Boole'a doskonale nadaje się do opisu elektrycznych obwodów przełączających: prąd w obwodzie może płynąć lub być nieobecny, tak jak stwierdzenie może być prawdziwe lub fałszywe. Już w XX wieku, wraz z systemem liczb binarnych, aparat matematyczny stworzony przez Boole'a stanowił podstawę rozwoju cyfrowego komputera elektronicznego.


Herman Hollerith Znaczący wkład w automatyzację przetwarzania informacji wniósł Amerykanin, syn niemieckich emigrantów, Herman Hollerith (). Jest twórcą techniki liczenia i dziurkowania. Zajmując się przetwarzaniem informacji statystycznych ze spisu powszechnego USA w 1890 r., Hollerith zbudował ręczny dziurkacz, który służył do nakładania danych cyfrowych na dziurkowane karty (dziurki były dziurkowane na karcie) oraz wprowadzono sortowanie mechaniczne w celu ułożenia tych dziurkowanych kart, w zależności od miejsca dziurkowania. Zbudował maszynę sumującą, zwaną tabulatorem, która „wyczuwała” dziury w kartach dziurkowanych, postrzegała je jako odpowiadające im liczby i liczyła te liczby. Karta z tabulatorem była wielkości banknotu jednodolarowego. Miała 12 rzędów, w każdym z nich można było wybić 20 otworów, odpowiadających takim danym jak wiek, płeć, miejsce urodzenia, liczba dzieci, stan cywilny itp. Agenci biorący udział w spisie zapisywali odpowiedzi respondentów w specjalnych formularzach. Wypełnione formularze zostały wysłane do Waszyngtonu, gdzie informacje w nich zawarte zostały przeniesione na karty za pomocą dziurkacza. Następnie karty dziurkowane były ładowane do specjalnych urządzeń podłączonych do tabulatora, gdzie były nawleczone na cienkie igły. Igła, wpadając do otworu, minęła ją, zamykając styk w odpowiednim obwodzie elektrycznym maszyny. To z kolei doprowadziło do tego, że licznik składający się z obracających się cylindrów przesunął się o jedną pozycję do przodu.


John Vincent Atanasoff W 1973 roku za pośrednictwem sądu ustalono, że prawa patentowe do podstawowych idei cyfrowych maszyn elektronicznych należą do Johna Atanasova Bułgar z urodzenia John Vincent Atanasoff () został Amerykaninem w drugim pokoleniu. Atanasov rozpoczął poszukiwania sposobów automatyzacji obliczeń w 1933 roku, kiedy nadzorował doktorantów, którzy studiowali teorię sprężystości, fizykę kwantową i fizykę kryształów. Większość problemów, z jakimi się borykali, dotyczyła równań różniczkowych cząstkowych. Aby je rozwiązać, należało zastosować metody przybliżone, co z kolei wymagało rozwiązania dużych układów równań algebraicznych. Dlatego naukowiec zaczął podejmować próby wykorzystania środków technicznych do przyspieszenia obliczeń: Atanasow postanowił zaprojektować komputer oparty na nowych zasadach, biorąc za podstawę elementarną lampy próżniowe. Jesienią 1939 roku John Atanasoff i jego asystent Clifford Berry rozpoczęli budowę specjalistycznej maszyny komputerowej przeznaczonej do rozwiązywania układu równań algebraicznych z 30 niewiadomymi. Postanowiono nazwać go ABC (Atanasoff Berry Computer). Dane początkowe, przedstawione w notacji dziesiętnej, musiały zostać wprowadzone do maszyny za pomocą standardowych kart perforowanych. Następnie w samej maszynie kod dziesiętny został przekonwertowany na binarny, który następnie został w nim użyty. Głównymi operacjami arytmetycznymi były dodawanie i odejmowanie, a przy ich pomocy wykonywano już mnożenie i dzielenie. W samochodzie były dwa urządzenia magazynujące. Do wiosny 1942 roku prace nad maszyną zostały w dużej mierze zakończone; Jednak w tym czasie Stany Zjednoczone były już w stanie wojny z nazistowskimi Niemcami, a problemy wojenne zepchnęły na dalszy plan pracę na pierwszym komputerze. Wkrótce samochód został zdemontowany.


Konrad Zuse Za twórcę pierwszego działającego komputera ze sterowaniem programowym uważany jest niemiecki inżynier Konrad Zuse (), który od dziecka uwielbiał wymyślać i już w szkole zaprojektował model maszyny do wymiany pieniędzy. zaczął marzyć o maszynie zdolnej do wykonywania żmudnych obliczeń zamiast osoby jeszcze będąc studentem. Nie wiedząc o pracy Charlesa Babbage'a, Zuse wkrótce przystąpił do stworzenia urządzenia podobnego do silnika analitycznego tego angielskiego matematyka. W 1936, aby poświęcić więcej czasu na budowę komputera, Zuse zrezygnował z pracy. Na małym stoliku w domu rodziców założył „warsztat”. Około dwa lata później komputer, który zajmował już powierzchnię około 4 m2 i był zawiłością przekaźników i przewodów, był gotowy. Maszyna, którą nazwał 21 (od 7, od niemieckiej pisowni nazwiska Zuse), miała klawiaturę do wprowadzania danych. W 1942 r. Zuse i austriacki inżynier elektryk Helmut Schreyer zaproponowali stworzenie całkowicie nowego typu urządzenia, opartego na próżniowych lampach elektronowych. Nowa maszyna miała działać setki razy szybciej niż jakakolwiek maszyna dostępna w tym czasie w walczących Niemczech. Jednak propozycja ta została odrzucona: Hitler nałożył zakaz wszelkiego „długoterminowego” rozwoju naukowego, ponieważ był pewien szybkiego zwycięstwa. W trudnych latach powojennych Zuse, pracując sam, stworzył system programowania zwany Plankalkul (Plankal-kül, „rachunek planu”). Język ten nazywany jest pierwszym językiem wysokiego poziomu.


Siergiej Aleksiejewicz Lebiediew Siergiej Aleksiejewicz Lebiediew () urodził się w Niżnym Nowogrodzie, w 1921 r. Wstąpił do Moskiewskiej Wyższej Szkoły Technicznej (obecnie Moskiewski Państwowy Uniwersytet Techniczny im. N.E. Baumana) na Wydziale Elektrotechniki. W 1928 r. Lebiediew, po uzyskaniu dyplomu z elektrotechniki, został zarówno nauczycielem akademickim, który ukończył, jak i młodszym pracownikiem naukowym w Ogólnounijnym Instytucie Elektrotechnicznym (VEI). W 1936 był już profesorem i autorem (wraz z PS Żdanowem) książki "Stabilność pracy równoległej układów elektrycznych", szeroko znanej wśród specjalistów w dziedzinie elektrotechniki. Pod koniec lat czterdziestych pod kierownictwem Lebiediewa powstał pierwszy domowy elektroniczny komputer cyfrowy MESM (mała elektroniczna maszyna licząca), który jest jednym z pierwszych na świecie i pierwszym w Europie komputerem z programem zapisanym w pamięci. W 1950 roku Lebiediew przeniósł się do Instytutu Mechaniki Precyzyjnej i Techniki Komputerowej (ITM i VT Akademii Nauk ZSRR) w Moskwie i został głównym konstruktorem BESM, a następnie dyrektorem instytutu. Wtedy BESM-1 był najszybszym komputerem w Europie i nie ustępował najlepszym komputerom w USA. Wkrótce maszyna została nieco zmodernizowana iw 1956 roku zaczęła być masowo produkowana pod nazwą BESM-2. Na BESM-2 obliczenia zostały wykonane podczas startu sztucznych satelitów Ziemi i pierwszego statku kosmicznego z osobą na pokładzie. W 1967 roku seria stworzona pod kierownictwem S.A. zaczęła być masowo produkowana. Lebiediew i V.A. Melnikova, oryginalna architektura BESM-6 z szybkością około 1 miliona operacji na sekundę: BESM-6 był jednym z najbardziej produktywnych komputerów na świecie i posiadał wiele „cech” maszyn następnej generacji trzeciej generacji. Była pierwszą dużą maszyną domową, która zaczęła być dostarczana użytkownikom wraz z zaawansowanym oprogramowaniem.


John von Neumann Amerykański matematyk i fizyk John von Neumann () pochodził z Budapesztu, drugiego co do wielkości i najważniejszego po Wiedniu ośrodka kulturalnego byłego Cesarstwa Austro-Węgierskiego. Swoimi niezwykłymi zdolnościami człowiek ten zaczął się wyróżniać bardzo wcześnie: w wieku sześciu lat mówił starożytnym językiem greckim, a w wieku ośmiu lat opanował podstawy wyższej matematyki. Pracował w Niemczech, ale na początku lat 30. zdecydował się osiedlić w Stanach Zjednoczonych. John von Neumann wniósł znaczący wkład w powstanie i rozwój wielu dziedzin matematyki i fizyki oraz miał znaczący wpływ na rozwój technologii komputerowej. Prowadził badania podstawowe związane z logiką matematyczną, teorią grup, algebrą operatorów, mechaniką kwantową, fizyką statystyczną; jest jednym z twórców metody „Monte Carlo”, numerycznej metody rozwiązywania problemów matematycznych opartej na symulacji zmiennych losowych. „Według von Neumanna” główne miejsce wśród funkcji wykonywanych przez komputer zajmują operacje arytmetyczne i logiczne. Dla nich zapewnione jest urządzenie arytmetyczno-logiczne. Jej działaniem i ogólnie całą maszyną steruje urządzenie sterujące. Rolę przechowywania informacji pełni pamięć RAM. Tutaj przechowywane są informacje zarówno dla jednostki arytmetyczno-logicznej (dane), jak i jednostki sterującej (polecenia).


Claude Elwood Shannon Już jako nastolatek Claude Elwood Shannon () zaczął projektować. Stworzył modele samolotów i urządzeń radiowych, stworzył łódź sterowaną radiowo, połączył swój dom i dom przyjaciela linią telegraficzną. Bohaterem dzieciństwa Claude'a był słynny wynalazca Thomas Alva Edison, który był jednocześnie jego dalekim krewnym (jednak nigdy się nie spotkali). W 1937 Shannon przedstawił swoją rozprawę "Symbolic Analysis of Relay and Switching Circuits", w której doszedł do wniosku, że algebra Boole'a może być z powodzeniem stosowana do analizy i syntezy przełączników i przekaźników w obwodach elektrycznych. Można powiedzieć, że praca ta utorowała drogę do rozwoju komputerów cyfrowych. Najsłynniejsze dzieło Claude'a Elwooda Shannona ukazało się w 1948 r. „The Mathematical Theory of Communication”, w którym przedstawiono rozważania dotyczące stworzonej przez niego nowej nauki teorii informacji. Jednym z zadań teorii informacji jest znalezienie najbardziej ekonomicznych metod kodowania, które pozwolą przekazać niezbędne informacje przy użyciu minimalnej liczby znaków. Shannon zdefiniował podstawową jednostkę ilości informacji (zwaną później bitem) jako komunikat reprezentujący jedną z dwóch opcji: orła, resztka, tak nie i tak dalej. Bit może być reprezentowany jako 1 lub 0 lub jako obecność lub brak prądu w obwodzie.


Bill (William) Gates Bill Gates urodził się 28 października 1955 roku. On i jego dwie siostry dorastali w Seattle. Ich ojciec, William Gates II, jest prawnikiem. Matka Billa Gatesa, Mary Gates, była nauczycielką, członkiem rady na Uniwersytecie Waszyngtońskim i przewodniczącą organizacji charytatywnej United Way International. Gates i jego kolega z liceum Paul Allen weszli do świata przedsiębiorczości w wieku piętnastu lat. Napisali program regulujący ruch i założyli firmę, która go dystrybuuje; zarobił na tym projekcie dolary i nie chodził już do liceum. W 1973 Gates rozpoczął swój pierwszy rok na Uniwersytecie Harvarda. Podczas pobytu na Harvardzie Bill Gates i Paul Allen napisali pierwszy system operacyjny, rozwijając język programowania BASIC dla pierwszego minikomputera MITS Altair. Na trzecim roku Bill Gates opuścił Harvard, aby poświęcić się na pełny etat Microsoftowi, firmie, którą założył w 1975 roku razem z Allenem. W ramach kontraktu z IBM Gates tworzy system operacyjny MS-DOS, z którego w 1993 roku korzystało 90% komputerów na świecie i dzięki któremu stał się bajecznie bogaty. Tak więc Bill Gates przeszedł do historii nie tylko jako główny architekt oprogramowania Microsoftu, ale także jako najmłodszy miliarder, który samodzielnie dorobił się. Dziś Bill Gates jest jedną z najpopularniejszych postaci w świecie komputerowym. Żartują o nim, śpiewają mu pochwały. Na przykład magazyn Peoper twierdzi, że „Gates jest tak samo ważny dla programowania, jak Edison dla żarówki: częściowo innowator, częściowo przedsiębiorca, częściowo handlowiec, ale niezawodnie geniusz”.

Opis prezentacji na poszczególnych slajdach:

1 slajd

Opis slajdu:

Wielcy naukowcy informatyki. Wypełnił: Uczennica 7 klasy „a” gimnazjum nr 3 MBOU Zaitseva Veronika Sprawdził: Mymrina Irina Vyacheslavovna

2 slajdy

3 slajdy

Opis slajdu:

Wilhelm Schickard przybył do Tybingi w 1617 roku i wkrótce został profesorem języków orientalnych na tamtejszym uniwersytecie. Jednocześnie korespondował z Keplerem oraz szeregiem naukowców niemieckich, francuskich, włoskich i holenderskich w kwestiach związanych z astronomią. Zwracając uwagę na wybitne zdolności matematyczne młodego naukowca, Kepler polecił mu zająć się matematyką. Shikkard posłuchał tej rady i osiągnął znaczący sukces w nowej dziedzinie. W 1631 został profesorem matematyki i astronomii. A pięć lat później Shikkard i członkowie jego rodziny zmarli na cholerę. Prace naukowca zostały zapomniane.

4 slajdy

Opis slajdu:

PASCAL (Pascal) Blaise (1623-62), jedna z najsłynniejszych postaci w historii ludzkości, francuski matematyk, fizyk, filozof religijny i pisarz. Sformułował jedno z głównych twierdzeń geometrii rzutowej. Zajmuje się arytmetyką, teorią liczb, algebrą, teorią prawdopodobieństwa. Zaprojektował (1641 - 1642) maszynę sumującą. Jeden z twórców hydrostatyki ustanowił jej podstawowe prawo, nazwane jego imieniem. Człowiek bardzo religijny, wyznający nurt jansenizmu, od 1655 r. prowadził na wpół zakonny tryb życia. Kontrowersje z jezuitami znalazły odzwierciedlenie w Liście do prowincjała (1656-57), arcydziele francuskiej prozy satyrycznej. W „Myślach” (opublikowanych w 1669 r.) Pascal rozwija ideę tragedii i kruchości człowieka, który znajduje się między dwiema otchłaniami – nieskończonością i znikomością (człowiek jest „trzciną myślącą”). W chrześcijaństwie widział sposób na zrozumienie tajemnic bytu i wybawienie człowieka od rozpaczy. Odegrał znaczącą rolę w tworzeniu francuskiej prozy klasycznej.

5 slajdów

Opis slajdu:

George Boole jest uważany za ojca logiki matematycznej. Prace naukowe Boole'a odzwierciedlały jego przekonanie o możliwości badania właściwości operacji matematycznych, które niekoniecznie są wykonywane na liczbach. Naukowiec mówił o metodzie symbolicznej, którą stosował zarówno do badania różnicowania i całkowania, jak i do wnioskowania logicznego i rozumowania probabilistycznego. To on zbudował jeden z działów logiki formalnej w postaci pewnej „algebry” podobnej do algebry liczb, ale nieredukowalnej do niej. Boole wynalazł rodzaj algebry (zwanej później Boolean) - system notacji i reguł mających zastosowanie do wszelkiego rodzaju obiektów, od liczb po zdania. Boole miał nadzieję, że jego system, usuwając logiczne argumenty z werbalnych łusek, ułatwi poszukiwanie poprawnego wniosku i sprawi, że będzie on zawsze osiągalny. Większość logików tamtych czasów albo ignorowała, albo ostro krytykowała system Boole'a, ale jego możliwości okazały się tak wielkie, że nie mógł pozostać bez opieki długo. Po pewnym czasie stało się jasne, że system Boole'a dobrze nadaje się do opisu przełączników obwodów elektrycznych. Pierwszym, który zdał sobie z tego sprawę i zastosował tę teorię do opisania elektrycznych obwodów przełączających, był amerykański logik Charles Sanders Pierce.

6 slajdów

Opis slajdu:

Siergiej Aleksiejewicz Lebiediew urodził się 2 listopada 1902 r. W Niżnym Nowogrodzie w rodzinie nauczyciela. Matka Anastazja Pietrowna (z domu Mavrina) opuściła bogaty majątek szlachecki, aby zostać nauczycielką w instytucji edukacyjnej dla dziewcząt z biednych rodzin. Aleksiej Iwanowicz Lebiediew, ojciec Siergieja, w młodym wieku zostawił sierotę, mieszkał z ciotką na wsi. W wieku dziewięciu lat wrócił do owdowiałej matki w Kostromie, przez dwa lata uczęszczał do szkoły parafialnej. Potem przez pięć lat pracował jako urzędnik w tej samej fabryce tkackiej co jego matka i dużo czytał. Zbliżywszy się do swoich rówieśników, którzy lubili idee populizmu, zdecydowanie postanowił zostać wiejskim nauczycielem. Z pięcioma rublami zgromadzonymi w ciągu wielu miesięcy pracy udał się do prowincji Jarosławia, aby zapisać się do szkoły otwartej przez Ushinsky'ego dla sierot. Po ukończeniu z wyróżnieniem instytutu nauczycielskiego zaczął uczyć we wsi Rodniki (obecnie miasto Rodniki, obwód iwanowski). W grudniu 1890 r. wraz z innymi członkami podziemnej organizacji Wola Ludu został aresztowany i osadzony na dwa lata w więzieniu. Po zwolnieniu rodzina przeniosła się do Niżnego Nowogrodu. Czworo dzieci pojawiło się jedno po drugim - Jekaterina, Tatiana, Siergiej i Elena. Podczas rewolucji 1905 r. AI Lebiediew został jednym z organizatorów Związku Chłopskiego, którego komitet prowincjonalny wybrał go na przewodniczącego. Jego broszury „Co czytać chłopom i robotnikom”, „Słownik terminów politycznych” i inne miały prawie milion egzemplarzy. W tych samych latach AI Lebiediew stworzył wiele prac z zakresu pedagogiki. Cztery edycje wytrzymały jego „Elementarz”, były popularne „Książka do czytania w wiejskich szkołach”, „Świat w obrazkach” itp.




Informatycy Charles Babbage Charles Babbage dość szeroko pokazał swój talent jako matematyk i wynalazca. Babbage przeszedł do historii jako projektant pierwszego pełnoprawnego komputera. Babbage wpadł na takie pomysły, jak instalacja „czarnych skrzynek” w pociągach, aby zarejestrować okoliczności wypadku. Naukowiec przez całe życie pasjonował się różnego rodzaju kluczami - zamkami, szyframi i mechanicznymi lalkami.




Trochę problemów w pracy Niestety, Charles Babbage nie miał okazji zobaczyć ucieleśnienia większości swoich rewolucyjnych pomysłów. Pracy naukowca zawsze towarzyszyło kilka bardzo poważnych problemów. Do wczesnych lat 90. panowała ogólnie przyjęta opinia, że ​​pomysły Charlesa Babbage'a zbyt daleko wyprzedzały możliwości techniczne jego czasów, a zatem zaprojektowane komputery w zasadzie nie mogły zostać zbudowane w tamtych czasach.


Rodzice Hermana Holleritha Hermana byli imigrantami z Niemiec, w 1848 roku opuścili ojczyznę. Chłopiec urodził się 29 lutego 1860 roku. Nic nie wiadomo o dzieciństwie Hermana (sprawa rodzinna). Chodził do szkoły z wyraźną niechęcią i cieszył się opinią nauczycieli jako dziecko zdolne, ale źle wychowane i leniwe. Kiedy Herman miał 14 lat, na zawsze opuścił mury miejskiego gimnazjum. Młody człowiek ukończył z wyróżnieniem studia i rozpoczął służbę na Uniwersytecie Columbia, na wydziale matematyki słynnego profesora Trowbridge'a. Kiedy Herman miał 14 lat, na zawsze opuścił mury miejskiego gimnazjum. Młody człowiek ukończył z wyróżnieniem studia i rozpoczął służbę na Uniwersytecie Columbia, na wydziale matematyki słynnego profesora Trowbridge'a.




Stworzenie nowej maszyny W 1882 roku Hollerith dostał pracę jako nauczyciel mechaniki stosowanej w Massachusetts Institute of Technology. Wkrótce w laboratorium osiadł niezdarny potwór, złożony głównie ze złomu znalezionego na uniwersyteckich wysypiskach. Ale Hollerith wkrótce rozczarował się taśmą, ponieważ szybko się zużyła i rozdarła. Dlatego ostatecznie Hollerith wybrał karty dziurkowane jako nośniki informacji. Sto lat później informatycy ponownie uznali pomysł odczytywania informacji z taśmy za bardziej obiecujący. Ale Hollerith wkrótce rozczarował się taśmą, ponieważ szybko się zużyła i rozdarła. Dlatego ostatecznie Hollerith wybrał karty dziurkowane jako nośniki informacji. Sto lat później informatycy ponownie uznali pomysł odczytywania informacji z taśmy za bardziej obiecujący.


Praca dla państwa Podczas zbliżającego się spisu w 1890 r. władze zarekomendowały wynalazek Holleritha do konkurowania między systemami uważanymi za podstawowe dla mechanizacji pracy rachmistrzów spisu. Maszyna Holleritha nie miała sobie równych, dlatego w biurze projektowym Pratt and Whitney pośpiesznie zorganizowano stworzenie przemysłowego prototypu tabulatora kart perforowanych. Gwiezdny okres w życiu Hermana Otrzymał wówczas bezprecedensową opłatę w wysokości dziesięciu tysięcy dolarów, uzyskał stopień doktora nauk przyrodniczych, jego system przyjęli Kanadyjczycy, Norwegowie, Austriacy, a później Brytyjczycy. Instytut Franklina przyznał mu prestiżowy Medal Elliota Cressona. Francuzi przyznali mu złoty medal na wystawie w Paryżu w 1893 roku. Prawie wszystkie towarzystwa naukowe Europy i Ameryki odnotowały go jako „członka honorowego”. W 1896 roku Herman Hollerith zainwestował swoje pieniądze z zasłużonej sławy bez śladu w stworzeniu firmy Tabulating Machine Company (TMC).


Źródła informacji htm htm html html html Encyklopedia dla dzieci Avanta+, tom 22 Informatyka, Moskwa, Avanta+, 2003 Encyklopedia dla dzieci Avanta+, tom 22 Informatyka, Moskwa, Avanta+, 2003 D.M. Zlatopolsky "Informatyka w twarzach", Moskwa, Czystye Prudy, 2005 D.M. Zlatopolsky "Informatyka w twarzach", Moskwa, Czystye Prudy, 2005 Gazeta "Informatyka" Gazeta "Informatyka"

Zmienili świat

Informatyka


Leonardo di Ser Piero da Vinci (1452 - 1519)

włoski artysta i wynalazca

Jego prace zawierają rysunki urządzeń wykonujących obliczenia mechaniczne.


Atanazy Kircher (1602-1680)

  • Według jego rysunków zbudowano komputer, który mógł wykonywać proste obliczenia arytmetyczne, geometryczne i astronomiczne. Ponadto potrafiła szyfrować wiadomości, obliczać daty Wielkanocy, a także komponować muzykę. Instrukcja obsługi tego urządzenia liczyła 850 stron, a „algorytmy” były wierszami po łacinie, które użytkownicy musieli zapamiętać.

Niemiecki encyklopedysta i wynalazca


John Napier (1550-1617)

  • wymyślił oryginalne urządzenie do szybkiego mnożenia

(kije Napiera)

  • przeszedł do historii jako wynalazca

wspaniały

przetwarzanie danych

narzędzie - logarytmy.

Linijka logarytmiczna

Szkocki matematyk


Wilhelm Schickard (1592 - 1635)

Niemiecki naukowiec, astronom, matematyk

  • Komputer Shikkarda zawierał urządzenie sumujące i mnożące, a także mechanizm zapisywania wyników pośrednich.

i orientalista

"Liczenie godzin"


Blaise Pascal (1623-1662)

Francuski matematyk, mechanik, fizyk, pisarz i filozof.

  • stworzył maszynę dodającą "Pascaline"

Wilhelm Leibniz(1646 - 1716)

  • wynaleziony dodawanie maszyny, który został oparty na urządzeniu kołowym Leibniza.

Saksoński filozof, matematyk, fizyk, prawnik, historyk, dyplomata, wynalazca i językoznawca.


Józef Marie Żakard(d) (1752-1834)

Francuski wynalazca krosna wzorzystego

  • Maszyna żakardowa -

doskonały przykład samochodu

z kontrolą oprogramowania

stworzony dawno temu

przed adwentem

komputery.


Karol Babbage (1791-1871)

angielski matematyk

  • Babbage jest bez wątpienia pierwszym autorem pomysłu stworzenia maszyny liczącej, którą dziś nazywamy komputerem.

Andriej Andriejewicz Markow (1856 - 1922)

rosyjski matematyk

  • Stworzył teorię normalnych algorytmów, położył podwaliny pod teorię złożoności algorytmów, zaproponował oryginalny język opisu działania komputerów.

John von Neumann (1903 - 1957)

amerykański matematyk

  • zajmował się zagadnieniami związanymi z teorią gier, teorią automatów, wniósł wielki wkład w powstanie pierwszych komputerów i opracowanie metod ich stosowania.

Konrad Zuse (1910 -1995)

  • stworzył pierwszy działający komputer programowalny (1941) i język programowania wysokiego poziomu (1948).

niemiecki inżynier


  • „Społeczeństwo komputerowe uznało A. A. Lapunowa za twórcę sowieckiej cybernetyki i programowania”.

Leonid Witalijewicz Kantorowicz (1912-1986)

  • Bezpośredni udział L. V. Kantorovicha w rozwoju technologii komputerowej związany jest z pracami nad matematyką obliczeniową. Kierował projektowaniem nowych urządzeń komputerowych, jest właścicielem szeregu wynalazków w tej dziedzinie. Wraz ze swoimi studentami opracował autorskie zasady programowania maszyn do obliczeń numerycznych.

Radziecki matematyk i ekonomista


  • w latach 1948-1950 pod jego kierownictwem opracowano pierwszą w ZSRR i Europie kontynentalnej Małą Elektroniczną Maszynę Obliczeniową (MESM).

Andriej Pietrowicz Erszow

  • Założyciel informatyki szkolnej.





Arystoteles (BC). Naukowiec i filozof. Próbował odpowiedzieć na pytanie: „Jak rozumujemy”, studiował zasady myślenia. Poddał ludzkie myślenie kompleksowej analizie. Zidentyfikował główne formy myślenia: pojęcie, osąd, wniosek. Jego traktaty o logice są połączone w Organonie. W księgach Organonu: Topeka, Analysts, Hermeneutics i in. myśliciel rozwija najważniejsze kategorie i prawa myślowe, tworzy teorię dowodu i formułuje system rozumowania dedukcyjnego. Dedukcja (od łac. deductio - wnioskowanie) pozwala wyprowadzić prawdziwą wiedzę o poszczególnych zjawiskach, opartą na ogólnych wzorcach. Logika Arystotelesa nazywa się logiką formalną.


Leonardo da Vinci - rzeźbiarz, artysta, muzyk, architekt, naukowiec i genialny wynalazca. Pochodzący z Florencji był synem urzędnika dworskiego Piero da Vinci. Jego prace zawierają rysunki i rysunki ludzkiego ciała, latających ptaków, dziwnych maszyn. Leonardo wynalazł latającą maszynę z ptasimi skrzydłami, łodziami podwodnymi, ogromnym dziobem, kołem zamachowym, helikopterem, potężnymi armatami. Jego prace zawierają również rysunki urządzeń wykonujących obliczenia mechaniczne. Leonardo da Vinci ()


John Napier () W 1614 r. szkocki matematyk John Napier wynalazł tablice logarytmów. Ich zasadą było to, że każdej liczbie odpowiada jej specjalna liczba - logarytm. Logarytmy bardzo ułatwiają dzielenie i mnożenie. Na przykład, aby pomnożyć dwie liczby, dodaj ich logarytmy. wynik znajduje się w tabeli logarytmów. Później wynalazł suwak logarytmiczny.


Blaise Pascal () W 1642 r. francuski matematyk Blaise Pascal zaprojektował urządzenie liczące, które miało ułatwić pracę jego ojcu, inspektorowi podatkowemu, który musiał dokonywać wielu skomplikowanych obliczeń. Urządzenie Pascala „umiejętnie” tylko dodaje i odejmuje. Ojciec i syn zainwestowali dużo pieniędzy w stworzenie swojego urządzenia, ale urzędnicy sprzeciwili się urządzeniu liczącemu Pascala – bali się utraty pracy przez niego, a także pracodawcy, którzy uważali, że lepiej zatrudnić tanich księgowych niż kupować drogi samochód.


Gottfried Leibniz W 1673 roku wybitny niemiecki naukowiec Gottfried Leibniz zbudował pierwszą maszynę liczącą zdolną do mechanicznego wykonywania wszystkich czterech operacji arytmetycznych. Szereg jego najważniejszych mechanizmów było używanych do połowy XX wieku w niektórych typach maszyn. Wszystkie maszyny, w szczególności pierwsze komputery, które wykonywały mnożenie jako wielokrotne dodawanie i dzielenie jako wielokrotne odejmowanie, można przypisać typowi maszyny Leibniza. Główną zaletą kamieni milowych tych maszyn była wyższa niż osoby, szybkość i dokładność obliczeń. Ich powstanie pokazało fundamentalną możliwość zmechanizowania aktywności intelektualnej człowieka.Leibniz jako pierwszy zrozumiał znaczenie i rolę systemu liczb binarnych w łacińskim rękopisie spisanym w marcu 1679 r. Leibniz wyjaśnia, jak wykonywać obliczenia w systemie dwójkowym, w szczególności mnożenie , a później opracowuje projekt w ogólności komputer działający w systemie binarnym. Oto, co pisze: „Tego rodzaju obliczenia można przeprowadzić również na maszynie. Niewątpliwie można to zrobić bardzo prosto i bez większych nakładów finansowych w następujący sposób: trzeba zrobić w banku dziury, aby można je było otworzyć i zamknięte otwory, które odpowiadają 1, a zamknięte otwory na 0. Otwarte otwory wrzucają małe kostki lub kulki do korytek, a zamknięte otwory nie wrzucają niczego. Słoik będzie się przesuwał i przesuwał z kolumny na kolumnę, zgodnie z wymaganiami mnożenia. koryta będą reprezentować kolumny i ani jedna kula nie może spaść z jednego zsypu do drugiego, dopóki maszyna nie zacznie działać...”. Następnie w licznych listach oraz w traktacie „Explication de l`Arithmetique Binairy” (1703) Leibniz powracał raz po raz do arytmetyki binarnej. Pomysł Leibniza na wykorzystanie systemu liczb binarnych w komputerach pozostanie zapomniany na 250 lat.




Jerzy Byk Jerzy Byk (). Rozwinął idee G. Leibniza. Uważany za twórcę logiki matematycznej (algebry Boole'a). Boole rozpoczął swoje badania matematyczne od opracowania operatorowych metod analizy i teorii równań różniczkowych, a następnie zajął się logiką matematyczną. W głównych pracach Boole'a, „matematycznej analizie logiki, która jest eksperymentem w rachunku rozumowania dedukcyjnego” i „badaniu praw myślenia, na których opierają się matematyczne teorie logiki i prawdopodobieństwa”, podwaliny matematycznej ułożono logikę. Głównym dziełem Buhla jest „Badanie praw myśli”. Boole podjął próbę skonstruowania logiki formalnej w postaci jakiegoś „rachunku”, „algebry”. Logiczne idee Boole'a były dalej rozwijane w kolejnych latach. Rachunek logiczny, skonstruowany zgodnie z ideami Boole'a, jest obecnie szeroko stosowany w zastosowaniach logiki matematycznej w technice, w szczególności w teorii obwodów przekaźnikowo-stykowych. We współczesnej algebrze istnieją pierścienie Boole'a, algebry Boole'a, systemy algebraiczne, w programowaniu zmienne i stałe typu Boole'a. Przestrzeń Boole'a jest znana, w matematycznych problemach układów sterowania rozproszenie Boole'a, rozkład Boole'a, regularny punkt Boole'a jądra. W jego pracach logika znalazła swój alfabet, pisownię i gramatykę.


Urodzony w Szwecji. W 1866 r. V.T. Odner ukończył sztokholmski Instytut Technologiczny. W 1869 przybył do Petersburga, gdzie pozostał do końca życia. W Petersburgu zwrócił się najpierw do swojego rodaka E.L. Nobla, który w 1862 r. założył rosyjską fabrykę Diesla po stronie Wyborga. W tym zakładzie w 1874 roku została wyprodukowana pierwsza próbka dodawarki Odnera. „V.T. Odner, jeszcze bardzo młody inżynier, miał okazję naprawić maszynę liczącą Thomasa i jednocześnie doszedł do wniosku, że istnieje możliwość prostszego i wygodniejszego rozwiązania problemu rachunku mechanicznego. Po wielu rozważaniach i wielu eksperymentach panu Odnerowi w końcu udało się w 1873 roku zorganizować w domu model maszyny liczącej jego projektu. Ten aparat zainteresował Ludwiga Nobla, doradcę handlowego, który dał panu Odnerowi możliwość rozwinięcia pomysłu w jego fabryce”. Tak więc, według Odnera, za datę wynalezienia maszyny sumującej można uznać rok 1873, kiedy powstał model eksperymentalny. Szczególną rolę w rozwoju komputerów odegrał wynalazek V. Odnera - sumatora z przekładnią o zmiennej liczbie zębów. Jego konstrukcja była tak doskonała, że ​​dodając maszyny tego typu, modyfikację Felix, produkowano od 1873 roku praktycznie bez zmian przez prawie sto lat. Takie maszyny liczące znacznie ułatwiały pracę człowieka, ale bez jego udziału maszyna nie mogła liczyć. W tym przypadku osobie przypisano rolę operatora.


Charles Babbage Na początku XIX wieku Charles Babbage sformułował główne postanowienia, które powinny leżeć u podstaw projektu całkowicie nowego typu komputera: komputera Maszyna musi mieć „magazyn” do przechowywania informacji cyfrowych. (W nowoczesnych komputerach jest to urządzenie pamięci masowej.) Maszyna musi mieć urządzenie, które wykonuje operacje na numerach pobranych z „magazynu”. Babbage nazwał takie urządzenie „młynem”. (W nowoczesnych komputerach jest to jednostka arytmetyczna.) Maszyna musi mieć urządzenie do kontrolowania sekwencji operacji, przenoszenia liczb z „magazynu” do „młyna” i odwrotnie, tj. urządzenie sterujące. Maszyna musi posiadać urządzenie do wprowadzania danych początkowych i wyświetlania wyników, tj. Urządzenie we/wy. Te początkowe zasady, określone ponad 150 lat temu, zostały w pełni zaimplementowane we współczesnych komputerach, ale w XIX wieku okazały się przedwczesne. Babbage podjął próbę stworzenia maszyny tego typu opartej na mechanicznej maszynie sumującej, ale jej konstrukcja okazała się bardzo kosztowna, a prace nad wykonaniem maszyny roboczej nie mogły zostać zakończone. Od 1834 do końca życia Babbage pracował nad projektem Silnika Analitycznego, nie próbując go zbudować. Dopiero w 1906 roku jego syn wykonał demonstracyjne modele niektórych części maszyny. Gdyby silnik analityczny był kompletny, Babbage szacuje, że dodawanie i odejmowanie zajęłoby 2 sekundy, a mnożenie i dzielenie zajęłoby 1


Niemiecki naukowiec, orientalista i matematyk, profesor Uniwersytetu w Tyubińsku, w listach do swojego przyjaciela Johannesa Keplera, opisał urządzenie „zegara liczącego” – maszynę liczącą z urządzeniem do ustawiania liczb i wałkami z silnikiem i oknem do odczytanie wyniku. Ta maszyna mogła tylko dodawać i odejmować (niektóre źródła podają, że ta maszyna mogła również mnożyć i dzielić, podczas gdy ułatwiała proces mnożenia i dzielenia dużych liczb). Ale niestety nie pozostał ani jeden z jego modeli roboczych, a niektórzy badacze oddają palmę pierwszeństwa francuskiemu matematykowi Blaise’owi Pascalowi


Norbert Wiener () Norbert Wiener ukończył swoją pierwszą fundamentalną pracę (wspomnianą wcześniej Cybernetykę) w wieku 54 lat. A przedtem życie wielkiego naukowca było jeszcze pełne osiągnięć, wątpliwości i niepokoju. W wieku osiemnastu lat Norbert Wiener był już doktorem logiki matematycznej na uniwersytetach Cornell i Harvard. W wieku dziewiętnastu lat dr Wiener został zaproszony na Wydział Matematyki w Massachusetts Institute of Technology, „gdzie służył do ostatnich dni swojego niejasnego życia”. W taki czy inny sposób można by dokończyć biograficzny artykuł o ojcu współczesnej cybernetyki. I wszystko powiedziane byłoby prawdą, ze względu na niezwykłą skromność Wienera człowieka, ale Wienera naukowca, jeśli zdołał ukryć się przed ludzkością, to schował się w cieniu własnej chwały.


Konrad Zuse Pracę rozpoczął w 1933 roku, a trzy lata później zbudował model komputera mechanicznego, który wykorzystywał system liczb dwójkowych, formę reprezentacji zmiennoprzecinkowej, trzyadresowy system programowania oraz karty perforowane. Podczas programowania nie przewidziano rozgałęzienia warunkowego. Następnie, jako bazę elementów, Zuse wybiera przekaźnik, który do tego czasu był używany w różnych dziedzinach techniki. system binarny W 1938 r. Zuse wykonał model maszyny Z1 na 16 maszynowych słów, rok później model Z2, a 2 lata później zbudował pierwszy na świecie komputer operacyjny ze sterowaniem programowym (model Z3), co zostało zademonstrowane na Niemieckie Centrum Badawcze Lotnictwa. Była to przekaźnikowa maszyna binarna z pamięcią 6422-bitowych liczb zmiennoprzecinkowych: sterowany programowo model Z3 7 bitów dla wykładnika i 15 dla mantysy. Blok arytmetyczny wykorzystywał arytmetykę równoległą. Zespół obejmował część operacyjną i adresową. Wprowadzanie danych odbywało się za pomocą klawiatury dziesiętnej. Zapewnione jest wyjście cyfrowe, a także automatyczna konwersja liczb dziesiętnych na binarne i odwrotnie. Czas dodawania dla modelu Z3 wynosi 0,3 sekundy. Wszystkie te modele samochodów zostały zniszczone podczas bombardowań w czasie II wojny światowej. Po wojnie Zuse produkował modele Z4 i Z5. Zuse w 1945 stworzył język PLANKALKUL ("rachunek planów"), który odnosi się do wczesnych form języków algorytmicznych. Język ten był bardziej zorientowany na maszyny, jednak w niektórych aspektach związanych ze strukturą obiektów przewyższał swoimi możliwościami ALGOL, który skupiał się tylko na pracy z liczbami.


Herman Hollerith Zajmując się przetwarzaniem danych statystycznych w latach 80. ubiegłego wieku stworzył system automatyzujący proces przetwarzania. Hollerith jako pierwszy zbudował (1889) ręczny dziurkacz, który był używany do drukowania danych cyfrowych na kartach dziurkowanych, i wprowadził mechaniczne sortowanie, aby układać te dziurkowane karty w zależności od lokalizacji dziurkaczy. Nośnik danych Holleritha - 80-kolumnowa karta dziurkowana nie przeszedł do tej pory znaczących zmian. Zbudował maszynę sumującą, zwaną tabulatorem, która badała dziury w kartach dziurkowanych, postrzegała je jako odpowiadające im liczby i liczyła.


Naukowe idee Ady Lovelace Babbage zafascynowały córkę słynnego angielskiego poety Lorda Byrona, hrabinę Adę Augusta Lovelace. W tamtym czasie nie powstały jeszcze takie koncepcje, jak komputery i programowanie, a mimo to Ada Lovelace jest słusznie uważana za pierwszego programistę na świecie. Faktem jest, że Babbage nie sporządził więcej niż jednego pełnego opisu maszyny, którą wynalazł. Zrobiła to jedna z jego uczennic w artykule po francusku BabbageBabbage Ada Lovelace przetłumaczyła go na angielski, a nie tylko przetłumaczyła, ale dodała własne programy, według których maszyna mogła wykonywać złożone obliczenia matematyczne. W rezultacie pierwotna długość artykułu potroiła się, a Babbage miał okazję zademonstrować moc swojej maszyny. Wiele koncepcji wprowadzonych przez Adę Lovelace w opisach tych pierwszych programów jest szeroko stosowanych przez współczesnych programistów. Babbage


Emile Leon Post (Emil Leon Post) był amerykańskim matematykiem i logikiem. Uzyskał szereg podstawowych wyników w logice matematycznej; jedna z najczęściej używanych definicji pojęć spójności i kompletności systemów formalnych (rachunki); dowody zupełności funkcjonalnej i zupełności dedukcyjnej (w szerokim i wąskim znaczeniu) rachunku zdań; badanie wielowartościowych systemów logicznych z więcej niż 3 wartościami prawdy. Jeden z pierwszych (niezależnie od A.M. Turinga) Postów zdefiniował pojęcie algorytmu w kategoriach „komputera abstrakcyjnego” i sformułował główną tezę teorii algorytmów. Jest także właścicielem pierwszych (wraz z A.A. Markowem) dowodów na algorytmiczną nierozwiązywalność szeregu problemów logiki matematycznej.


John von Neumann () W 1946 r. John von Neumann, genialny amerykański matematyk pochodzenia węgierskiego, sformułował podstawową koncepcję przechowywania instrukcji komputerowych we własnej pamięci wewnętrznej, co było ogromnym impulsem do rozwoju technologii obliczeń elektronicznych.


Claude Shannon () Amerykański inżynier i matematyk. Człowiek, którego nazywa się ojcem nowoczesnych teorii informacji i komunikacji. Będąc jeszcze młodym inżynierem, napisał w 1948 roku informacyjną Magna Carta, The Mathematical Theory of Communication. Jego dzieło zostało nazwane „największym dziełem w annałach myśli technicznej”. jednocześnie żonglując, na monocyklu przez korytarze Bell Labs. I powiedział kiedyś: „Zawsze podążałem za swoimi zainteresowaniami, nie zastanawiając się, ile mnie one będą kosztować, ani o ich wartości dla pokoju. Zmarnowałem dużo czasu na zupełnie bezużyteczne rzeczy.” W latach wojny zajmował się rozwojem systemów kryptograficznych, co później pomogło mu odkryć metody kodowania z korekcją błędów. W wolnym czasie zaczął rozwijać pomysły, które później przekształciły się w teorię informacji. Pierwotnym celem Shannona była poprawa transmisji informacji za pośrednictwem kanału telegraficznego lub telefonicznego, na który wpływa szum elektryczny. Szybko doszedł do wniosku, że najlepszym rozwiązaniem problemu jest efektywniejsze pakowanie informacji.


Edsger Vibe Dijkstra Edsger Vibe Dijkstra () wybitny holenderski naukowiec, którego pomysły miały ogromny wpływ na rozwój branży komputerowej. Dijkstra znany jest ze swojej pracy nad zastosowaniem logiki matematycznej w tworzeniu programów komputerowych. Był aktywnie zaangażowany w rozwój języka programowania Algol i napisał pierwszy kompilator Algol-60. Będąc jednym z autorów koncepcji programowania strukturalnego głosił odrzucenie stosowania instrukcji GOTO. Jest także właścicielem pomysłu wykorzystania „semaforów” do synchronizacji procesów w systemach wielozadaniowych oraz algorytmu znajdowania najkrótszej ścieżki na grafie skierowanym o nieujemnych wagach krawędzi, znanego jako Algorytm Dijkstry. Dijkstra zdobył nagrodę Turinga w 1972 roku. Dijkstra był aktywnym pisarzem, jego pióro (wolał pióro od klawiatury) jest autorem wielu książek i artykułów, z których najbardziej znane to książki „Programming Discipline” i „Notes on Structured Programming” oraz artykuł Dijkstry „ O niebezpieczeństwach operatora GOTO” Dijkstra zyskał również znaczną sławę poza środowiskiem akademickim, dzięki swoim ostrym i aforystycznym wypowiedziom na temat aktualnych problemów w branży komputerowej.




Tim Bernes-Lee urodził się 8 czerwca 1955 roku. Tim Bernes-Lee to człowiek, który odwrócił ideę World Wide Web, twórca World Wide Web i systemu hipertekstowego. W 1989 roku absolwent Uniwersytetu Oksfordzkiego, pracownik Europejskiego Centrum Badań Jądrowych w Genewie (CERN) Bernes-Lee opracował język znaczników hipertekstowych stron internetowych HTML, dający użytkownikom możliwość przeglądania dokumentów na zdalnych komputerach. W 1990 roku Tim wynalazł pierwszą prymitywną przeglądarkę, a jego komputer jest naturalnie uważany za pierwszy serwer WWW. Bernes-Lee nie opatentował swoich zmieniających życie odkryć, co na ogół nie jest rzadkością w chciwym świecie (przypomnijcie sobie na przykład Douglasa Engelbarta i jego legendarną mysz). W książce Tkanie sieci („Tkanie sieci”) przyznał, że w odpowiednim czasie po prostu nie zarabiał na własnych wynalazkach, uznając (co dziwne) ten pomysł za ryzykowny. „Miejsce na słońcu” natychmiast zajęli światowi giganci Microsoft i Netscape. W 1994 roku Burnes-Lee został szefem założonego przez siebie World Wide Web Consortium (W3C), które rozwija standardy internetowe. Dziś Bernes-Lee jest profesorem w Massachusetts Institute of Technology (MIT), pozostając obywatelem brytyjskim. Nie można powiedzieć, że jego nazwisko znane jest szerokiemu gronu użytkowników, jednak za rozwój technologii webowych Bernes-Lee wielokrotnie otrzymywał honorowe nagrody i wyróżnienia. W 2002 roku Burnes-Lee otrzymał Nagrodę Księcia Asturii za badania techniczne i został uznany przez magazyn Time za jednego z dwudziestu wielkich myślicieli XX wieku. W sylwestra 2004 roku Tim Bernes-Lee został uhonorowany tytułem rycerza Imperium Brytyjskiego (tytuł nadany osobiście przez królową Elżbietę II), a 15 kwietnia br. podczas ceremonii w Espoo (Finlandia) fiński Fundacja Technology Award przyznała „ojcu założycielowi WWW” 1 milion euro największą nagrodę za wielkie odkrycie


Gordon Moore Gordon Moore urodził się w San Francisco (USA) 3 stycznia 1929 roku. Wraz z Robertem Noyce'em Moore założył firmę Intel w 1968 roku i przez następne siedem lat pełnił funkcję wiceprezesa wykonawczego korporacji. Gordon Moore uzyskał tytuł licencjata chemii na Uniwersytecie Kalifornijskim w Berkeley oraz stopień naukowy z chemii i fizyki na California Institute of Technology. G. Moore jest dyrektorem Gilead Sciences Inc., członkiem National Academy of Engineering oraz członkiem IEEE. Moore jest również członkiem Rady Powierniczej Caltech. W 1975 roku został prezesem i dyrektorem generalnym Intela i pełnił oba te stanowiska do 1979 roku, kiedy to zmienił się z prezesa na prezesa zarządu. Dr Moore pełnił funkcję dyrektora generalnego Intel Corporation do 1987 r., a jako prezesa rady dyrektorów do 1997 r., kiedy to otrzymał tytuł honorowego przewodniczącego rady dyrektorów. Dziś Gordon Moore pozostaje honorowym przewodniczącym rady dyrektorów Intel Corporation i mieszka na Hawajach


Dennis Ritchie Dennis Ritchie urodził się 9 września 1941 roku w Stanach Zjednoczonych. Podczas studiów na Uniwersytecie Harvarda Ritchie szczególnie interesował się fizyką i matematyką stosowaną. W 1968 obronił pracę doktorską na temat "Hierarchie funkcji subrekurencyjnych". Nie aspirował jednak do bycia ekspertem w teorii algorytmów, znacznie bardziej interesowały go proceduralne języki programowania. W Bell Labs w 1967 r. D. Ritchie przyszedł po swoim ojcu, który przez bardzo długi czas związał swoją karierę z tą firmą. Ritchie był pierwszym użytkownikiem systemu Unix na PDP-11. W 1970 roku pomógł Kenowi Thompsonowi przenieść go do nowej maszyny PDP-11. W tym okresie Ritchie zaprojektował i napisał kompilator dla języka programowania C. Język C jest podstawą przenośności systemu operacyjnego UNIX. Najważniejszym rozwiązaniem technicznym, które Denn Ritchie dodał do systemu operacyjnego UNIX, było opracowanie mechanizmu przepływu komunikacji oraz wzajemnego łączenia urządzeń, protokołów i aplikacji.


Być może można powiedzieć, że Bill Gates i Paul Allen mieli dar przewidywania, kiedy tworzyli swoją firmę w 1975 roku. Jednak nie mogli nawet marzyć o wynikach swojego kroku, ponieważ od tego czasu nikt nie mógł przewidzieć świetlanej przyszłości komputerów osobistych w ogóle. W rzeczywistości Gates i Allen robili po prostu swoją ulubioną rzecz. Czy to nie niesamowite: w wieku 21 lat Bill Gates ukończył Harvard i uruchomił Microsoft. A w wieku 41 lat pokonał wielu konkurentów i zgromadził fortunę 23,9 miliarda dolarów. W 1996 roku, kiedy akcje Microsoftu wzrosły o 88%, zarabiał 30 milionów dolarów dziennie! Dzisiaj Microsoft to nie tylko wiodąca firma na światowym rynku komputerowym. Jej dzisiejsza działalność ma wpływ na cały rozwój cywilizacji ludzkiej, a historia jej rozwoju to najbardziej imponujący wzrost gospodarczy XX wieku.




Andrei Andreevich Markov Andrei Andreevich Markov (młodszy) () matematyk, członek korespondent. Akademia Nauk ZSRR, syn wybitnego matematyka, specjalisty w zakresie rachunku prawdopodobieństwa, także Andrieja Andriejewicza Markowa (senior). Główne prace z zakresu topologii, algebry topologicznej, teorii układów dynamicznych, teorii algorytmów i matematyki konstruktywnej. Udowodnił nierozwiązywalność problemu homeomorfizmu w topologii, stworzył szkołę konstruktywnej matematyki i logiki w ZSRR, autor koncepcji algorytmu normalnego. Od 1959 do końca życia Andriej Andriejewicz kierował Wydziałem Logiki Matematycznej Mechmata Moskiewskiego Uniwersytetu Państwowego. Pracował w wielu dziedzinach (teoria plastyczności, geofizyka stosowana, mechanika nieba, topologia itp.), ale największy wkład wniósł w logikę matematyczną (w szczególności ustanowił kierunek konstruktywny w matematyce), teorię złożoności algorytmów i cybernetyka. Stworzył dużą szkołę matematyczną, jego uczniowie pracują obecnie w wielu krajach. Pisał wiersze, które nie zostały opublikowane za jego życia


Andriej Nikołajewicz Kołmogorow Rozpiętość naukowych zainteresowań i dążeń Kołmogorowa ma niewiele, jeśli w ogóle, precedensów w XX wieku. Ich spektrum rozciąga się od meteorologii po poezję. W znanej antologii Van Heijenoorta „From Frege to Godel”, poświęconej logice matematycznej, znaleźć można angielskie tłumaczenie dwudziestodwuletniego artykułu Kołmogorowa, który autor antologii określił jako „pierwsze systematyczne studium”. logiki intuicjonistycznej”. Artykuł był pierwszym rosyjskim artykułem o logice zawierającym rzeczywiste wyniki matematyczne. Kołmogorowa położył podwaliny pod teorię operacji na zbiorach. Odegrał znaczącą rolę w przekształceniu teorii informacji Shannona w rygorystyczną naukę matematyczną, a także w konstrukcji teorii informacji na fundamentalnie innym, odmiennym od Shannona fundamencie. Jest jednym z twórców teorii układów dynamicznych, posiada definicję ogólnego pojęcia algorytmu. W logice matematycznej wniósł wybitny wkład w teorię dowodów, w teorię układów dynamicznych w rozwój tzw. teorii ergodycznej, gdzie dość nieoczekiwanie udało mu się wprowadzić i skutecznie zastosować idee teorii informacji.


Anatolij Aleksiejewicz Dorodnitsyn Anatolij Aleksiejewicz Dorodnitsyn () jest powszechnie znany ze swoich wybitnych prac naukowych z zakresu matematyki, aerodynamiki i meteorologii, decydującej roli w tworzeniu obliczeniowej dynamiki płynów. Wiele w nim determinowały naturalne talenty i wybitna ciężka praca, osobiste skłonności, oddanie nauce i zamiłowanie do obliczeń, które wykonywał samodzielnie do końca życia. Jeśli to wszystko pozwala odgadnąć genezę ukształtowania się osobowości naukowca, to zagadką pozostają podstawy szerokiego zakresu jego badań naukowych. A. A. Dorodnitsyn opublikował prace dotyczące równań różniczkowych zwyczajnych, algebry, meteorologii, teorii skrzydeł (równania eliptyczne), warstwy granicznej (równania paraboliczne), dynamiki gazów naddźwiękowych (równania hiperboliczne), numerycznej metody relacji całkowych (w przypadku równań wszystkich tych typów), metoda małych parametrów dla równań Naviera-Stokesa, a także w różnych zagadnieniach informatyki


Aleksiej Andriejewicz Lapunow ()


Aleksiej Andriejewicz Lapunow () Jego zainteresowania naukowe, a także zakres jego wiedzy i kompetencji były niezwykle szerokie. Karierę naukową rozpoczął w renomowanej szkole naukowej Akademika N.N. Luzin. Dziś aleja prowadząca do grobu Lapunowa na cmentarzu Vvedensky przechodzi obok miejsca, w którym pochowane są prochy jego nauczyciela. Dopiero lata Wielkiej Wojny Ojczyźnianej na jakiś czas przerwały badania naukowe Lapunowa. Zgłosił się na front na ochotnika, a zaraz po wojnie pojawiły się jego prace z teorii strzelania, będące zresztą efektem wojennych przemyśleń. Lapunow interesował się teorią mnogości przez całe życie i wielokrotnie powracał do studiów w „okresie cybernetycznym”. Ponadto w problemach cybernetycznych często dostrzegał okoliczności o charakterze mnogościowym i zwracał na nie uwagę swoich uczniów i współpracowników. Fascynacja Lapunowa abstrakcyjnymi problemami teorii mnogości w zaskakujący sposób połączyła się z żywym zainteresowaniem naukami przyrodniczymi i matematycznymi w ogóle. Dlatego nie jest przypadkiem, że jako jeden z pierwszych w ZSRR docenił perspektywy cybernetyki i był jednym z inicjatorów krajowych badań cybernetycznych. Lapunow zorganizował na Moskiewskim Uniwersytecie Państwowym pierwsze w naszym kraju seminarium badawcze na temat cybernetyki, które prowadził przez dziesięć lat. Już w latach pięćdziesiątych jego praca nad teorią programowania zyskała wielką sławę. W 1953 zaproponował metodę wstępnego opisu programów za pomocą schematów operatorowych, które skupiają się na jasnej identyfikacji głównych typów operatorów i konstrukcji swego rodzaju algebry przekształceń programowych. Metoda ta, ze względu na notację algebraiczną, okazała się znacznie wygodniejsza niż dotychczas stosowana metoda schematów blokowych. Stał się głównym narzędziem automatyzacji programowania i był podstawą rozwoju idei sowieckiej szkoły programowania. Udział Lapunowa w rozwoju prac nad automatycznym tłumaczeniem tekstów z jednego języka na drugi był bardzo znaczący. Próby stworzenia algorytmów translacyjnych wykazały, że istniejące gramatyki nie zawsze nadają się do tych celów, programy tłumaczeniowe mają specyficzną strukturę i różnią się strukturą od programów do zadań obliczeniowych. Lapunow sformułował ogólne idee związane z próbą przezwyciężenia tych trudności. Duża grupa jego uczniów pracowała nad problemami we współpracy z lingwistami. Efektem tych prac były teoretyczne wyniki z lingwistyki matematycznej oraz praktyczne opracowanie niektórych algorytmów tłumaczeniowych z języka francuskiego i angielskiego na rosyjski. Dużą rolę w jego twórczości zajmują kwestie kontroli procesów zachodzących w organizmach żywych. Zastosowanie matematycznych metod modelowania w biologii oraz wprowadzenie precyzyjnych definicji i opartego na dowodach rozumowania o charakterze matematycznym do teorii i praktyki biologicznej stało się ulubionym pomysłem Lapunowa, faktycznego twórcy „biologii matematycznej” w nauce. Zasłużonym uznaniem osiągnięć A.A. Lapunowa był wybór na członka-korespondenta Akademii Nauk ZSRR w 1964 roku.


Leonid Witalijewicz Kantorowicz ()


Leonid Vitalievich Kantorovich Leonid Vitalievich Kantorovich () wybitny sowiecki matematyk i ekonomista, akademik, laureat Nagrody Nobla w dziedzinie ekonomii. Wniósł bardzo znaczący wkład do światowej nauki, uzyskując szereg fundamentalnych wyników, do których należą: stworzenie teorii przestrzeni półuporządkowanych w analizie funkcjonalnej, zwanych przestrzeniami K na cześć LW Kantorowicza, stworzenie nowego kierunek matematyka i ekonomia rozwiązywania problemów optymalizacyjnych, zwanego programowaniem liniowym; metody „wielkoblokowego” programowania zadań na komputerze. Działalność naukowa L. V. Kantorovicha jest wyraźnym dowodem na to, jak krajowe szkoły matematyczne wpłynęły na rozwój technologii komputerowej i jej dziedzin. Zainteresowanie matematycznymi problemami ekonomiki przemysłu, rolnictwa i transportu wzrosło od LV Kantorovicha w 1938 roku. Matematyczne uogólnienie klasy problemów, które nie znalazły właściwych rozwiązań w arsenale metod matematyki klasycznej, skłoniły LV Kantorovicha do stworzenia nowego kierunek w matematyce i ekonomii. Ten kierunek nazwano później programowaniem liniowym. Obecnie programowanie liniowe jest badane na wszystkich wydziałach ekonomicznych i matematycznych, o czym mówią podręczniki szkolne. Metody te wchodzą w skład stosowanego oprogramowania komputerowego, który jest stale udoskonalany. Bez ich zastosowania analiza ekonomiczna jest obecnie nie do pomyślenia. LV Kantorovich stworzył w Leningradzie szkołę programowania „wielkich bloków”, która szukała sposobów na pokonanie znanej luki semantycznej między językiem wejściowym maszyny, w której prezentowane są programy wykonywalne, a językiem matematycznym opisu algorytm rozwiązywania problemu. Pomysły zaproponowane przez szkołę L. V. Kantorovicha pod wieloma względami przewidywały rozwój programowania na kolejne 30 lat. Otóż ​​kierunek ten kojarzy się z programowaniem funkcjonalnym (programowanie w oparciu o funkcje), w którym wykonanie programu w języku funkcjonalnym, mówiąc nieformalnie, polega na wywołaniu funkcji, której argumentami są wartości innych funkcji, a te ostatnie, z kolei mogą być również superpozycjami w ogólnym przypadku dowolna głębokość. Wiele rozwiązań znalezionych wówczas w symbolice obwodów o dużych blokach ma dziś znaczenie. Schematy Kantorowicza, podejście modelowe (poziomowe), metody translacji, które elastycznie łączą kompilację i interpretację, znajdują odzwierciedlenie we współczesnych systemach programowania. Można powiedzieć, że L. V. Kantorovich u zarania teorii programowania, kiedy programy powstawały w kodach maszynowych, potrafił poprawnie wskazać podstawowe drogi ich rozwoju na ponad 30 lat naprzód. W 1975 roku L. V. Kantorovich wraz z amerykańskim matematykiem T. Koopmansem otrzymał Nagrodę Nobla w dziedzinie ekonomii. Wiele zagranicznych akademii i towarzystw naukowych wybrało L. V. Kantorovicha na swojego honorowego członka. Był doktorem honoris causa uniwersytetów w Glasgow, Warszawie, Grenoble, Nicei, Monachium, Helsinkach, Paryżu (Sorbonie), Cambridge, Pensylwanii, Instytucie Statystycznym w Kalkucie.


SA Lebiediew Na początku lat 50. w Kijowie w Pracowni Modelowania i Inżynierii Komputerowej Instytutu Elektrotechniki Akademii Nauk Ukraińskiej SRR pod kierunkiem akademika SA Lebiediew powstał pierwszy sowiecki komputer MESM . Funkcjonalno-strukturalną organizację MESM zaproponował Lebiediew w 1947 roku. Pierwsza próbna eksploatacja modelu maszyny miała miejsce w listopadzie 1950 roku, a maszyna została oddana do eksploatacji w 1951 roku. MESM pracował w systemie binarnym, z trzyadresowym systemem poleceń, a program obliczeniowy był przechowywany w pamięci operacyjnej. Maszyna Lebedev z równoległym przetwarzaniem słów była całkowicie nowym rozwiązaniem. Był to jeden z pierwszych komputerów na świecie i pierwszy na kontynencie europejskim z zapisanym programem. Do tego czasu utworzyła się dość silna grupa młodych i bystrych naukowców zajmujących się tą nauką. Zamiast rang i stanowisk dzielili ryzyko i koszty, ale prowadzili swoje sprawy z niesłychaną ascezą. W 1958 roku ukazała się książka Poletajewa „Sygnał”, którą można uznać za wprowadzenie do podstawowych pojęć cybernetyki. Książka dała skoncentrowaną rewizję głównych postanowień i zastosowań tej wówczas młodej nauki. Jednocześnie autor książki musiał rozwiązać problemy związane z bezpośrednim wykorzystaniem cybernetyki w sprawach wojskowych. Jednym z pierwszych wojskowych zadań cybernetycznych było wykorzystanie komputerów, które pojawiły się wówczas w systemie obrony powietrznej: programowanie liniowe do obsługi masy „klientów” w przestrzeni powietrznej. Jednak później, po otrzymaniu nakazu napisania książki „Cybernetyka wojskowa”, Poletajew odmawia, motywując go w następujący sposób: „To, co można napisać, nie jest interesujące, ale to, co jest potrzebne, jest niemożliwe”. W tym czasie zaczynał już odchodzić od problemów czysto technicznych i aplikacyjnych, jego zainteresowania przeniosły się na obszar badań nad systemami wielkoskalowymi, systemami ekonomicznymi, systemami sterowania i zarządzania. Zainteresowanie modelowaniem złożonych systemów zachował do ostatnich lat swojej działalności naukowej. Intrygujące wyniki uzyskano na komputerach dość elementarnych io małej mocy z dzisiejszego punktu widzenia. Model ekonomiczny obejmował nie tylko zasoby i czynności do ich przetwarzania, ale także cenę uzyskiwanych produktów, nie przewidując ograniczeń i regulacji tego parametru. Będąc „uruchomionym” w komputerze model po kilku cyklach działalności produkcyjnej… przestawił się na samą odsprzedaż produktów w sobie. Entuzjazm autorów eksperymentu był ogromny, ale odpowiednie doświadczenie dla budowania następnych pokoleń pozostało nieodebrane. Największą inicjatywą, w której Poletajew aktywnie uczestniczył przez lata, jest próba stworzenia komputerów głównych podwójnego zastosowania: do zarządzania gospodarką w czasie pokoju i zarządzania armią w przypadku wojny. Autorzy projektu mieli nadzieję, że w wyniku jego realizacji gospodarka stanie się prawdziwie planowana i racjonalnie zarządzana, a technologia komputerowa w kraju otrzyma odpowiedni impuls do rozwoju, a wojsko w końcu spełni wymagania i zadania za chwilę. Projekt potknął się o Główny Zarząd Polityczny Armii. Generał, który badał dokument, zadał całkiem rozsądne z jego punktu widzenia pytanie: „A gdzie jest wiodąca rola partii tutaj, w twoim samochodzie?” Ta ostatnia prawdopodobnie nie została zalgorytmizowana w projekcie. A projekt został anulowany. W 1961 Poletajew otrzymał ofertę pracy w Nowosybirskim Instytucie Matematyki Syberyjskiego Oddziału Akademii Nauk. Po przeprowadzce do Nowosybirska zaczął z wielkim entuzjazmem pracować nad różnymi problemami z zakresu cybernetyki. Były to problemy rozpoznania i wnikliwej analizy przedmiotu cybernetyki i jej podstawowych pojęć (informacja, model itp.) oraz modelowania systemów ekonomicznych i procesów fizjologicznych. Wiele pomysłów wyrażonych przez Poletajewa w jego książkach, wykładach, debatach naukowych pozostaje aktualnych.Academik Andriej Pietrowicz Erszow () jest jednym z twórców programowania teoretycznego i systemowego, twórcą Syberyjskiej Szkoły Informatyki. Jego znaczący wkład w kształtowanie informatyki jako nowej gałęzi nauki i nowego zjawiska w życiu publicznym jest powszechnie doceniany w naszym kraju i za granicą. Jeszcze jako student Moskiewskiego Uniwersytetu Państwowego, pod wpływem A. A. Lapunowa, zainteresował się programowaniem. Po ukończeniu uniwersytetu A.P. Ershov poszedł do pracy w Instytucie Mechaniki Precyzyjnej i Inżynierii Komputerowej - organizacji, w której powstał jeden z pierwszych sowieckich zespołów programistów. W 1957 został kierownikiem Katedry Automatyki Programowania w nowo utworzonym Centrum Obliczeniowym Akademii Nauk ZSRR. W związku z utworzeniem Oddziału Syberyjskiego Akademii Nauk ZSRR, na wniosek Dyrektora Instytutu Matematyki Oddziału Syberyjskiego Akademii Nauk ZSRR, akademika SL Sobolewa, przejmuje on odpowiedzialność organizatora i faktycznym kierownikiem działu programowania tego instytutu, a następnie przenosi się do Centrum Obliczeniowego Syberyjskiego Oddziału Rosyjskiej Akademii Nauk. Podstawowe badania A.P. Erszowa w dziedzinie schematów programów i teorii kompilacji wywarły zauważalny wpływ na wielu jego uczniów i naśladowców. Książka A. P. Ershova „Programowanie programu dla komputera elektronicznego BESM” była jedną z pierwszych na świecie monografii dotyczących automatyzacji programowania. Za znaczący wkład w teorię przetwarzania mieszanego A.P. Ershov otrzymał Nagrodę Akademicka A.N. Kryłowa. Praca Erszowa nad technologią programowania położyła podwaliny pod ten kierunek naukowy w naszym kraju. Ponad 20 lat temu rozpoczął eksperymenty w nauczaniu programowania w szkołach średnich, co doprowadziło do wprowadzenia kierunku informatyki i technologii komputerowych w krajowych szkołach średnich oraz wzbogaciło nas o tezę „programowanie to druga umiejętność czytania”. Trudno przecenić rolę AP Erszowa jako organizatora nauki: brał czynny udział w przygotowaniu wielu międzynarodowych konferencji i kongresów, był redaktorem lub członkiem redakcji obu rosyjskich czasopism „Urządzenia i systemy mikroprocesorowe ", "Cybernetyka", "Programowanie" oraz międzynarodowe - Acta Informatica, Przetwarzanie Informacji Literowej, Informatyka Teoretyczna. Po śmierci akademika A.P. Erszowa jego spadkobiercy przenieśli bibliotekę do Instytutu Systemów Informatycznych, który do tego czasu odłączył się od Centrum Obliczeniowego. Teraz jest to Biblioteka Pamięci. A.P. Ershov Memorial Library wiersze R. Kiplinga i innych angielskich poetów na rosyjski, doskonale zagrane n


Za rozwój teorii automatów cyfrowych, stworzenie wieloprocesorowych superkomputerów makropotoków i organizację Instytutu Cybernetyki Akademii Nauk Ukrainy, międzynarodowa organizacja IEEE Computer Society w 1998 roku pośmiertnie przyznała Wiktorowi Michajłowiczowi Głuszkowowi tytuł Komputera Medal pioniera. Wiktor Michajłowicz Głuszkow urodził się 24 sierpnia 1923 r. w Rostowie nad Donem w rodzinie inżyniera górnictwa. V. M. Glushkov ukończył szkołę średnią 1 w mieście Szachty ze złotym medalem. W 1943 został studentem Nowoczerkaskiego Instytutu Przemysłowego, na czwartym roku postanowił przenieść się na wydział matematyczny Uniwersytetu w Rostowie. W tym celu zewnętrznie zdał wszystkie egzaminy na cztery lata studiów uniwersyteckich z matematyki i fizyki i został studentem piątego roku na Uniwersytecie w Rostowie. W sierpniu 1956 r. WM Głuszkow radykalnie zmienił zakres swojej działalności, łącząc ją z cybernetyką, technologią komputerową i matematyką stosowaną. W 1957 r. WM Głuszkow został dyrektorem Centrum Obliczeniowego Akademii Nauk Ukraińskiej SRR z uprawnieniami organizacji badawczej. Pięć lat później, w grudniu 1962 r., na bazie Centrum Obliczeniowego Akademii Nauk Ukraińskiej SRR zorganizowano Instytut Cybernetyki Akademii Nauk Ukraińskiej SRR. Jej dyrektorem został V.M. Glushkov. W 1964 roku za serię prac dotyczących teorii automatów V.M. Glushkov otrzymał Nagrodę Lenina. Opracowanie komputera makroprzenośnika przeprowadzono w Instytucie Cybernetyki pod kierunkiem V. M. Glushkova. Maszyna EC-2701 (rok 1984) oraz system komputerowy EC-1766 (rok 1987) zostały wprowadzone do produkcji seryjnej. W tym czasie były to najpotężniejsze systemy obliczeniowe w ZSRR. Nie miały odpowiednika w światowej praktyce i były pierwotnym rozwojem komputerów ES w kierunku systemów o wysokiej wydajności. WM Głuszkow nie musiał ich widzieć w akcji.


1. LITERATURA UŻYWANA: 2.