Technologia

43 Liderzy biznesu, którzy wprowadzili technologię do współczesności

Jaki Film Można Zobaczyć?
 
Źródło: Thinkstock

Źródło: Thinkstock

Istnieje duże prawdopodobieństwo, że codziennie korzystasz ze smartfona i komputera, ale nie myśl o tym, jak te niezwykłe maszyny trafiły do ​​Ciebie. Nie mówimy o łańcuchu dostaw Apple ani o procesie projektowania najnowszej wersji Androida. To o wiele więcej niż to, w jaki sposób poruszający się i wstrząsający z Doliny Krzemowej określają, jak będzie wyglądał następny iPhone lub o ile szybszy będzie następny laptop. Pytanie brzmi, w jaki sposób szybkie tempo zmian i innowacji przyspieszyło do obecnego zawrotnego tempa, na które teraz patrzymy z mniejszym podziwem i podziwem niż z próżną ciekawością i ciągłym pytaniem na ustach: co dalej?

Większość z nas niewiele wie o historii informatyki, której kroniki katalogują lata wielkich umysłów, którzy wymyślili przejście od obliczeń do obliczeń, ustalili logiczne elementy składowe obliczeń, zidentyfikowali szybkość i pamięć jako klucz do komputerów , zbudował sprzęt, aby komputery stały się możliwe, zaprogramował komputery, pisał języki programowania, budował systemy operacyjne, był pionierem Internetu i tworzył innowacje za innowacją za innowacją, każdy wynalazca stał na barkach tych, którzy byli wcześniej.

Czytaj dalej, aby dowiedzieć się o wielkich innowatorach, którzy wprowadzili technologię do współczesnej ery informatyki. Są to wybitne postacie, które umożliwiły naszą erę internetu, smartfonów, laptopów i aplikacji mobilnych, kładąc fundamenty cegiełka po cegiełce z umiejętnościami, determinacją i optymizmem co do tego, co przyniesie przyszłość.

Charles Babbage

Źródło: Archiwum Hulton / Getty Images

1. Charles Babbage (1791-1871)

Według ' Współczesna historia informatyki ”W Stanford's Encyclopedia of Philosophy, Charles Babbage był profesorem matematyki Lucasa na Uniwersytecie Cambridge, na stanowisku poprzednio zajmowanym przez Isaaca Newtona w latach 1828–1839. Zaproponował silnik różnicowy, czyli cyfrową maszynę obliczeniową do automatycznej produkcji matematycznych tabele, takie jak tabele logarytmów, tabele pływów i tabele astronomiczne. Składał się całkowicie z elementów mechanicznych, w tym mosiężnych kół zębatych, prętów, zapadki i zębników. Liczby w systemie dziesiętnym były reprezentowane przez pozycje metalowych kół z 10 zębami.

Po ukończeniu mechanizmu różnicowego w 1832 roku Babbage zaproponował również silnik analityczny, znacznie ambitniejszy niż silnik różnicowy, który byłby mechanicznym komputerem cyfrowym ogólnego przeznaczenia. Silnik analityczny miałby magazyn pamięci i jednostkę centralną i mógłby wybierać spośród alternatywnych działań wynikających z wyników poprzednich działań. Silnik analityczny byłby sterowany programem instrukcji zawartych na perforowanych kartach połączonych ze sobą wstążkami. Babbage ściśle współpracował z Adą Lovelace, która przewidziała możliwość wykorzystania silnika analitycznego do obliczeń nienumerycznych.

Augusta Ada, hrabina Lovelace

Źródło: Archiwum Hulton / Getty Images

Iman Shumpert i Teyana Taylor pobrali się

2. Ada Lovelace (1815–1852)

Augusta Ada Byron, jedyne prawowite dziecko Annabella Milbanke i poety George'a Gordona, czyli Lorda Byrona, otrzymała ścisły program nauczania przedmiotów ścisłych, logiki i matematyki, z naciskiem matki, która rozstała się z Byronem zaledwie miesiąc po Adzie. urodził się. Według Muzeum Historii Komputerów Lovelace poznała Babbage'a na przyjęciu w 1833 roku , kiedy miała 17 lat. Pokazał jej działającą część mechanizmu różnicowego.

W 1843 roku opublikowała tłumaczenie artykułu włoskiego inżyniera Luigiego Menabrei na temat silnika analitycznego, do którego dołączyła własne obszerne notatki. Jej notatki zawierały pierwszy opublikowany opis sekwencji operacji rozwiązywania problemów matematycznych. Lovelace jest często nazywana pierwszą programistką, a patrząc z nowoczesnej perspektywy, jej wypowiedzi są uważane za wizjonerskie. Spekulowała, że ​​Babbage’s Engine „może działać na inne rzeczy oprócz liczby… Engine może komponować wyszukane i naukowe utwory muzyczne o dowolnym stopniu złożoności lub stopniu”.

Jej ukończona wersja artykułu była ponad trzykrotnie dłuższa od oryginału i zawierała coś, co można by uznać za kilka wczesnych programów komputerowych. Chociaż Babbage i jego asystenci szkicowali już wcześniej programy dla teoretycznego silnika analitycznego, programy Lovelace są najbardziej rozbudowane i kompletne oraz pierwsze, które zostały opublikowane. Koncepcja maszyny, która mogłaby manipulować symbolami zgodnie z regułami, oraz idea, że ​​liczby mogą reprezentować byty inne niż ilości, oznaczały fundamentalne przejście od obliczeń do obliczeń. Lovelace była pierwszą, która wyraziła tę koncepcję, a niektórzy uważają, że widziała nawet więcej niż Babbage, jeśli chodzi o potencjał pomysłu. Jej notatki stały się jednym z najważniejszych dokumentów, które zainspirowały prace Alana Turinga nad pierwszymi nowoczesnymi komputerami w latach czterdziestych XX wieku.

George Boole

Źródło: Keystone / Hulton Archive / Getty Images

3. George Boole (1815–1864)

Jak donosi Stanford, George Boole był matematykiem, który zrewolucjonizowała logikę stosując metody wyłaniającego się pola algebry symbolicznej do logiki. Podczas gdy logika tradycyjna lub arystotelesowska opierała się na katalogowaniu prawidłowych sylogizmów różnych prostych form, metoda Boole'a tworzyła ogólne algorytmy w języku algebraicznym, które stosowały się do nieskończonej różnorodności argumentów. Stworzył system opisu relacji logicznych za pomocą symboli matematycznych, który obecnie nazywany jest logiką Boole'a i służy jako podstawa wszystkich współczesnych procesów komputerowych.

Algebra Boole'a stanowi podstawę do analizy słuszności zdań logicznych, ponieważ wychwytuje binarny charakter zdań, które mogą być prawdziwe lub fałszywe. W latach trzydziestych XX wieku naukowcy odkryli, że dwuwartościowa logika Boole'a nadaje się do opisu elektrycznych obwodów przełączających. Wykazali, że liczby binarne - zero i jeden - można wykorzystać do analizy obwodów, a tym samym do projektowania komputerów elektronicznych, a komputery i obwody są obecnie projektowane do implementacji arytmetyki binarnej.

Chrupanie liczb

Źródło: General Photographic Agency / Getty Images

4. Vannevar Bush (1890-1974)

Jak donosi Ibiblio, Vannevar Bush nigdy nie był bezpośrednio związany z rozwój internetu i zmarł przed utworzeniem sieci WWW. Ale często jest uważany za ojca chrzestnego epoki przewodowej dzięki jego propozycji maszyny zwanej „memex” i jego konceptualizacji idei, którą teraz znamy jako „hipertekst”. W swoim eseju z 1945 roku „As We May Think” Bush opisał teoretyczną maszynę zaprojektowaną w celu wzmocnienia ludzkiej pamięci poprzez umożliwienie użytkownikowi przechowywania i wyszukiwania dokumentów powiązanych przez skojarzenia. To łączenie asocjacyjne było bardzo podobne do tego, co jest obecnie znane jako hipertekst.

Memex miał służyć jako urządzenie do przechowywania i pobierania i wykorzystywał mikrofilmy. Maszyna byłaby wyposażona w biurko z ekranami do podglądu, klawiaturę, przyciski i dźwignie wyboru oraz schowek na mikrofilmy. Informacje przechowywane na mikrofilmie można było szybko odzyskać i wyświetlić na ekranie. Bush wyobraził sobie, że gdy umysł tworzy wspomnienia poprzez skojarzenia, memeks umożliwi użytkownikom tworzenie powiązań między dokumentami. Nazwał te linki szlakami asocjacyjnymi. Późniejsi innowatorzy, w tym Ted Nelson, który ukuł termin „hipertekst” w latach sześćdziesiątych XX wieku, przyznali się do swoich długów wobec Busha, którego uważa się za wczesnego wizjonera, i zmarli na wiele lat przed upowszechnieniem się Internetu.

Benedict Cumberbatch jako Alan Turing w grze naśladowania

Źródło: Theimitationgamemovie.com

5. Alan Turing (1912-1954)

W 1936 roku na Uniwersytecie Cambridge Turing wynalazł zasadę działania nowoczesnego komputera. Jak donosi Stanford, Turing opisał abstrakcyjną cyfrową maszynę obliczeniową, która składała się z nieograniczonej pamięci i skanera, który przemieszcza się w tę iz powrotem w pamięci, symbol po symbolu, odczytując to, co znajduje i zapisując kolejne symbole. Zachowanie skanera jest podyktowane programem instrukcji zapisanych w pamięci w postaci symboli. Maszyna obliczeniowa Turinga z 1936 roku jest obecnie znana jako uniwersalna maszyna Turinga.

Od początku drugiej wojny światowej Turing był wiodącym kryptoanalitykiem w Government Code and Cypher School w Bletchley Park, gdzie zapoznał się z pracami Thomasa Flowersa związanymi z szybkim przełączaniem elektronicznym na dużą skalę. W latach wojennych Turing poświęcił wiele uwagi zagadnieniu inteligencji maszynowej i możliwości uczenia maszyn komputerowych na podstawie doświadczeń i rozwiązywania problemów poprzez przeszukiwanie przestrzeni możliwych rozwiązań, kierując się praktycznymi zasadami.

W 1945 roku Turing dołączył do National Physical Laboratory, aby zaprojektować i opracować elektroniczny komputer cyfrowy z zapisanymi programami do pracy naukowej o nazwie Automatic Computing Engine w hołdzie Babbage’s Difference Engine and Analytical Engine. Turing widział, że szybkość i pamięć są kluczem do komputerów, a jego projekt wymagał szybkiej pamięci o mniej więcej takiej samej pojemności, jak wczesny komputer Macintosh, co według Stanforda było ogromne jak na ówczesne standardy.

Thomas Tommy Flowers

Źródło: Cryptomuseum.com

6. Thomas Flowers (1905-1998)

Z pewnymi wyjątkami wczesne cyfrowe maszyny komputerowe były elektromechaniczne i zbudowane z małych, napędzanych elektrycznie przełączników mechanicznych zwanych „przekaźnikami”. Działały powoli, podczas gdy podstawowe elementy komputera elektronicznego - pierwotnie lampy próżniowe - nie mają żadnych ruchomych części, co oszczędza elektrony i działa niezwykle szybko. Rozwój szybkich technik cyfrowych wykorzystujących lampy próżniowe umożliwił stworzenie nowoczesnego komputera, a najwcześniejsze szerokie wykorzystanie lamp próżniowych do cyfrowego przetwarzania danych zostało dokonane przez inżyniera Thomasa Flowersa. Jego wizją było to, że sprzęt elektroniczny zastąpi istniejące systemy zbudowane z przekaźników i zauważył, że w momencie wybuchu wojny z Niemcami w 1939 roku mógł być jedyną osobą w Wielkiej Brytanii, która zdała sobie sprawę, że lampy próżniowe mogą być używane na dużą skalę do wysokich celów. -szybkie obliczenia cyfrowe.

Pierwszym w pełni działającym cyfrowym komputerem elektronicznym był Colossus, używany przez kryptoanalityków z Bletchley Park od lutego 1944 roku. Od początku wojny Rządowy Kodeks i Szkoła Szyfrów z powodzeniem rozszyfrowali niemiecką komunikację radiową zakodowaną za pomocą systemu Enigma, a do 1942 roku około 39 000 przechwycone wiadomości były dekodowane co miesiąc. W drugiej połowie 1941 roku zaczęto przechwytywać wiadomości zaszyfrowane w inny sposób, a nowa maszyna szyfrująca została zerwana w kwietniu 1942 roku.

Potrzeba jak najszybszego rozszyfrowania ważnych danych wywiadowczych skłoniła Maxa Newmana do zaproponowania w listopadzie 1942 r., Aby zautomatyzować kluczowe części procesu deszyfrowania za pomocą szybkich elektronicznych urządzeń liczących. Pierwsza maszyna zbudowana według jego specyfikacji była oparta na przekaźnikach z obwodami elektronicznymi, ale była zawodna i powolna. Flowers zalecił zamiast tego zbudowanie całkowicie elektronicznej maszyny i skonstruował pierwszy na świecie wielkoskalowy programowalny elektroniczny komputer cyfrowy. Colossus I został dostarczony do Bletchley Park w styczniu 1943 roku. Chociaż brakowało mu dwóch ważnych cech współczesnych komputerów (nie posiadał programów przechowywanych wewnętrznie i nie był maszyną ogólnego przeznaczenia), osobom zaznajomionym z uniwersalną maszyną Turinga i związanym z nią przechowywanym programem koncepcji, sprzęt Flowersa był dowodem na wykonalność zastosowania dużej liczby lamp próżniowych do wdrożenia szybkiego komputera ogólnego przeznaczenia z zapisanym programem.

Tom Kilburn (po lewej) i F.C. Williams z Manchester Baby

Źródło: Cacm.acm.org

7. F.C. Williams (1911–1977) i 8. Tom Kilburn (1921–2001)

F. C. Williams i Tom Kilburn zbudowali najwcześniejszy, funkcjonalny, uniwersalny, elektroniczny komputer cyfrowy z zapisanymi programami w laboratorium Max Newman's Computing Machine Laboratory na Uniwersytecie w Manchesterze. Manchester „Baby”, jak się stało, wykonał swoje pierwsze obliczenia w czerwcu 1948 r. Program, przechowywany na powierzchni kineskopu, miał zaledwie 17 instrukcji i był znacznie powiększoną wersją maszyny, z system programowania zaprojektowany przez Turinga. Był to pierwszy na świecie dostępny na rynku komputer, Ferranti Mark I. Pierwszy ukończony komputer został zainstalowany na Uniwersytecie w Manchesterze w lutym 1951 r., A łącznie około 10 sprzedano w Wielkiej Brytanii, Kanadzie, Holandii i we Włoszech.

Podczas gdy maszyna Manchester jest często wspominana jako wyłączne dzieło Williamsa i Kilburna, fundamentalny wkład logiczno-matematyczny został wniesiony przez Turinga i Newmana. W 1935 roku Newman przedstawił Turingowi koncepcję, która doprowadziła bezpośrednio do maszyny Turinga. Wczesny wkład Turinga w rozwój wydarzeń w Manchesterze mógł pochodzić z wykładów na temat projektowania komputerowego wygłoszonych w Londynie w okresie od grudnia 1946 do lutego 1947. Stanford zauważa, że ​​zasługa komputera Manchesteru należy nie tylko do Williamsa i Kilburna, ale także do Newmana. Istotny był również wpływ artykułu Turinga z 1936 roku i Colossusa Flowersa.

ENIAC

Źródło: Keystone / Getty Images

9. J. Presper Eckert (1919-1995), 10. John Mauchly (1907-1980), 11. John von Neumann (1903-1957) i programiści ENIAC 12. Kay McNulty (1921-2006), 13. Betty Snyder (1917-2001), 14. Marlyn Wescoff (1992-2008), 15. Ruth Lichterman (1924-1986), 16. Betty Jean Jennings (1924-2011) i 17. Fran Bilas (1922-2012)

Pierwszym w pełni funkcjonalnym cyfrowym komputerem ogólnego przeznaczenia zbudowanym w Stanach Zjednoczonych był ENIAC, skonstruowany w Moore School of Electrical Engineering na University of Pennsylvania dla Army Ordnance Department przez J. Prespera Eckerta i Johna Mauchly'ego. Ukończony w 1945 roku ENIAC był pod pewnymi względami podobny do wcześniejszego Colossusa, chociaż był większy i bardziej elastyczny, ale daleki od maszyny ogólnego przeznaczenia. Został zaprojektowany przede wszystkim do obliczania tablic używanych w celowaniu artyleryjskim. Nie był to komputer z zapisanym programem, a skonfigurowanie go do nowego zadania wymagało ponownej konfiguracji maszyny za pomocą wtyczek i przełączników.

W 1944 roku John von Neumann dołączył do grupy ENIAC. W szkole Moore podkreślił wagę koncepcji zapisanego programu, w tym możliwości umożliwienia maszynie modyfikowania własnego programu w użyteczny sposób podczas pracy. Ponieważ von Neumann był prestiżową postacią, która szeroko rozpowszechniła koncepcję szybkiego komputera cyfrowego z zapisanymi programami, zwyczajem stało się - choć historycznie niedokładne - nazywanie komputerów cyfrowych z zapisanymi programami elektronicznymi „maszynami von Neumanna”.

Jak donosi Fortune, kiedy budowano ENIAC w Penn w 1945 roku, sądzono, że tak się stanie wykonać określony zestaw obliczeń raz po raz. Ale nadejście końca wojny oznaczało, że maszyna była potrzebna do wielu innych rodzajów obliczeń obejmujących fale dźwiękowe, wzorce pogodowe i siłę wybuchową bomb atomowych, co wymagało częstego przeprogramowywania.

W 1946 roku sześć kobiet zaprogramowało ENIAC, ucząc się programowania bez języków programowania lub narzędzi, ponieważ do tej pory żadna nie istniała. Do pomocy mieli tylko logiczne diagramy. Pokazali, że programowanie komputera stanie się tak samo ważne jak projekt i konstrukcja jego sprzętu. Poznali zarówno aplikację, jak i maszynę, potrafili diagnozować problemy, a także (jeśli nie lepiej niż) inżynierów, którzy pierwotnie uważali, że montaż sprzętu jest najważniejszą częścią projektu, a zatem pracą człowieka.

Grace Murray Hopper

Źródło: Agnesscott.edu

18. Grace Murray Hopper (1906-1992)

Jak donosi PBS, Hopper dołączył do WAVES, czyli Women Accepted for Volunteer Emergency Service, części US Naval Reserve, w 1943 roku, a rok później został porucznik Hopper. Została przydzielona do zespołu Bureau of Ships Computation na Harvardzie zaprojektowanie maszyny do wykonywania szybkich i trudnych obliczeń do zadań takich jak układanie pól minowych. Howard Aiken kierował pracą, która zasadniczo polegała na stworzeniu pierwszego programowalnego komputera cyfrowego, zwanego Mark I. Po usunięciu ćmy z maszyny podczas poszukiwania przyczyny awarii komputera, Hopper ukuł terminy „błąd” i „debugowanie” jako dotyczą błędów komputera i sposobów ich naprawiania.

W 1949 roku dołączyła do startupu założonego przez Eckerta i Mauchly'ego, cieszącego się sławą ENIAC. Stworzyli produkt o nazwie Univac, komputer, który zapisywał informacje na taśmie magnetycznej o dużej szybkości. Stanowiło znaczącą innowację w porównaniu ze standardowymi kartami dziurkowanymi tamtych czasów. Sperry Rand przejął firmę, a Hopper pozostał, dokonując ważnych postępów w zmniejszaniu liczby błędów, tworząc program, który tłumaczyłby kod programistów na język maszynowy.

Wraz z zespołem opracowała Flow-matic, pierwszy język programowania, w którym używane są angielskie słowa. Później został włączony do języka COBOL, biznesowego języka programowania, dzięki któremu komputery stały się narzędziem świata biznesu, a nie tylko świata nauki. Hopper podjął próbę ujednolicenia języka COBOL i przekonania całej marynarki wojennej do używania języka programowania. Była zwolenniczką standaryzacji i kompatybilności między komputerami i pod jej kierownictwem Marynarka Wojenna opracowała zestaw programów do walidacji kompilatorów COBOL. Koncepcja walidacji miała szeroki wpływ na inne języki i organizacje, a ostatecznie doprowadziła do powstania standardów i narzędzi do walidacji dla większości języków programowania.

Ralph H. Baer

Źródło: Ralphbaer.com

19. Ralph H. Baer (1922-2014)

Jak donosi The New York Times, Ralph Baer opatentował rozszerzenie pierwszy domowy system gier wideo , zapoczątkowując obszar, który jest nie tylko wszechobecną rozrywką i ogromnym przemysłem, ale działał jako katalizator, który popchnął naukowców i inżynierów do zwielokrotnienia szybkości komputera, pamięci i wizualizacji w takim stopniu, w jakim widzimy go dzisiaj. W 1966 roku wymyślił „pudełko z grami”, które umożliwiłoby użytkownikom granie w gry planszowe, gry akcji, gry sportowe i nie tylko na prawie każdym amerykańskim telewizorze. W 1971 roku Baer i jego pracodawca, Sanders Associates, złożyli wniosek o pierwszy patent na grę wideo, zgłaszając roszczenia prawne do każdego produktu zawierającego domowy telewizor z obwodami zdolnymi do wytwarzania i kontrolowania kropek na ekranie. Po przyznaniu patentu Sanders udzielił licencji na system firmie Magnavox, która w 1972 r. Rozpoczęła sprzedaż produktu jako Odyssey, pierwsza domowa konsola wideo.

40 tranzystorów i 40 diod sterowało całym systemem, w tym dwoma kontrolerami graczy i zestawem elektronicznych kart programowych, z których każda obsługiwała inną grę. W ciągu następnych 20 lat Magnavox pozwał dziesiątki firm, które naruszyły jej pierwotny patent. Wynalazek Baera zapoczątkował monumentalną zmianę w stosunkach człowieka z maszynami. Ciągła rewolucja w mikroprzetwarzaniu, po której pojawiły się dziedziny informatyki i inżynierii telewizyjnej, aby ją wspierać.

Wraz z Atari's Pong, który miał bardziej zaawansowaną elektronikę i dźwięk, Odyssey pchnął gry do szybszego, bardziej złożonego królestwa, a Baer zauważył, że gdyby nie gorliwa publiczność entuzjastów gier wideo, to wysokie prędkości procesora i złożony komputer grafiki można było znaleźć tylko w świecie biznesu i nauki.

Edgar F. Codd

Źródło: Nap.edu

20. Edgar F. Codd (1923-2003)

Ponieważ strona internetowa A.M. Relacje z nagrody Turinga, Edgar F. Codd stworzyli relacyjny model danych , wynalazek, który pobudził branżę baz danych wartą dziesiątki miliardów dolarów. W późnych latach pięćdziesiątych kierował zespołem w IBM, który opracował pierwszy na świecie system wieloprogramowy. „Wieloprogramowanie” odnosi się do możliwości jednoczesnego wykonywania programów, które zostały opracowane niezależnie od siebie. Podczas gdy jeden program czeka na wystąpienie zdarzenia, inny program może korzystać z jednostki centralnej komputera. Multiprogamming jest obecnie standardem w praktycznie wszystkich systemach komputerowych. Pracował nad wysokopoziomowymi technikami specyfikacji oprogramowania, a następnie zwrócił uwagę na problemy z bazami danych.

Chociaż w tamtym czasie istniało kilka produktów bazodanowych, były one trudne w użyciu i wymagały wysoce wyspecjalizowanych umiejętności technicznych. Brakowało im również solidnych podstaw teoretycznych, a Codd, który dostrzegł potrzebę takiego fundamentu, stworzył je, wymyślając relacyjny model danych, uznawany często za jedno z największych osiągnięć technicznych XX wieku.

Model relacyjny zapewnia metodę strukturyzowania danych przy użyciu relacji lub struktur matematycznych podobnych do siatki, które są zbudowane z kolumn i wierszy. Fizyczna manifestacja relacji w bazie danych jest popularnie nazywana tabelą, aw modelu relacyjnym wszystkie dane muszą być przechowywane w tabelach. Model relacyjny zapewnił ramy teoretyczne, w ramach których można było rozwiązać różnorodne problemy związane z bazami danych. Zasadniczo wszystkie używane obecnie bazy danych działają na fundamencie pomysłów Codda.

John Warner Backus

Źródło: Amturing.acm.org

21. John Warner Backus (1924-2007)

John Warner Backus kierował zespołem, który opracował Fortran, skrót od „Formula Translation”, pierwszy wpływowy język programowania wysokiego poziomu. Washington Post donosi, że przed Fortranem musiały być komputery skrupulatnie ręcznie kodowane , zaprogramowane w nieprzetworzonych ciągach cyfr, które wywoływałyby działania w maszynie. Fortran był językiem wysokiego poziomu, który wyabstrahował tę pracę, aby umożliwić programistom wprowadzanie poleceń za pośrednictwem bardziej intuicyjnego systemu. Komputer mógłby wtedy samodzielnie przetłumaczyć dane wejściowe programisty na kod maszynowy.

Fortran zmniejszył liczbę instrukcji programowych niezbędnych do obsługi maszyny o współczynnik 20 i zademonstrował sceptykom, że maszyny mogą działać wydajnie bez ręcznego kodowania. Później języki programowania i oprogramowanie rozprzestrzeniły się, a Fortran jest nadal w użyciu. Backus opracował również metodę opisywania składni języków programowania, znaną jako forma Backus-Naur.

Seymour Cray

Źródło: Cgl.ucsf.edu

22. Seymour Cray (1925-1996)

Seymour Cray jest nazywany „ojcem superkomputerów” i przez lata budował najszybsze superkomputery na świecie. W 1957 roku pomógł założyć firmę Control Data Corporation i tam zbudował najszybszy komputer naukowy, jaki kiedykolwiek powstał, w wyniku czego powstał CDC 1604, pierwszy w pełni tranzystorowy komputer komercyjny, który w pełni zastąpił lampy próżniowe używane we wcześniejszych komputerach. Wydanie CDC 6600, uważanego za pierwszy prawdziwy superkomputer na świecie, nastąpiło w 1963 roku. Był w stanie wykonać dziewięć Mflops, czyli milion operacji zmiennoprzecinkowych na sekundę, a CDC 7600, pracujący z prędkością 40 Mflops, został wydany jako następny.

Superkomputer wektorowy Cray-1, wprowadzony na rynek w 1976 roku, zastąpił tranzystory układami scalonymi i dostarczył 170 Mflops. W 1985 roku system Cray-2 ponownie przesunął superkomputery do przodu, przełamując barierę gigaflop (tysiąc Mflops). Wprowadzony w 1988 roku Cray Y-MP był pierwszym na świecie superkomputerem, który wytrzymywał ponad 1 gigaflop w wielu zastosowaniach, a wiele procesorów o mocy 333 megaflopów zasilało system z rekordową, stałą prędkością 2,3 gigaflopa.

W swoim „hołdzie” dla Craya Charles Breckenridge napisał, że Cray traktuje każdy system, nad którym pracował, jako odskocznię do następnego. Wiele z nich posłużyło za podwaliny pod systemy budowane przez innych według jego podstawowych projektów. Znaczna część konkurencji o jego maszyny pochodziła od firm, które odegrał rolę w osiągnięciu sukcesu. Swoją karierę poświęcił projektowaniu i opracowywaniu wielkoskalowych, wysokowydajnych systemów dla nauki i inżynierii.

Douglas Engelbart z SRI

Źródło: Sri.com

23. Doug C. Engelbart (1925-2013)

Jak donosi The New York Times, Douglas C. Engelbart spędził dwa lata w marynarce i przeczytał „As We May Think” Vannevara Busha, w którym Bush opisał uniwersalny system wyszukiwania zwany memeksem. Pomysł utknął w Engelbarcie, który przeszedł dalej utworzyć eksperymentalną grupę badawczą w Stanford Research Institute. Jednostka, Centrum Badań Rozszerzających lub ARC, miała wsparcie finansowe Sił Powietrznych, NASA i Agencji Zaawansowanych Projektów Badawczych, ramienia Departamentu Obrony.

W latach sześćdziesiątych Engelbart opracował różnorodne interaktywne technologie komputerowe, a na konferencji Fall Joint Computer Conference w San Francisco w 1968 r. Zademonstrował, jak sieciowy, interaktywny system komputerowy umożliwi współpracującym naukowcom szybką wymianę informacji. Pokazał, jak mysz - którą wynalazł zaledwie cztery lata wcześniej - może być używana do sterowania komputerem i zademonstrował edycję tekstu, wideokonferencje, hipertekst i okienkowanie. Pomysł na mysz przyszedł mu do głowy w 1961 roku, kiedy rozważał wyzwanie, jakim jest zwiększenie wydajności obliczeń interaktywnych.

Stworzony przez Engelbarta system, zwany systemem oNLine lub NLS, umożliwił badaczom tworzenie i wyszukiwanie dokumentów w formie ustrukturyzowanej biblioteki elektronicznej. Technologia została później udoskonalona w Centrum Badawczym Xerox w Palo Alto oraz w Stanford Artificial Intelligence Laboratory, a Apple i Microsoft przekształciłyby ją do użytku komercyjnego w latach 80.

Engelbart był przekonany, że komputery szybko staną się potężniejsze i będą miały wystarczającą moc obliczeniową, aby zaprojektować system Augment podobny do Memex, jaki sobie wymarzył. W 1969 roku jego system Augment NLS stał się aplikacją, dla której powstał prekursor dzisiejszego Internetu. System nazwano siecią komputerową ARPAnet, a SRI było domem dla jego centrum operacyjnego i jednym z jego dwóch pierwszych węzłów. Engelbart był jednym z pierwszych, którzy zdali sobie sprawę z potęgi komputerów i wpływu, jaki będą miały one na społeczeństwo.

John McCarthy

Źródło: Formal.stanford.edu

24. John McCarthy (1927-2011)

Jak donosi Stanford, John McCarthy był przełomową postacią w dziedzinie sztucznej inteligencji. Ukuł termin „sztuczna inteligencja” i spędził następne pięć dekad swojej kariery na definiowaniu tej dziedziny. W 1958 roku McCarthy wynalazł język programowania komputerowego LISP, drugi najstarszy język programowania po Fortranie. LISP jest nadal w użyciu i jest preferowanym językiem programowania sztucznej inteligencji. Pod koniec lat pięćdziesiątych i wczesnych sześćdziesiątych rozwinął również koncepcję współdzielenia czasu przez komputer. Innowacja znacznie poprawiła wydajność przetwarzania rozproszonego, choć wyprzedziła erę przetwarzania w chmurze o dziesięciolecia.

W artykule z 1960 roku McCarthy nakreślił zasady swojej filozofii programowania i opisał „system, który ma rozwinąć inteligencję ludzkiego porządku”. W 1966 roku zwrócił na siebie uwagę, prowadząc serię czterech jednoczesnych komputerowych meczów szachowych, prowadzonych telegraficznie z rywalami w Rosji. Mecze rozgrywane były po dwie figury na stronę i trwały kilka miesięcy. McCarthy później nazywał szachy i inne gry planszowe Drosophila sztucznej inteligencji, odnosząc się do muszek owocówek, które okazały się ważne we wczesnych badaniach genetyki.

Później opracował pierwszy system komputerowy ręka-oko, w którym komputer mógł oglądać rzeczywiste bloki 3D za pomocą kamery wideo i sterować ramieniem robota, aby wykonywać ćwiczenia w układaniu i układaniu bloków. McCarthy był współzałożycielem projektu sztucznej inteligencji MIT i tego, co stało się laboratorium sztucznej inteligencji Stanforda.

Jean E. Sammet

Źródło: Alumnae.mtholyoke.edu

25. Jean E. Sammet (od 1928)

Jean E. Sammet nadzorował pierwszą naukową grupę programistyczną w Sperry Gyroscope Co. i dołączył do IBM w 1961 roku, aby organizować i zarządzać Boston Programming Center. Według IEEE Computer Society zainicjowała koncepcję i kierował rozwojem pierwszego FORMAC-a lub FORmula MAnipulation Compiler.

FORMAC był pierwszym szeroko stosowanym językiem ogólnym i systemem do symbolicznej manipulacji nieliczbowymi wyrażeniami algebraicznymi. Sammet położył podwaliny pod to, co stanie się ważnym obszarem badań i rozwoju informatyki: obszar tworzenia języków programowania.

Gordon Moore i Robert Noyce z firmy Intel

Źródło: Blogs.intel.com

26. Gordon E. Moore (1929-) i 27. Robert N. Noyce (1927-1990)

Gordon E. Moore i Robert N. Noyce współzałożyciel firmy Intel w 1968 roku z zamiarem opracowywania i wytwarzania zintegrowanych produktów na dużą skalę, począwszy od pamięci półprzewodnikowych, według IEEE Computer Society. Wkrótce potem Intel wyprodukował pierwszy na świecie mikroprocesor. W połowie lat siedemdziesiątych Moore zaobserwował, że liczba elementów elektrycznych przypadających na jeden układ scalony podwaja się corocznie. Następnie okres ten zmieniono na 24 miesiące. Jego obserwacja stała się znana jako „Prawo Moore'a” i od tego czasu umożliwiła środowiskom biznesowym i akademickim oszacowanie przyszłego postępu układów scalonych.

Noyce, wraz z Jackiem Kilby, jest uznawany za wynalazcę układu scalonego lub samego mikroczipa. W lipcu 1959 roku Noyce złożył w USA patent nr 2 981 877 „Urządzenie półprzewodnikowe i struktura wyprowadzeń”, rodzaj układu scalonego. Jego niezależny wysiłek został odnotowany zaledwie kilka miesięcy po kluczowych odkryciach wynalazcy Jacka Kilby'ego. Chociaż wynalazek Kilby'ego powstał sześć miesięcy wcześniej, żaden z nich nie odrzucił tytułu współtwórcy.

Philip Don Estridge

Źródło: Computinghistory.org

28. Philip Don Estridge (1937-1985)

Don Estridge kierował rozwojem pierwszego komputera osobistego IBM i jest znany jako ojciec IBM PC . Według The New York Times to pod kierownictwem Estridge'a mały zespół pracowników IBM rozpoczął pracę w 1980 roku nad pierwszym mikrokomputerem IBM. W tamtym czasie nikt w firmie nie miał pojęcia, jak projekt zrewolucjonizuje branżę komputerową, umieszczając miliony małych komputerów na biurkach i stołach kuchennych na całym świecie.

Inżynierowie pod kierownictwem Estridge'a wywodzili się ze świata dużych komputerów i jego największym zadaniem było przekonanie ich, jak ktoś niespecjalistyczny może szybko wykorzystać maszynę IBM. Dowiedzieli się, że to, jak ludzie reagują emocjonalnie na komputer, jest prawie ważniejsze niż to, co faktycznie z nim zrobili. W ciągu zaledwie czterech miesięcy Estridge i jego zespół opracowali prototyp małego komputera biurowego, który szybko został nazwany PC. PC pojawił się na półkach sklepowych w ciągu roku, a pod koniec 1983 roku PC wyprzedził Apple II jako najlepiej sprzedający się komputer osobisty.

Zespół złamał szereg tradycji w IBM, a Estridge otrzymał uprawnienia do podejmowania wszelkich decyzji niezbędnych do szybkiego wprowadzenia firmy do branży komputerów osobistych. Odrzucił komponenty zbudowane przez IBM i zamiast tego wybrał niedrogie, gotowe części od innych dostawców. Upublicznił specyfikacje projektowe komputera, umożliwiając tysiącom ludzi pisanie programów dla maszyny. Kilku z tych programistów stworzyło wielomilionowe biznesy, a dostępność szerokiej gamy programów dla platformy wpłynęła na sprzedaż IBM.

Vint Cerf i Bob Kahn

Źródło: Paw.princeton.edu

29. Bob Kahn (od 1938) i 30. Vint Cerf (od 1943)

Bob Kahn i Vint Cerf są uważani za ojców Internetu iw 1974 roku opublikowali artykuł badawczy, w którym zaproponowali protokół zwany „TCP”. Protokół ten stał się później IP, oficjalnym protokołem warstwy sieciowej w Internecie. Protokół TCP zawierał usługi zorientowane na połączenie i usługi datagramowe. Wkrótce stało się jasne, że projekt można podzielić na dwa oddzielne protokoły.

Trudno było wdrożyć zarządzanie sesjami w sposób niezależny od aplikacji. W praktyce aplikacja mogłaby działać wydajniej lub być łatwiejsza do wdrożenia, gdy sama zarządzałaby połączeniami sieciowymi. Protokół TCP stał się protokołem internetowym (IP), który obsługiwał datagramy i protokół kontroli transmisji (TCP / IP), który dodawał semantykę połączenia jako warstwę nad protokołem IP. Protokół TCP / IP opisuje podstawową architekturę Internetu i umożliwił późniejszy rozwój, taki jak WiFi, Ethernet, sieci LAN, sieć WWW, poczta e-mail, FTP, 3G / 4G, a także wszystkie wynalazki zbudowane na ich podstawie.

Cerf dołączył do MCI Communications, aby kierować rozwojem systemów poczty elektronicznej dla Internetu, a Kahn stworzył Corporation for National Research Initiatives, w której skupił się na zarządzaniu światowymi treściami i ich dystrybucji jako swego rodzaju niezastrzeżona firma Google. Cerf jest znany jako „ambasador Internetu”, zdecydowany zwolennik internetu, który pozostaje niezależny od kontroli państwa i główny zwolennik idei neutralności sieci. New York Times donosi, że Kahn starał się trzymać z daleka debata na temat neutralności sieci , ale przyczynił się do zbudowania wsparcia dla systemu znanego jako Digital Object Architecture, który został stworzony w celu śledzenia i uwierzytelniania wszystkich treści rozpowszechnianych przez Internet.

Ray Tomlinson

Źródło: Raytheon.com

31. Ray Tomlinson (od 1941)

Według The Verge w 1971 roku, Ray Tomlinson był niedawnym absolwentem MIT zatrudnionym do pomocy przy budowie wczesnych komponentów Sieć Agencji Zaawansowanych Projektów Badawczych (ARPANET), prekursor internetu. Na własną rękę zdecydował się zbudować komunikator sieciowy. Większość komputerów w tamtym czasie umożliwiała użytkownikom wysyłanie wiadomości między sobą, ale ponieważ tak niewiele komputerów było połączonych w sieć, nie było powodu, aby wysyłać wiadomości między komputerami. Rozwiązanie firmy Tomlinson wykorzystywało wszechobecny symbol „@” do wskazania poczty e-mail w sieci.

Tomlinson zauważył, że w tamtym czasie komputery były drogie i były współdzielone przez wielu użytkowników w tym samym czasie, a użytkownik szybko przenosił uwagę z jednego zadania na drugie. Pomysł wysyłania wiadomości do innych użytkowników istniał już od kilku lat, aw 1971 roku Tomlinson dostrzegł możliwość rozszerzenia go na użytkowników na innych komputerach, wykorzystując połączenie sieciowe do przesyłania informacji o skrzynce pocztowej z jednego komputera na drugi. Użył eksperymentalnego protokołu przesyłania plików i użył go do wysyłania plików skrzynek pocztowych między komputerami, aby stworzyć pierwszy sieciowy system poczty elektronicznej.

Uświadomienie sobie, że innowacja jest znacząca, pojawiło się dopiero po późniejszej refleksji nad 25-leciem ARPANETU. Pomysł miał organiczne pochodzenie i wielu programistów zaczęło nad nim pracować, gdy ludzie wpadli na pomysł zostawiania sobie wiadomości na komputerze.

Ken Thompson i Dennis Ritchie (stoją) w Bell Labs

Źródło: Computerhistory.org

32. Ken Thompson (1943-) i 33. Dennis Ritchie (1941-2011)

Computer History Museum donosi, że w 1969 roku Ken Thompson i Dennis Ritchie stworzył system operacyjny UNIX system w Bell Telephone Laboratories. UNIX był zmniejszoną wersją systemu operacyjnego MIT MULTICS, który miał działać na mniejszych minikomputerach, które stały się dostępne pod koniec lat sześćdziesiątych. Ritchie zbudował C, ponieważ on i Thompson potrzebowali lepszego sposobu na zbudowanie systemu UNIX. Jak zauważa Wired, oryginalne jądro UNIX zostało napisane w języku asemblera i zdecydowali, że tak potrzebowali języka na wyższym poziomie aby dać im większą kontrolę nad danymi systemu operacyjnego.

dlaczego Russell Wilson rozwiódł się z żoną?

Kiedy Ritchie napisał go ponownie w języku programowania C, UNIX stał się prawdziwie przenośnym systemem operacyjnym, który mógł działać na wielu różnych platformach sprzętowych. Sam język C był szeroko stosowany i jest obecnie w powszechnym użyciu. UNIX stał się kręgosłupem infrastruktury technicznej współczesnego świata, a UNIX lub jeden z jego wielu wariantów działa na urządzeniach od superkomputerów po smartfony. Prawie wszystko w sieci korzysta z C i UNIX. Nawet Windows został kiedyś napisany w C, a UNIX stanowi podstawę systemów Mac OS X i iOS.

Radia Perlman

Źródło: Nwrwic.org

34. Radia Perlman (1951-)

Kiedy Radia Perlman uczęszczała na MIT pod koniec lat 60. i 70. XX wieku, była jedną z kilkudziesięciu kobiet z tysiąca. The Atlantic informuje, że została liderem w dziedzinie informatyki, rozwijając protokołu za protokołem drzewa opinającego (STP), dzięki którym dzisiejszy Internet stał się możliwy.

Spanning Tree to protokół sieciowy zapewniający topologię bez pętli dla dowolnej sieci lokalnej Ethernet z mostkiem. Podstawową funkcją protokołu STP jest zapobieganie pętlom mostka i wynikającemu z nich promieniowaniu rozgłoszeniowemu. Umożliwia projekt sieci obejmujący nadmiarowe łącza, które zapewniają automatyczne ścieżki kopii zapasowych w przypadku awarii aktywnego łącza. Perlman wniósł również ważny wkład w obszary projektowania i standaryzacji sieci, takie jak protokoły stanu łącza. Wymyśliła TRILL, aby naprawić błędy Spanning Tree i zapoczątkowała proces nauczania małych dzieci programowania komputerowego, opracowując TORTIS, wersję edukacyjnych języków robotyki, LOGO.

Perlman jest często nazywana matką internetu, ale powiedziała The Atlantic, że nie podoba jej się ten tytuł, ponieważ Internet nie został wymyślony przez osobę. Przyznaje, że wniosła „pewien fundamentalny wkład w podstawową infrastrukturę, ale żadna pojedyncza technologia tak naprawdę nie przyczyniła się do sukcesu Internetu”. Sukces Internetu nie wynikał z konkretnych technologii, ale raczej z szeregu sposobów, w jakie Internet jest używany.

Amerykański aktywista na rzecz wolności oprogramowania i programista komputerowy Richard Stallman

Źródło: Francois Guillot / AFP / Getty Images

35. Richard Stallman (od 1953)

Richard Stallman pracował w Laboratorium Sztucznej Inteligencji na MIT od 1971 do 1984, ucząc się tworzenia systemu operacyjnego, pisząc tam pierwszy rozszerzalny edytor tekstu Emacs w 1976 roku i rozwijając technikę AI polegającą na wycofywaniu ukierunkowanym na zależności, znaną również jako utrzymanie prawdy. Według jego strony internetowej, w 1983 roku Stallman ogłosił projekt rozwijać system operacyjny GNU , system operacyjny typu Unix, który ma być całkowicie wolnym oprogramowaniem. Wraz z tym ogłoszeniem zapoczątkował także ruch wolnego oprogramowania, aw 1985 roku założył Free Software Foundation.

System GNU / Linux, który jest odmianą GNU i również wykorzystuje jądro Linuksa opracowane przez Linusa Torvaldsa, jest używany w dziesiątkach milionów, a nawet setkach milionów. Jednak dystrybutorzy często włączają niewolne oprogramowanie do tych systemów, więc od lat 90. Stallman opowiadał się za wolnym oprogramowaniem i prowadził kampanie przeciwko zarówno patentom na oprogramowanie, jak i niebezpiecznemu rozszerzeniu praw autorskich. ( Poprawka 17.02.15: zmieniono zakres komputerów z systemem GNU / Linux. )

Zdjęcie: Sean Gallup / Getty Images

Źródło: Sean Gallup / Getty Images

36. Bill Gates (od 1955)

Bill Gates był współzałożycielem firmy Microsoft wraz z Paulem Allenem w 1975 roku. W tamtym czasie ich wizja komputera na każdym biurku iw każdym domu wydawała się naciągana, ale od tego czasu stała się rzeczywistością w wielu częściach świata. Według Biography.com obaj pracowali w MITS, małej firmie, która wyprodukowała Zestaw minikomputera Altair 8800 . Zbudowali program w języku BASIC, który zapewnił firmie opłatę i tantiemy, ale nie pokrył kosztów ogólnych. Oprogramowanie było również popularne wśród hobbystów, którzy bezpłatnie kopiowali i rozprowadzali kopie oprogramowania, a Gates postrzegał bezpłatną dystrybucję oprogramowania jako kradzież, zwłaszcza gdy oprogramowanie zostało stworzone w celu sprzedaży. Microsoft pisał oprogramowanie w różnych formatach dla różnych firm komputerowych, a gdy przemysł komputerowy zaczął się rozwijać wraz z firmami takimi jak Apple, Intel i IBM, Gates często był na drodze, by zachwalać zalety oprogramowania Microsoft.

W listopadzie 1980 roku IBM szukał oprogramowania, które będzie działało na jego nadchodzącym komputerze osobistym i zwrócił się do firmy Microsoft. Jednak firma Microsoft nie opracowała podstawowego systemu operacyjnego, który działałby na komputerach IBM, więc Microsoft kupił system operacyjny, zawierając umowę z deweloperem, aby Microsoft stał się wyłącznym agentem licencyjnym, a później pełnoprawnym właścicielem oprogramowania. Firma Gates zaadaptowała i udzieliła licencji na oprogramowanie o nazwie MS-DOS, a wkrótce wydała oprogramowanie o nazwie Softcard, które umożliwiło Microsoft BASIC działanie na maszynach Apple II.

W 1981 roku Apple zaprosił Microsoft do opracowania oprogramowania dla komputerów Macintosh. Dzięki tej wymianie wiedzy firma Microsoft zaczęła rozwijać system Windows. System Apple wykorzystywał mysz do sterowania interfejsem graficznym, wyświetlając tekst i obrazy na ekranie. Różnił się znacznie od systemu tekstowego i klawiaturowego MS-DOS, a Microsoft opracował system Windows z interfejsem graficznym. Microsoft wypuścił Windows w 1985 roku z systemem, który wyglądał podobnie do Apple. W 1986 roku Gates upublicznił firmę Microsoft i natychmiast stał się milionerem.

Zdjęcie: Justin Sullivan / Getty Images

Źródło: Justin Sullivan / Getty Images

37. Steve Jobs (1955-2011)

W 1976 roku, kiedy Jobs miał zaledwie 21 lat, razem ze Stevem Wozniakiem założyli firmę Apple Computer. Rozpoczęli w rodzinnym garażu Jobsa i przypisuje się im rewolucję w branży komputerowej, dzięki czemu maszyny są mniejsze, tańsze, bardziej intuicyjne i bardziej dostępne dla ogólnego konsumenta. Według Biography.com, Wozniak wymyślił seria komputerów przyjaznych dla użytkownika , a Jobs zajął się marketingiem, początkowo oferując je za 666,66 USD za sztukę. W 1980 roku Apple Computer stało się spółką notowaną na giełdzie i pod koniec pierwszego dnia notowań osiągnęło wartość rynkową 1,2 miliarda dolarów.

Kilka następnych produktów Apple miało wady konstrukcyjne, a sprzedaż IBM przewyższyła Apple. W 1984 roku Apple wypuściło komputer Macintosh, który nadal nie był kompatybilny z IBM, a firma zaczęła wycofywać Jobsa. Opuścił Apple w 1985 roku, aby założyć NeXT, i kupił firmę animacyjną, która później przekształciła się w Pixar i połączyła się z Walt Disney w 2006 roku. Jednak NeXT walczył ze sprzedażą swojego wyspecjalizowanego systemu operacyjnego klientom z głównego nurtu, a Apple ostatecznie kupiło firmę w 1996 roku. wrócił na stanowisko dyrektora generalnego Apple i ożywił firmę za pomocą produktów takich jak iMac. Skuteczny marketing i atrakcyjny wygląd firmy Apple ponownie zaczęły zdobywać przychylność konsumentów.

Firma wprowadziła innowacje, takie jak MacBook Air, iPod i iPhone, z których każda wywarła ogromny wpływ na rozwój nowoczesnych technologii. Po prawie dziesięciu latach walki z rakiem trzustki Jobs zmarł w 2011 roku w wieku 56 lat.

Brytyjski informatyk Tim Berners-Lee

Źródło: Carl Court / AFP / Getty Images

38. Tim Berners-Lee (od 1955)

Tim Berners-Lee jest najbardziej znany jako wynalazca sieci World Wide Web, którą rozpoczął w 1989 roku. Założył World Wide Consortium jako forum technicznego rozwoju sieci, a także założył Web Foundation i współzałożyciel Open Data Institute. Berners-Lee wynalazł sieć w CERN, dużym laboratorium fizyki cząstek elementarnych niedaleko Genewy, i napisał pierwszego klienta i serwer WWW w 1990 roku.

Według serwisu World Wide Web Foundation zauważył, że wielu naukowców uczestniczących w eksperymentach w CERN i powracających do swoich laboratoriów na całym świecie było chętny do wymiany danych i wyników , ale okazało się to trudne. Zrozumiał niezrealizowany potencjał milionów komputerów połączonych przez Internet i udokumentował, co stanie się siecią World Wide Web, przedstawiając propozycję określającą zestaw technologii, które sprawią, że Internet stanie się naprawdę dostępny.

Do października 1990 r. Określił trzy podstawowe technologie, które pozostają podstawą dzisiejszej sieci: HTML, URI i HTTP. Jego specyfikacje były udoskonalane w miarę rozpowszechniania się technologii internetowej. Napisał także pierwszy edytor / przeglądarkę stron internetowych i pierwszy serwer WWW. Pod koniec 1990 r. Została udostępniona pierwsza strona internetowa, a do 1991 r. Osoby spoza CERN dołączyły do ​​społeczności internetowej. W 1993 roku CERN ogłosił, że technologia będzie dostępna dla każdego. Od tego czasu internet zmienił świat.

Linus Torvalds z Finlandii

Źródło: Jarno Mela / AFP / GettyImages

39. Linus Torvalds (od 1969)

Linus Torvalds stworzył jądro Linuksa i nadzorował rozwój open source szeroko stosowanego systemu operacyjnego Linux. Po zakupie komputera osobistego zaczął używać Minix, systemu operacyjnego inspirowanego Uniksem, opracowanego przez Andrew Tannenbauma. W 1991 roku Torvalds rozpoczął pracę nad nowym jądrem, które później będzie nazywać się Linux, a po utworzeniu zespołu ochotników wydał pierwszą wersję w 1994 roku. Nadal nadzoruje rozwój Linuksa i jest najwyższym autorytetem w zakresie nowości kod jest zaimplementowany w standardowym jądrze Linuksa.

Larry Page i Sergey Brin

Źródło: Ralph Orlowski / Getty Images

40. Larry Page (od 1973) i 41. Sergey Brin (od 1973)

Larry Page i Sergey Brin spotkali się na Uniwersytecie Stanforda, gdzie w ramach projektu badawczego opracowali wyszukiwarkę, która wyświetlała wyniki według popularności stron. Zbadali, w jaki sposób witryny odsyłają do innych stron internetowych i zdali sobie sprawę, że pomoc ludziom w znajdowaniu stron z większą liczbą linków przychodzących, zwłaszcza z wiarygodnych witryn, byłaby dobrym sposobem wyszukiwania w Internecie. Zdali sobie również sprawę, że najpopularniejszy wynik często byłby najbardziej przydatny. Nazwali wyszukiwarkę Google po matematycznym terminie googol, który odnosi się do liczby jeden, po której następuje 100 zer. Nazwa, według Biography.com, odzwierciedla ich misję organizowanie ogromnej ilości informacji dostępne w sieci.

Firma Google została założona w 1998 roku, a Page i Brin zebrali 1 milion dolarów od znajomych i rodziny, aby uruchomić swój startup, wyprowadzając się z kampusu Stanforda do wynajętego garażu. Google przerastało biuro po biurze. Od czasu uruchomienia Google w 1998 roku stała się najpopularniejszą wyszukiwarką na świecie i podjęła szereg przedsięwzięć, takich jak uruchomienie Gmaila, tworzenie Map Google, digitalizacja książek, tworzenie Androida i zakup YouTube. Tajne laboratorium innowacji Google, Google X, dało początek projektom takim jak Google Glass i samojezdny samochód, a Google nadal inwestuje w badania w wielu różnych dziedzinach, od robotyki po zdrowie.

Marc Andreessen

Źródło: Michael Kovac / Getty Images dla Vanity Fair

42. Marc Andreessen (od 1971)

Marc Andreessen był studentem w National Center for Supercomputing Applications (NCSA) na University of Illinois, kiedy sieć World Wide Web zaczynała się rozwijać, według iBiblio, a jego pozycja pozwoliła mu stać się bardzo zaznajomiony z Internetem i siecią . Większość przeglądarek dostępnych w tamtym czasie była przeznaczona dla drogich komputerów z systemem Unix (co oznacza, że ​​z sieci korzystali głównie naukowcy i inżynierowie), a interfejsy użytkownika nie były przyjazne dla użytkownika. Oba czynniki przeszkodziły w rozprzestrzenianiu się sieci i Andreessen zdecydował się opracować przeglądarkę, która byłaby łatwiejsza w użyciu i bogatsza graficznie.

W 1992 roku Andreessen zwerbował kolegę z NCSA, Erica Binę, do pomocy przy projekcie, nowej przeglądarce o nazwie Mosaic. Była bardziej wyrafinowana graficznie niż inne przeglądarki swojej epoki i zawierała znaczące innowacje, takie jak tag „image”, który umożliwiał umieszczanie obrazów na stronach internetowych. Wcześniejsze przeglądarki pozwalały na przeglądanie obrazów, ale tylko jako osobne pliki. Mosaic zawierał również interfejs graficzny z przyciskami, które można kliknąć, które umożliwiały użytkownikom łatwą nawigację, a także kontrolki, które umożliwiają przewijanie tekstu. Kolejną z najbardziej innowacyjnych funkcji Mosaic było hiperłącze. We wcześniejszych przeglądarkach łącza hipertekstowe miały numery referencyjne, które użytkownik wpisał, aby przejść do połączonego dokumentu. Dzięki hiperłączom użytkownicy mogli po prostu kliknąć łącze w celu pobrania dokumentu.

W 1993 roku Mosaic został opublikowany na serwerach NCSA iw ciągu kilku tygodni dziesiątki tysięcy ludzi pobrało to oprogramowanie. Oryginalna wersja była przeznaczona dla systemu Unix, a Andreessen i Bina zebrali zespół, aby zbudować wersje na komputery PC i Mac. Popularność Mosaic gwałtownie wzrosła. Więcej użytkowników oznaczało większą publiczność dla całej sieci, a większa publiczność była katalizatorem tworzenia większej ilości treści.

Andreessen zdał sobie sprawę, że po ukończeniu studiów NCSA przejmie Mosaic, więc przeniósł się do Doliny Krzemowej, osiadł w Palo Alto i zbudował zespół, którego misją było stworzenie produktu, który przewyższyłby oryginalną Mosaic. Zbudowali Netscape, który był dostępny w 1994 roku iw ciągu kilku tygodni stał się przeglądarką wybieraną przez większość użytkowników sieci. Zawierał nowe znaczniki HTML, aby dać projektantom większą kontrolę i kreatywność, a do 1996 roku był używany przez 75% użytkowników sieci.

Chociaż od tego czasu Netscape stracił dominację na rzecz Microsoftu i innych późniejszych konkurentów (częściowo z powodu „wojen przeglądarek”, a częściowo z powodu zmieniającego się krajobrazu, w którym upadła struktura cenowa Netscape), została przejęta w 1999 r. Przez AOL. Andreessen zaangażował się w wiele innych przedsięwzięć, zakładając firmy i zasiadając w zarządzie gigantów, takich jak Facebook, eBay i HP.

Prezes Facebooka Mark Zuckerberg wygłasza kenote otwierający na konferencji Facebook f8 30 kwietnia 2014 roku

Źródło: Justin Sullivan / Getty Images

43. Mark Zuckerberg (1984-)

Mark Zuckerberg był współzałożycielem Facebooka ze swojego pokoju w akademiku na Harvardzie. Biography.com donosi, że na Harvardzie koledzy ze studiów Divya Narendra oraz bliźniacy Cameron i Tyler Winklevoss szukali Zuckerberga do pracy pomysł na portal społecznościowy które wykorzystywałyby informacje z sieci studenckich Harvardu do stworzenia serwisu randkowego. Zgodził się pomóc, ale wkrótce rozpoczął pracę nad własną siecią społecznościową z Dustinem Moskovitzem, Chrisem Hughesem i Eduardo Saverinem.

Stworzyli witrynę, która umożliwiła użytkownikom tworzenie profili, przesyłanie zdjęć i komunikowanie się z innymi. Prowadzili stronę, pierwotnie nazywaną Facebook, z pokoju w akademiku do czerwca 2004 roku. Po ukończeniu drugiego roku Zuckerberg porzucił Harvard i przeniósł się do Palo Alto, aby pracować na Facebooku w pełnym wymiarze godzin. Pod koniec 2004 roku Facebook miał 1 milion użytkowników. Inwestycja w wysokości 12,7 miliona USD ze strony Accel Partners zwiększyła liczbę użytkowników Facebooka do ponad 5,5 miliona do końca 2005 roku.

Spór prawny z 2006 r. Z Narendrą i Winklevosses - którzy twierdzili, że Zuckerberg ukradł ich pomysł - doprowadził do początkowej ugody w wysokości 65 milionów dolarów. Pomimo krytyki Zuckerberga po książce i filmie, które rzekomo fabularyzowały aspekty historii Facebooka, Zuckerberg i Facebook nadal odnosili sukcesy. Firma ogłosiła przejęcie Instagrama w kwietniu 2012 r. I weszła na giełdę w maju 2012 r. Od tego czasu uruchomiła wiele funkcji i aplikacji, w tym Home, Paper, Near Friends, Slingshot, Mentions, Safety Check i Rooms, a także wprowadzała ciągłe zmiany. oraz ulepszenia aplikacji Facebook i strony na komputery. Od grudnia 2014 r. Facebook miał 1,39 miliarda aktywnych użytkowników miesięcznie.

Więcej na temat ściągawki technicznej:

  • Czy następny duży produkt Apple to samochód elektryczny?
  • Czy sztuczna inteligencja zajmie się twoją pracą?
  • Czy Elon Musk z Tesli to nowy Steve Jobs?