- Co studiuje informatyka? Aplikacje
- Zgodność informatyki
- Historia
- Podstawowe pojęcia informatyki
- Pokolenia
- Pierwsza generacja
- Drugie pokolenie
- Trzecia generacja
- Czwarta generacja
- Piąta generacja
- Bibliografia
Komputer to nowoczesna nauka badająca metody, procesy i technologie do przetwarzania, przesyłania lub przechowywania danych w sposób cyfrowy. Wraz z wielkim postępem technologicznym drugiej połowy XX wieku dyscyplina ta zyskiwała na znaczeniu w działalności produkcyjnej, zwiększając jednocześnie jej specyfikę.
Rozwój komputerów, obwodów zamkniętych, robotów, maszyn, telefonów komórkowych oraz pojawienie się Internetu sprawiają, że informatyka jest jedną z najpopularniejszych nauk ostatnich dziesięcioleci.

Etymologia słowa informatyka ma kilka możliwych źródeł. Powstał głównie jako akronim słów informacja i automatique (informacja automatyczna).
W 1957 roku to Karl Steinbuch umieścił ten termin w dokumencie Informatik: Automatische Informationsverarbeitung. W 1962 roku francuski inżynier Philippe Dreyfus nazwał swoją firmę Société d'Informatique Appliquée. Jednak to Rosjanin Aleksander Iwanowicz Michajłow jako pierwszy użył tego słowa jako „badania, organizacji i rozpowszechniania informacji naukowych”.
Pośród szerokiego zakresu zastosowań nauka ta zajmuje się badaniem automatycznego przetwarzania informacji za pomocą urządzeń elektronicznych i systemów komputerowych, które mogą być wykorzystywane do różnych celów.
Co studiuje informatyka? Aplikacje
Dziedzina zastosowań informatyki poszerzyła swoje spektrum wraz z rozwojem technologicznym ostatniego półwiecza, zwłaszcza pod wpływem impulsu komputerów i internetu.
Do jego głównych zadań należy projektowanie, rozwój, planowanie w obiegu zamkniętym, przygotowywanie dokumentów, monitorowanie i sterowanie procesami.
Odpowiada również za tworzenie robotów przemysłowych, a także zadania związane z rozległą dziedziną telekomunikacji oraz tworzenie gier, aplikacji i narzędzi na urządzenia mobilne.
Zgodność informatyki
Informatyka to nauka, w której zbiega się wiedza i wiedza z różnych dyscyplin, począwszy od matematyki i fizyki, ale także między innymi informatyki, programowania i projektowania.
To synergiczne połączenie różnych dziedzin wiedzy jest w informatyce uzupełniane pojęciami sprzętu, oprogramowania, telekomunikacji, internetu i elektroniki.
Historia

Pierwszy komputer.
Historia informatyki rozpoczęła się na długo przed dyscypliną, która nosi jej nazwę. Towarzyszył ludzkości niemal od samego początku, chociaż nie został uznany za naukę.
Od czasu powstania chińskiego liczydła, zarejestrowanego w 3000 rpne i uważanego za pierwsze urządzenie liczące ludzkości, można mówić o komputerach.
Ta tabela, podzielona na kolumny, umożliwia wykonywanie operacji matematycznych, takich jak dodawanie i odejmowanie, poprzez ruchy jej jednostek. Mógłby istnieć punkt wyjścia tej nauki.
Ale ewolucja informatyki dopiero się rozpoczęła wraz z liczydłem. W XVII wieku Blaise Pascal, jeden z najbardziej znanych francuskich naukowców swoich czasów, stworzył maszynę liczącą i zrobił kolejny krok w ewolucji.
Urządzenie to było używane tylko do dodawania i odejmowania, ale na jego podstawie niemiecki Leibniz prawie 100 lat później, w XVIII wieku, opracował podobny aparat, ale z mnożeniem i dzieleniem.
Te trzy kreacje były pierwszymi zarejestrowanymi procesami komputerowymi. Prawie 200 lat zajęło tej dyscyplinie, aby zyskała na znaczeniu i stała się nauką.
We wczesnych dziesięcioleciach XX wieku rozwój elektroniki był ostatecznym impulsem dla nowoczesnych komputerów. Stamtąd ta dziedzina nauki zaczyna rozwiązywać problemy techniczne wynikające z nowych technologii.
W tym czasie nastąpiła zmiana z systemów opartych na zębatkach i prętach na nowe procesy impulsów elektrycznych, klasyfikowane jako 1, gdy prąd płynie i 0, gdy nie, co zrewolucjonizowało tę dyscyplinę.
Ostatni krok poczyniono podczas II wojny światowej, tworząc pierwszy komputer, Mark I, który otworzył nowe pole do rozwoju, które wciąż się rozwija.
Podstawowe pojęcia informatyki
Informatyka, rozumiana jako automatyczne przetwarzanie informacji przez urządzenia elektroniczne i systemy komputerowe, musi mieć pewne możliwości, aby móc się rozwijać.
Niezbędne są trzy operacje centralne: wejście, które odnosi się do przechwytywania informacji; przetwarzanie tej samej informacji i wyniku, czyli możliwość przekazywania wyników.
Zbiór tych możliwości urządzeń elektronicznych i systemów komputerowych nazywany jest algorytmem, który jest uporządkowanym zbiorem systematycznych operacji do wykonania obliczeń i znalezienia rozwiązania.
Dzięki tym procesom informatyka rozwinęła różnego rodzaju urządzenia, które zaczęły ułatwiać ludzkości zadania we wszelkiego rodzaju czynnościach.
Chociaż obszar jego zastosowania nie ma ścisłych ograniczeń, jest stosowany głównie w procesach przemysłowych, zarządzaniu biznesem, przechowywaniu informacji, kontroli procesów, komunikacji, transporcie, medycynie i edukacji.
Pokolenia
W dziedzinie informatyki i informatyki można mówić o pięciu generacjach procesorów, które naznaczyły współczesną historię od jej powstania w 1940 r. Do chwili obecnej.
Pierwsza generacja
Pierwsza generacja miała swój rozwój w latach 1940-1952, kiedy to komputery były budowane i obsługiwane z zaworami. Jego ewolucja i użyteczność były zasadniczo w dziedzinie wojskowo-naukowej.
Urządzenia te posiadały obwody mechaniczne, których wartości były modyfikowane, aby można je było zaprogramować zgodnie z potrzebnymi celami.
Drugie pokolenie
Druga generacja została opracowana między 1952 a 1964 rokiem, wraz z pojawieniem się tranzystorów, które zastąpiły stare lampy. W ten sposób powstały komercyjne urządzenia, które miały wcześniejsze programowanie.
Innym centralnym faktem tego etapu jest pojawienie się pierwszych kodów i języków programowania, Cobol i Fortran. Po latach pojawiły się nowe.
Trzecia generacja
Trzecia generacja miała nieco krótszy okres rozwoju niż jej poprzedników, trwała między 1964 a 1971 rokiem, kiedy pojawiły się układy scalone.
Obniżenie kosztów produkcji urządzeń, zwiększenie pojemności magazynowej oraz zmniejszenie gabarytów to etap.
Ponadto dzięki rozwojowi języków programowania, który nabrał specyfiki i umiejętności, zaczęły kwitnąć pierwsze programy użytkowe.
Czwarta generacja
Czwarta generacja była produkowana od 1971 roku i trwała przez dekadę, aż do 1981 roku, z komponentami elektronicznymi jako głównymi bohaterami ewolucji.
W ten sposób zaczęły pojawiać się w świecie komputerów pierwsze mikroprocesory, które zawierały wszystkie podstawowe elementy starych komputerów w jednym układzie scalonym.
Piąta generacja
Wreszcie piąta generacja rozpoczęła się w 1981 roku i trwa do chwili obecnej, w której technologia przenika każdy aspekt współczesnych społeczeństw.
Głównym etapem rozwoju tej ewolucyjnej fazy informatyki były komputery osobiste (PC), które później doprowadziły do powstania ogromnej grupy powiązanych technologii, które dziś rządzą światem.
Bibliografia
- Informatyka, informacja i komunikacja , Dokumentacja społeczna: Journal of Social Studies and Applied Technology ”, 1999.
- Przetwarzanie informacji (automatyczne), Diego Dikygs, strona cyfrowa Notions of Informática, 2011.
- Historia obliczeń, Patricio Villalva.
- Magazyn Magazyn Horizonte Inform á tica Educativa, Buenos Aires, 1999.
