GRY-Online.pl --> Archiwum Forum

Wszystko o komputerze POMOCY

19.11.2005
14:03
[1]

kajtek124 [ Legionista ]

Wszystko o komputerze POMOCY

Ludzie pomocy mam na czwartek napisac referat na technieke Wszystko o komputerze czyli historia ,co w srodku,komputer w przyszlosci jesli ma ktos taki referat na dysku bede bardzo wdzieczny za pomoc prosze pomozcie Dzieki

19.11.2005
14:47
[2]

damtrix [ Pretorianin ]

Wszystko ze ściągi...

---

HISTORIA KOMPUTERA

Zamierzchłe ... liczenie na palcach, zaznaczanie liczby karbami lub węzłami; odmierzanie długości;
ok. 5600 ... pojawienie się pisma, powstałego na bazie piktografii (pisma obrazkowego) będącego systemem znaków pozwalających na widzialne i trwałe przedstawienie myśli;
ok. 3000 ... pierwsze próby stosowania umownych znaków liczb do zapisu wartości liczbowych (hieroglify w Egipcie); system ten przewidywał stosowanie znaków dla cyfr 1, 10, 100 ~ 10 milionów; posługiwanie się nim wymagało powtórzenia na każdym miejscu dziesiątkowym określonego znaku tyle razy, ile wynosiła wartość na tym miejscu dziesiątkowym;
... w Egipcie zastosowano papirus jako materiał piśmienny do rejestracji znaków;
... w Babilonii powstaje pierwszy przyrząd do przeprowadzania obliczeń, zwany abakusem; początkowo były to deski pokryte piaskiem, na których kreślono linie oznaczające zliczane ilości, następnie deski z wyżłobieniami, w których przesuwano przedmioty mechaniczne (np. kamyki) - prototyp liczydła;
ok. 1500 ... stosowanie w Azji pergaminu;
ok. 1000 ... Mezopotamia i Indie: ślady rozwiązywania prostych operacji arytmetycznych za pomocą odpowiednio układanych kamieni (abakus); z biegiem czasu powstają liczydła, czyli kamienie, które nawlekano na pręty (sorban - japońska odmiana liczydła)
ok. 500 ... kształtowanie się spółgłoskowo-samogłoskowego alfabetu greckiego złożonego z 24 liter;
... początki stosowania cyfr rzymskich, mających pochodzenie etruskie;
ok. 300 ... algorytm Euklidesa; grek Euklides podał "przepis" na wyznaczanie największego wspólnego dzielnika dwóch liczb jak również opracował drewniane przyrządy do kreślenia krzywych matematycznych;
ok. 200 ... w starożytnej Grecji opracowano kalkulator analogowy używany do obliczeń ruchu gwiazd i planet;
ok. 100 ... Heron z Aleksandrii opracował licznik drogowy (zwany drogomierzem Herona), który był przeznaczony do samoczynnego pomiaru drogi przebytej przez pojazd; drogomierz działał na zasadzie przekazywania ruchu koła pojazdu poprzez układ kół zębatych na tarcze cyfrowe rejestrujące przebytą drogę;

Mechaniczne maszyny liczące były konstruowane już w XVII w. (W. Schickard, B. Pascal, G.W. Leibniz).
W Polsce zostały one produkowane dopiero w XIX wieku.
uniwersalne mech. maszyny liczące o strukturze odpowiadającej współcz. k. projektował 1820–43 Ch. Babbage.
W latach 40. XX w. zbudowano pierwsze elektromech. maszyny cyfrowe: Z3 (K. Zuse, 1941) i Harvard Mark I (1944, wg projektu H.H. Aikena).
Pierwszą próbę skonstruowania elektron. maszyny cyfrowej (przeznaczonej do rozwiązywania układów równań liniowych) podjął 1939–42 w USA J.V. tanasoff;

Pierwszy Polski komputer ODRA

Gdy w Gorzowie o komputerach jeszcze nikt nie śnił, w Stilonie powołano Zespół Obliczeń Statystycznych Procesów Technologicznych. - O komputerach mogliśmy tylko pomarzyć. Wszystko liczyło się na maszynach czterodziałaniowych. Z komputerem nie miało to nic wspólnego. W 1969 roku zaczęliśmy jeĽdzić na kursy informatyczne do Warszawy. Tam zetknęliśmy się pierwszy raz z komputerami - opowiada Konrad Tołkacz, wieloletni szef stilonowskiego Ośrodka Przetwarzania Danych.

Ośrodek powstał 1 stycznia 1970 roku. Najpierw wyposażono go w szwedzkie maszyny ADDO, służące do zapisu informacji na papierowej taśmie perforowanej. Prawdziwy skok technologiczny nastąpił dopiero, gdy do Gorzowa przyjechała Odra 1304 - pierwszy komputer. Ministerstwo przemysłu zdecydowało o "komputeryzacji" Stilonu w 1973 roku. Gorzowska Odra ruszyła rok póĽniej. Jej pracy przyglądał się nawet ówczesny premier Piotr Jaroszewicz.

- Pierwszy komputer miał mało pamięci, zresztą wszystkiego miał mało, ale za to był duży jak szafa i bardzo ciężki - wspomina Konrad Tołkacz. Gdy likwidowano ostatnie Odry, trzeba było w ośrodku wybijać ściany, aby wywieĽć maszyny.

Ówczesne komputery "chodziły" na perforowane papierowe taśmy. Na nich w pięciu rzędach dzięki kombinacji dziurek zapisywano wszystkie informacje. Do przechowywania danych potrzebne były tony papierowej taśmy. Dwie kopie zapisu powstawały, gdy do maszyny zapisującej wkładano taśmę podwójną. Korzystano nawet z papierowych taśm pięciowarstwowych.

Papierowa taśma rwała się. Aby z zapisu wyeliminować błędną informację lub wstawić brakującą, informatycy w odpowiednim miejscu przecinali taśmę nożyczkami i wstawiali np. metrowy fragment brakującej informacji. Bez odczytywania taśmy na komputerze doświadczony informatyk gołym okiem, po kombinacji dziurek potrafił odczytać zapis na papierowej taśmie. Na zapisanie imienia i nazwiska zużywano ok. 10 cm papierowej taśmy.

Największe twarde dyski, wielkości skrzyni, miały wtedy ok. 100 megabajtów pamięci. Na magnetyczny nośnik danych ośrodek przeszedł w 1975 roku, gdy do Gorzowa przywieziono komputery Mera. Trzeba było ich głowice i inne podzespoły czyścić spirytusem. Były normy spirytusu na obsługę komputera. Najwięcej spirytusu potrzebowały dyski bułgarskie. Spirytusu było tak dużo, że z powodzeniem można było rozpić cały blok administracyjny Stilonu. Z wielkimi szafami wielomodułowych komputerów obchodzono się jak z jajkiem. Stałe niezależne zasilanie, potrójny system klimatyzacji, no i oczywiście ścisła tajemnica. Ośrodek Przetwarzania Danych pracował nie tylko na potrzeby Stilonu. Swoje ściśle tajne informacje przetwarzała tam m.in. Milicja

„ENIAC”

w W. Brytanii zbudowano serię elektron. maszyn cyfrowych Colossus, wykorzystywanych w kryptografii. Pierwszym k. był ENIAC, skonstruowany 1943–45 w USA przez J.P. Eckerta i J.W. Mauchly’ego. Zapisywanie programów w pamięci operacyjnej (k. EDSAC, zbud. w W. Brytanii 1949 pod kierunkiem M.V. Wilkesa) umożliwiło efektywne programowanie k. W rozwoju k. duże znaczenie odegrały prace teoret. A.M. Turinga i J. von Neumanna. Podstawowym elementem układów elektron. k. były pocz. lampy elektronowe, od 1958 — tranzystory, od 1964 — układy scalone, od 1975 — układy scalone wielkiej skali integracji (VLSI). Do lat 60. konstruowano gł. duże komputery; 1964 zbud. pierwszy superkomputer (CDC 6000), a 1965 — pierwszy minikomputer (PDP-8). Pierwszym pol. k. był XYZ, skonstruowany 1958 pod kierunkiem L. Łukaszewicza. Rozwój elektroniki (m.in. zastosowanie mikroprocesorów, 1970) umożliwił miniaturyzację sprzętu komputerowego i rozpowszechnienie k. osobistych (od 1978). Dla współcz. techniki komputerowej charakterystyczny jest b. szybki wzrost wydajności procesorów, pojemności pamięci komputerowych i nośników danych, rozwój metod grafiki komputerowej, sztucznej inteligencji, komputerowych technik multimedialnych (multimedia), a także sieci komputerowych. Zasadami budowy k. i ich programowania zajmuje się informatyka.


Apple Computers został zarejestrowany w styczniu 1977 r., a założyciele dysponowali kapitałem zakładowym w wysokości 300 USD. Pięć lat póĽniej firma zajmowała 23 miejsce wśród producentów komputerów, a pierwsze wśród wytwórców komputerów osobistych. Sukces Apple zachęcił innych do zainteresowania się nowym rynkiem. W krótkim czasie powstało wiele firm. Potentaci, tacy jak: IBM, DEC, HP, postanowili również wziąć udział w rywalizacji.
Trudno powiedzieć, czy sukces uśpił czujność kierownictwa Apple. Przez długi czas komputery Macintosh miały kilka istotnych przewag nad konkurencją i ugruntowany u odbiorców wizerunek sprzętu nowoczesnego i przyjaznego dla użytkownika. Jak się jednak okazało, to nie wystarczy, by odnieść sukces na rynku w dłuższym okresie. Pierwsze komputery PC opracowane przez IBM wcale nie były lepsze od komputerów Macintosh, a system operacyjny DOS nie mógł się równać z systemem opracowanym przez Apple. Procesory Motoroli w komputerach Macintosh nie ustępowały procesorom Intela w komputerach IBM PC i nic nie wskazywało na to, by linia procesorów Motoroli z wprowadzonymi w ostatnich latach Power PC nie mogła dalej konkurować z wyrobami Intela.
Rynek zaczął się zmieniać, kiedy IBM zdecydował się upowszechnić swoje rozwiązania konstrukcyjne, tworząc standard komputera osobistego. Konkurencyjne klony montowane w ogromnych ilościach i sprzedawane po coraz niższych cenach zalały rynek światowy. Zaskoczyło to nawet IBM, którego też nie ominęły kłopoty finansowe. W krótkim czasie producenci, tacy jak Compaq, HP, Dell, Acer i wielu innych, oferowali komputery znacznie lepsze od produkowanych przez IBM. Takiego nacisku technologicznego nie był w stanie wytrzymać Apple, choć wyścig technologiczny szedł trochę obok nie pozwalającej na żadne naśladownictwo swoich wyrobów firmy.
Najważniejsze programy
Smutny okazał się los producentów komputerów Atari czy Amiga, które jeszcze 34 lata temu kroczyły drogą podobną do Apple. Jednym z podstawowych kłopotów użytkowników był brak nowoczesnego oprogramowania. Apple miał jednak za sobą poparcie milionów użytkowników, a to gwarantowało opłacalność tworzenia oprogramowania dla komputerów Macintosh. Okazało się, że oprogramowanie decyduje o sukcesie rynkowym samego sprzętu. Sukces systemu Windows Microsoftu (zwłaszcza wprowadzenie systemu Windows 95 w końcu 1995 r.) przyczynił się do pogorszenia wyników Apple. Według danych SEC, w czwartym kwartale 1995 r. udział Apple w rynku światowym wynosił 8,7 proc., w trzecim kwartale 1996 r. było to tylko 5,4 proc. Dla tych samych okresów udział w rynku USA spadł z 13,2 proc. do 7,3 proc. W okresie świątecznym sprzedaż komputerów Macintosh i notebooków Powerbook w USA była mniejsza, niż to przewidywano w Apple. Czwarty kwartał roku finansowego 1996 udało się firmie zamknąć z niewielkim zyskiem. Jednak strata operacyjna w wysokości 100150 mln USD w pierwszym kwartale roku finansowego 1997 (zakończonym 27 grudnia 1996 r.) każe wątpić, czy firma zaczęła wychodzić z kryzysu.
Nowy system
Apple Computers już 20 grudnia 1996 r. zapowiedział chęć zakupienia firmy NeXT Software, w której połowę udziałów posiada Steve Jobs. Zakup wiązał się z wydaniem przez Apple 400 mln USD. Ma to umożliwić stworzenie nowego konkurencyjnego do Microsoft Windows oprogramowania dla komputerów Macintosh. Jak zapowiedziano w pierwszym tygodniu stycznia 1997 r., nowy system będzie gotowy w połowie 1998 r. Ma to być "podwójny" system operacyjny zabezpieczający interesy dotychczasowych użytkowników oprogramowania dla komputerów Macintosh. Tworzenie nowego systemu nie zakłóci harmonogramu unowocześniania obecnego systemu operacyjneg Apple System 7 i zgodnie z planem w 1997 r. ukażą się kolejne dwie wersje programu.
Trudno uważać, że Apple kupił dobrze prosperującą firmę softwarową. NeXT przynósł w 1995 r. stratę netto w wysokości 801 tys. USD przy 46,8 mln USD obrotów. W 1994 r. miał co prawda zysk netto w wysokości 1 mln USD przy 49,5 mln USD obrotów, ale osiągnięcie zysku było możliwe tylko dlatego, że uzyskano jednorazową opłatę licencyjną w wysokości 17,5 mln USD od Sun Microsystems.
Niepokój
Złą sytuacją Apple wydaje się niepokoić nawet Microsoft. Tak tłumaczy się fakt powołania ostatnio w tej firmie zespołu programistów, który ma zajmować się opracowywaniem oprogramowania pracującego pod nadzorem systemu operacyjnego Apple'a. Jak twierdzą obserwatorzy rynku, jest to próba zabezpieczenia się przed zarzutami monopolizowania rynku oprogramowania przez Microsoft i wejścia w konflikt z prawem antymonopolowym w USA. Microsoft gwałtownie temu zaprzecza, choć fakty pozostają.
Na zakończenie warto przytoczyć wypowiedĽ wygłoszoną podczas MacWord Show przez Lori Brooks-Manas, która pomaga zarządzać kilku setkami komputerów Macintosh na Uniwersytecie Kalifornijskim "złą wiadomością dla Apple jest poczucie, że nie ma dla niego przyszłości".

---

BUDOWA I DZIAŁANIE KOMPUTERA

Komputery PC są coraz częściej spotykane zarówno w domach jak i w miejscach pracy. Pomagają, uczą, bawią, niejednokrotnie ułatwiają nam pracę. Odznaczają się precyzją i szybkością wykonywania zadań. Pozornie można stwierdzić, że są niezastąpione. Jednak żadna z tych maszyn nie ruszyłaby z miejsca gdyby nie człowiek wydający polecenia. Choć dla wielu ludzi komputery to „potwory”, które są wprost nieobliczalne to w rzeczywistości działają na w bardzo prosty sposób.
Zasadniczo komputery dzielą się na hardware i software.
Sprzęt określany z angielskiego jako hardware stanowi wszystko to co , można fizycznie dotknąć i co wchodzi w skład działającej maszyny, jest to:
· procesor,
· płyta główna,
· dysk twardy,
· stacja dyskietek,
· pamięć RAM,
· napęd CD-ROM,
· monitor,
· karta dĽwiękowa,
· karta graficzna,
· drukarka,
· skaner,
· modem,
· głośniki,
· mysz,
· klawiatura...

Software określa druga istotna część działającego komputera, jest nią oprogramowanie, czyli ciąg liczb, które stanowią rozkazy lub dane dla programu komputerowego.

Płyta główna jest podstawowym elementem każdego komputera, która stanowi bazę do instalowania pozostałych części. Za jej pośrednictwem odbywa się komunikacja między poszczególnymi urządzeniami, a ponieważ w świecie informatyków obowiązuje zasada „otwartej architektury”, tzn. że części różnych producentów powinny bezkolizyjnie ze sobą współpracować, na płycie głównej znajduje się wiele złącz przeznaczonych do różnych celów zwanych gniazdami rozszerzającymi. Oprócz tych gniazd płyta główna zawiera inne złącza tzw. porty wejścia/wyjścia, umożliwiające podłączenie różnego rodzaju urządzeń zewnętrznych ( drukarka, skaner...)

Procesor jest układem elektronicznym, zawierającym gęsto upakowane miniaturowe mikroprzełączniki – tranzystory – realizujące funkcje logiczne. Połączenia pomiędzy poszczególnymi elementami wewnątrz procesora stanowią tzw. ścieżki. Ścieżkę można postrzegać jako odpowiednik drucianego przewodu, w którym płynie prąd. Jeśli spojrzymy na płytę główna komputera to również ujrzymy miedziane ścieżki łączące układy scalone. Operacje logiczne wykonywane przez procesor wymagają współpracy wielu pojedynczych tranzystorów. Liczba ta zwiększa się tym bardziej, im doskonalszy i szybszy jest procesor, gdyż zastosowanie nowoczesnych mechanizmów oraz metod optymalizacji wymaga zastosowania dodatkowej porcji tranzystorów. Procesor jest sercem komputera, a zarazem najzwyklejszym układem scalonym, czyli elementem elektronicznym, którego działanie oparte jest na systemie dwójkowym. Rozwiązanie takie zastosowano ponieważ elektroniczne urządzenia cyfrowe działają podobnie do tranzystora.
System dwójkowy ułatwia maszynie rozpoznanie tylko dwóch stanów, gdy jest napięcie elektryczne, i gdy jest brak napięcia. Zmuszenie tranzystora do rozróżniania aż 10 stanów napięć (w systemie dziesiętnym) w dużej mierze obniżyło by efektywność jego pracy.
Procesor świetnie wykonuje natomiast operacje na pojedynczych bitach
( każda jedynka i każde zero to jeden bit, ciąg ośmiu bitów określa się jako bajt ). Cała filozofia jego działania opiera się na logice dwuwartościowej algebry Boolowskiej - prostych operacjach sumy, iloczynu oraz negacji zer i jedynek, z których można ułożyć dowolną operacje liczbową, np. potęgowanie.

Pamięć operacyjna RAM jest to obszar roboczy komputera, z którego w trakcie realizacji określonych zadań procesor pobiera dane, instrukcje wykonywanego programu. W odróżnieniu od pamięci ROM, która służy np. do przechowywania programów BIOS-u, w pamięci RAM dane przechowywane są tymczasowo. Oznacza to, że w przypadku odłączenia zasilania wszystkie informacje znajdujące się w pamięci operacyjnej giną bezpowrotnie. Pamięci RAM produkowane są w postaci układów scalonych, które łączone są w tzw. moduły. Ze względów praktycznych – możliwość łatwej rozbudowy, wymiany – pamięci nie są montowane na stałe na płycie głównej. Zamiast tego na płycie znajdują się odpowiednie złącza, w których umieszcza się moduły pamięci. Złącza na płycie zorganizowane są w tzw. „banki pamięci”. W zależności od rodzaju płyty głównej, typu procesora, a także rodzaju modułu liczba banków oraz wchodzących w ich skład modułów jest różna.

Karta graficzna jest to układ elektroniczny, który zajmuje się zamiana informacji z komputera na zrozumiały dla monitora sygnał, dzięki czemu na ekranie otrzymujemy obraz. Zanim obraz ukarze sie na ekranie, przesyłany jest w postaci sygnału cyfrowego do przetwornika cyfrowo-analogowego, gdzie zostaje zamieniony na sygnał analogowy, który jest przesyłany do monitora. Jakość tego obrazu zależy od parametrów technicznych karty. Urządzenie to należy do grupy tych komponentów, które bezpośrednio wpływają na jakość pracy z komputerem.

Karta dĽwiękowa działa na tej samej zasadzie co karta graficzna zaopatrzone jest też zazwyczaj w dodatkowy przetwornik analogowo cyfrowy, który służy do rejestrowania dĽwięku i zamienia sygnały analogowe na dane cyfrowe.

Monitor komputerowy zalicza się do grupy urządzeń określanych skrótem CRT ( Cathode Ray Tube ), czyli urządzeń wyświetlających, w których obraz jest tworzony za pomocą lampy kineskopowej. Lampa kineskopowa pokryta jest wewnątrz specjalna substancją zwaną luminoforem, która pod wpływem bombardowania strumieniem elektronów zaczyna świecić. Skupiona wiązka elektronów jest kierowana za pomocą oddziaływania elektromagnetycznego cewek odchylania poziomego i pionowego w odpowiednie miejsce ( wybrany punkt na powierzchni ekranu). Zanim taki punkt zgaśnie, działo elektronowe może zbombardować wiele innych punktów, co człowiek odbiera subiektywnie jako świecenie kilku pikseli ( im mniejsza średnica plamki tym ostrzejszy i wyraĽniejszy obraz), całych kryształów albo nawet obszarów naraz. W ten sposób oszukany wzrok ludzki widzi dowolny obraz – i o to właśnie chodzi.




Dysk twardy jest centrum przechowywania danych każdego komputera, który składa się z :
§ talerze – na nich fizycznie znajdują się dane,
§ silnik napędzający talerze,
§ głowice odczytująco - zapisujące,
§ pozycjoner głowic.
Talerz jest miejscem wewnątrz dysku, gdzie fizycznie przechowywane są informacje. Wykonany jest z bardzo lekkiego, a jednocześnie bardzo sztywnego materiału, będącego najczęściej stopem aluminium. Materiał ten jest pokrywany warstwa magnetyczna i dopiero na niej można zapisywać impulsy magnetyczne symbolizujące pojedyncze bity. Dzieje się tak pod wpływem wrażliwości materiału z którego wykonany jest talerz, który pod wpływem działania magnesu zmienia swój stan elektrostatyczny – z minusa na plus i na odwrót. Na pojedynczym talerzu znajdują się współosiowe ścieżki zawierające dane. Każda taka ścieżka podzielona jest dodatkowo na określona liczbę sektorów, typowo o rozmiarze 512 bajtów każdy, które są najmniejszymi pojedynczymi jednostkami dysku. W odniesieniu do dysku twardego właściwie nawet częściej używa się określenia cylinder zamiast ścieżka. Określenie to oznacza zbiór analogicznych ścieżek na odrębnych talerzach. Lokalizując pojedynczy sektor na dysku, musimy podać numer cylindra, numer głowicy i numer sektora. Za pomocą takich współrzędnych można precyzyjnie określić miejsce, z którego chcemy odczytać lub w którym chcemy zapisać informacje.
Większość dysków posiada kilka talerzy, a nie jeden. Oprócz tego każdy z talerzy zapisywany jest dwustronnie. Pozwala to proporcjonalnie zwiększyć pojemność pojedynczej jednostki dyskowej. Każda z powierzchni ma swoja własna głowicę do odczytu/zapisu, dlatego jeśli dysk ma dwa talerze, to jednocześnie posiada cztery głowice.
Talerze wirują wokół wspólnej osi napędzane silnikiem. Dysk pracuje ze stałą prędkością obrotową, najczęściej na poziomie ponad 5000 obrotów na minutę. Im większa prędkość obrotowa talerzy, tym szybciej dysk działa, bo przeciętnie musi krócej czekać, aż określony jego fragment znajdzie się pod głowicą.

Głowica odczytująco-zapisująca jest jednym z najważniejszych elementów całego dysku. Początkowo głowica dysku twardego nie różniła się zbytnio od głowicy stosowanej w napędach dysków elastycznych. Kawałek metalu z nawiniętym wokół niego drutem generował zmienne sterowane prądem pole magnetyczne, które odpowiednio polaryzowało powierzchnie dysku. Była to głowica ferrytowa. Ewolucja tej technologii była głowica MIG ( Metal In Gap ) pozwalająca zmniejszyć szczelinę, która pozostawiała magnetyczny ślad na nośniku. Zastosowanie głowicy TF ( Thin Film ) pozwoliło jeszcze bardziej zwiększyć upakowanie danych na powierzchni dysku.
Prawdziwym przełomem stały sie jednak dopiero głowice magnetorezystywne MR, które są przeznaczone wyłącznie do odczytywania danych. Głowice te używają materiału, który zmienia rezystancję pod wpływem pola magnetycznego, a nie sam generuje prąd. To pozwala odczytywać dokładnie znacznie słabsze impulsy magnetyczne, a w konsekwencji upakować jeszcze bardziej dane na dysku twardym. Do zapisywania danych służy w tym przypadku zwykła głowica TF. Z tego wynika, że tak naprawdę dysk posiadający dwa talerze ma osiem głowic, a nie cztery - po dwie na każda powierzchnie talerza. Taki podział funkcji umożliwił dodatkowo znaczna optymalizacje konstrukcji głowicy TF, ponieważ wszystkie jej cechy mogą być zoptymalizowane wyłącznie pod kątem zapisu.
Aby głowica trafiła dokładnie nad wybrany cylinder, a następnie stała tam nieruchomo zastosowano mechanizm pozycjonujący wykorzystujący sprzężenie zwrotne. Na dysku, na specjalnie przeznaczonych ścieżkach znajdują sie zamiast danych specjalne impulsy, które służą do „przywoływania” głowic dokładnie ponad ścieżkę z danymi. Dysk na bieżąco kontroluje te sygnały i koryguje ustawienie silnika ( głowic ).
Dysk jest zasilany czteropinowym kablem dostarczającym mu napięcie +5V oraz +12V.

Stacja dyskietek jest to urządzenie zdolne pracować z dyskietką 3,5 calową o pojemności 1,44 MB. Stacja dyskietek i dyskietka w dużej mierze zachowuje sie i jest zbudowana tak jak bardzo wolny, uproszczony dysk twardy z jednym talerzem. Dane są zapisywane na elastycznej powierzchni dyskietki z obu jej stron i umieszczane są również na współosiowych ścieżkach podzielonych na sektory po 512 bajtów. Ponieważ prędkość obrotowa nośnika nie jest tak wielka jak w przypadku dysków twardych, głowica zamiast się unosić suwa się po jego magnetycznej powierzchni.

Modem zamienia dane komputera w sygnały akustyczne przesyłane liniami telefonicznymi. Komputer- odbiorca po drugiej stronie linii też musi być wyposażony w modem, który przetworzy sygnały z powrotem do postaci impulsów zrozumiałych dla maszyny. W taki sposób mozliwe jest na przykład przesłanie plików, jakie zwykle zapisujemy na dyskietkach. Oczywiście transmisja wiekszych ilości danych nie przebiega zbyt szybko: najnowsze modele są w stanie przesyłać zbiory z prędkością 57600 bitów na sekundę.

Skaner to urządzenie, które pozwala skopiować płaski, dwuwymiarowy obraz ( np. zdjęcie ) tak, aby móc go przechowywać i/lub przetwarzać w postaci cyfrowej za pomocą komputera. Istnieją różne technologie skanowania obrazów, lecz najbardziej rozpowszechniona jest metoda stosowana w skanerach stołowych lub ręcznych. Decydująca rolę pełnia w niej elementy CCD – elementy o sprzężeniu ładunkowym. Światło pada na skanowany oryginał i odbijając się od jego powierzchni, trafia do elementu CCD, który pod wpływem padającego światła wytwarza ładunek elektryczny proporcjonalny do stopnia, w jakim został oświetlony. Następnie za pomocą przetwornika analogowo-cyfrowego uzyskiwana jest n-bitowa reprezentacja odcienia naświetlanego punktu. Gdy zatem mamy do dyspozycji 8 bitów wówczas każdy punkt może przybrać w obrazie cyfrowym jedna z 256 wartości ( człowiek rozpoznaje około 250 odcieni jednej barwy ).

Klawiatura jest urządzeniem, które umożliwia komunikację człowieka z komputerem. Wszystkim klawiszom przyporządkowane są kody, które spełniają rolę numerów identyfikacyjnych. Po naciśnięciu klawisza klawiatura informuje procesor o zmianie swojego stanu – wykonywany jest automatycznie skok do procedury obsługi klawiatury. Standardowe klawiatury mają 105 klawiszy.

Mysz wyposażona jest w metalową, obleczona cienką warstwą gumy ( kauczuku ) kulkę, która jest tak umieszczona w myszy, że dotyka podłoża. Poruszając myszką, sprawiamy, że owa kulka się obraca. Ruch ten jest przekazywany poprzez układ rolek do czujników fotoelektrycznych. W ten sposób każdemu ruchowi kulki ( rolki ) odpowiada wygenerowanie sygnału elektrycznego ( ciągu impulsów ), które są rozpoznawane przez kontroler myszy i odpowiednio przetwarzane na ruch kursora po ekranie monitora.

Szybki rozwój techniki powoduje, że to, co jeszcze wczoraj było nowością dziś stanowi standardowe wyposażenie każdego komputera.
Nikogo nie dziwi już kamera internetowa, czy aparat cyfrowy, które są kompatybilne z każdym komputerem. Producenci sprzętu komputerowego prześcigają się nawzajem w pomysłach i rozwiązaniach technologicznych, które maja ułatwić i uprzyjemnić nam życie.

---

JAKI BĘDZIE KOMPTER PRZYSZŁOŚCI

[a to wziąłem z jakiegoś artykułu na onecie :P]

Jaki będzie komputer przyszłości?

Wydajne, poręczne, dziesięciokrotnie bardziej energooszczędne, odporne na trudne warunki atmosferyczne - takie mają być komputery przyszłości. I to nie w następnym stuleciu, ale już za kilka lat.

Premiery komputerowych generacji następują po sobie w coraz krótszych odstępach czasu. Kilka miesięcy temu miała miejsce premiera najnowszej platformy do notebooków firmy Intel, a już są prowadzą prace projektowe nad kolejnymi rozwiązaniami. Poszukiwania skupiają się wokół kilku cech, które oznaczają dla użytkowników nowe możliwości wykorzystania komputera i komfort użytkowania. Są to: wydajność, dalsza miniaturyzacja, energooszczędność, dłuższa praca na bateriach, łatwiejsze zarządzanie, łatwe odtwarzanie multimediów.

Wyzwania

Po co to wszystko i skąd takie kierunki rozwoju? Zacznijmy od tego, że najszybciej ewoluują komputery przenośne. To przed nimi stawia się najwięcej nowych wyzwań, a każda innowacja dotyczy tych urządzeń w całości. Ulepszenie procesora czy systemu chłodzenia, w notebookach najbardziej zauważalnie przekłada się na nowy wygląd obudowy: mniejszej, zgrabniejszej, poręczniejszej, lżejszej. Ewolucję platform do notebooków a także ich wyglądu wymuszają także nowe zastosowania dyktowane przez użytkowników i ich potrzeby.

W najbliższym czasie można się spodziewać nowej, zoptymalizowanej pod kątem oszczędności energii, mikro-architektury do komputerów przenośnych. Architektury, czyli nowych pomysłów technologicznych, które stają się składnikiem platformy (bazy) do produkcji notebooków, zarówno dla firm, jak i do prywatnych zastosowań, np. do obsługi multimediów i gier, czyli domowej rozrywki w "cyfrowym domu". Przyjrzyjmy się teraz kierunkom badań dotyczących nowej generacji komputerów.

Nowa mikro-architektura ma spełniać wiele zadań. Jednym z najważniejszych, szczególnie dla firm, jest energooszczędność, a dla szefów IT większa efektywność i wydajność systemów, czyli dużo wolniej i w mniejszym stopniu niż dotychczas, ulegały one obciążeniu w miarę rozrastania się firmy i zwiększania ilości przetwarzanych danych. Słowem, system powinien firmie "starczyć na dłużej", a przy tym powinien być maksymalnie długo wydajny, tak jak na początku.

Energia, i jeszcze mniej energii

Nowe komputery wyposażone w wielordzeniowe procesory mają być nawet dziesięciokrotnie bardziej energooszczędne. Brzmi to na razie jak fantastyka. Jednak ośrodek badań firmy Intela zapowiedział, że firma opracowuje obecnie ponad 10 typów procesorów posiadających 4 i więcej rdzeni oraz nową kategorię superoszczędnych systemów, które będą zużywały mniej niż 1 wat energii, a ich waga nie przekroczy pół kilograma. Jeśli te zapowiedzi zostana wcielone w życie, a na rynku pojawią się komputery wielokrotnie mniejsze, lżejsze i zużywające 1/10 dotychczasowej energii, to można będzie uznać, że jest to zauważalnie nowa epoka cyfrowa, nawet dla zwykłego użytkownika i małej firmy. Taki wzrost jakości i wydajności będzie bardziej wyraźnie odczuwany. Poprawi się efektywność, komfort pracy, skróci się czas wykonywania zadań przez komputer, zmniejszą się koszty pomocy technicznej. Wielordzeniowość wraz z technologią HT, o której już pisaliśmy wprost poprawia jakości pracy. Te same zadania, kiedyś wykonywane jedno po drugim, w obawie żeby system się nie zawiesił, można będzie wykonywać równolegle: jak np. skanowanie antywirusowe, nagrywanie czy odtwarzanie multimediów, normalna praca biurowa, komunikacja głosowa, odbieranie poczty, faksowanie i inne. Natomiast mniejsze zużycie energii czy dłuższa żywotność systemu i mniej awarii - to wprost policzalne oszczędności w budżecie firmy.

Do biura, na pustynię, do domu

Innowacyjne rozwiązania będą dotyczyć ułatwień zarządzania i administrowania, zwiększenia bezpieczeństwa na poziomie sprzętowym, łatwej obsługi multimediów. Opracowywana jest nowa kategoria ultraenergooszczędnych urządzeń: Handtop PC. Będą one zużywały wielokrotnie mniej energii niż dzisiejsze, co jest tym bardziej istotne, że w skali świata wciąż rośnie zapotrzebowanie i zużycie energii, a także jej cena. Przy założeniu, ze w tym roku na świecie może zostać sprzedanych blisko 200 milionów komputerów, oszczędności uzyskane dzięki układom energooszczędnym sięgną miliardów dolarów. To szacunki globalne, ale wielokrotnie mniejsze zużycie energii opłaci się też małej firmie.

Komputery wykorzystywane w biurach, często służą do specjalnych zadań, muszą być odporne na działanie w ekstremalnych warunkach zewnętrznych. Powstała już koncepcja tzw. community PC: komputer przeznaczony dla krajów rozwijających się, który może pracować przez wiele godzin na zasilaniu z akumulatora samochodowego, jest odporny na wysokie temperatury - nawet powyżej 37 st. C., na kurz i brud. Dostęp do Internetu będzie uzyskiwał dzięki sieciom bezprzewodowym, takim jak WiMax.

W opracowaniu są kolejne rozwiązania, tym razem dla użytkowników biznesowych. Jako przykład mogą posłużyć innowacje typu star technology (*T), które obejmują technologie łatwego zarządzania i obsługi multimediów. Na przykład, dzięki Intel VT - jednemu z rozwiązań z grupy *T - będzie możliwe wydzielenie sekcji platformy komputera, która będzie odpowiedzialna tylko za uaktualnianie oprogramowania, naprawę i serwisowanie systemu, bez wpływu na stabilne działanie komputera. Ponadto, współpraca producentów platform komputerowych z producentami z branży cyfrowej rozrywki, ma wkrótce doprowadzić do powstania komputerów współdziałających z urządzeniami elektroniki użytkowej i zapewniających łatwy dostęp do multimediów oferowanych przez serwisy internetowe.

19.11.2005
15:20
[3]

kajtek124 [ Legionista ]

thx wielkie dzieki

© 2000-2024 GRY-OnLine S.A.