poniedziałek, 6 czerwca 2011

Ranking nawigacji - czym kierować się przy wyborze urządzeń do GPS?

Autorem artykułu jest Krystian Wójcik



Nowoczesne technologie mogą przysporzyć nam zarówno wiele radości z ich korzystania, jak i wiele problemów związanych ze stopniem trudności ich obsługi. Dla przeciętnego człowieka obsługa urządzeń cyfrowych, nie mówiąc już o zrozumieniu poszczególnych parametrów, to nie lada problem. 

Jak w takim razie wybrać takie urządzenie? Niewątpliwie przydatne będą w takim przypadku wszelkiego rodzaju rankingi urządzeń. W tym artykule chciałbym skupić się na urządzeniach do nawigacji GPS. Co powinieneś wiedzieć na ich temat, czym w ogóle jest nawigacja oraz w oparciu o jakie parametry możemy stworzyć ranking nawigacji oraz jakie są ich rodzaje?

Urządzenia do pozycjonowania satelitarnego nie są jakąś nowością na rynku. Wręcz przeciwnie, istniały na nim od dawna, jednak ze względu na to, że technologie miniaturyzacji układów cyfrowych były w tamtym okresie dopiero w powijakach, urządzenia te były duże, nieporęczne oraz co ważne drogie. Nie zmienia to jednak faktu, że istniały na rynku. Nikt jednak nie przywiązywał do tego jakieś dużej wagi, ponieważ jak już napisałem powyżej niewielu było stać na takie urządzenia. Obecnie już niemal każdy może sobie pozwolić na zakup nawigacji, a najlepszym drogowskazem podczas nabywania takich urządzeń są wszelkiego rodzaju rankingi.

Po pierwsze możemy stworzyć tzw. ranking popularności nawigacji. W takim razie będziemy zwracać uwagę na popularność konkretnych urządzeń. Popularność może być określona np. w oparciu o liczbę wpisywanych w wyszukiwarkę zapytań odnoszących się do konkretnego modelu, bądź w oparciu o ilość zamówień składanych w konkretnym sklepie, albo ilość wyświetleń produktów w konkretnej porównywarce cen. Możemy również stworzyć zbiorczy ranking nawigacji w oparciu o całkowity udział poszczególnych modeli w rynku. Ostatni pomysł wydaje się chyba najbardziej miarodajny.

Porównywać możemy nie tylko popularność nawigacji, ale również ceny. Ten sposób porównania urządzeń również jest pomocny. Teoretycznie za ceną powinna iść jakość urządzeń do pozycjonowania – nakład pracy nad opracowaniem konkretnych rozwiązań, wykorzystane materiały, określone możliwości urządzeń. Tutaj powinniśmy jednak uważać gdyż nie zawsze jakość urządzeń idzie w parze z ich ceną. Nie mam tutaj bynajmniej na myśli złej woli producentów urządzeń, chociaż pewnie i takie sytuacje się zdarzają, a przypadki gdy produkt mimo dużego nakładu pracy oraz równomiernie podążających za tym kosztów jest produktem nie spełniającym wymagań klientów.

Ostatnią metodą tworzenia rankingu nawigacji może być ranking powstały w wyniki przeprowadzenia mniej, lub bardziej specjalistycznych testów. Na czym to polega? Nawigację taką „rozbieramy” na poszczególne elementy funkcjonalne. Innymi słowy sprawdzamy czy takie urządzenie posiada np. radio, odtwarzacz mp3, możliwość wyświetlania map w 3D, interfejs Bluetooth, wejście na kartę pamięci i tak dalej. Za nim to jednak zrobimy, poszczególnym funkcjom przypisujemy określoną ilość punktów. Jeżeli urządzenie posiada określoną funkcjonalność, którą bierzemy pod uwagę, to nasze urządzenie dostaje określoną ilość punktów. Taki test przeprowadzamy dla wszystkich urządzeń. Trzeba przyznać, że jest to trochę pracochłonne zajęcie. Jednak po jego zakończeniu dostajemy ładnie wyglądające zestawienie, gdzie każda nawigacja jest scharakteryzowana za pomocą tylko jednej liczby. Tak utworzony ranking na pewno będzie przydatny, jednak czy do końca miarodajny? Przecież nie każda funkcjonalność urządzenia jest istotna w takim samym stopniu dla każdego.

---

Jeżeli chciałbyś przejrzeć najnowszy ranking nawigacji, to zapraszam na prezentowaną stronę. Znajdziesz tam zawsze aktualne zestawienie urządzeń -  http://www.technologiagps.org.pl/ranking-nawigacji.htm


Artykuł pochodzi z serwisu www.Artelis.pl

Co wybrać – telewizor LCD czy plazma?

Autorem artykułu jest Michał Kaszta



Za każdym razem kiedy wchodzę do dużego sklepu RTV zadaje sobie jedno pytanie – gdzie się podziały telewizory CRT? Jeszcze niedawno próżno było szukać na półkach telewizorów Full HD, a jeśli już się znajdowało – okazywało się, że trzeba za niego zapłacić kilkadziesiąt tysięcy pln!

Z czasem telewizory LCD i plazmowe wyparły z półek monstrualne i ciężkie telewizory CRT. Kupując telewizor mamy olbrzymie perspektywy wyboru – a to, wbrew pozorom, czasami nie ułatwia decyzji. Pojawia się kolejne pytanie – plazma czy LCD?
Obydwie technologie mają zarówno zalety jak i wady, aby wybrać telewizor odpowiedni dla siebie trzeba ustalić najpierw swoje potrzeby i warunki domowe. Przyjrzyjmy się więc czym tak naprawdę różnią się te dwie technologie:

Telewizory LCD
Plusy:
- Mniejszy pobór energii
- Mniejsze odbijanie światła
- Większa ostrość obrazu
Minusy:
- Gorsze odwzorowanie czerni
- Chłodniejsze kolory, mniej naturalne
- Gorszy kąt oglądania

Telewizory plazmowe
Plusy:
- Bardziej naturalne kolory
- Mniejsze smużenia obrazu – lepsza częstotliwość odświeżania
- Większa tolerancja dla słabej klasy sygnału
- Głębsza czerń
Minusy:
- Większe zużycie energii
- Efekt wypalenia ekranu – dotyczy głównie starszych modeli
- Odbija światło znacznie mocniej
- Mniejsza ostrość obrazu

Czas na podsumowanie suchych faktów.

Jeżeli oglądasz głównie filmy Divx, lub sygnał jakości SD (jak np. zwykła kablówka) – zapomnij o LCD. Telewizory LCD, szczególnie Full HD, słabo radzą sobie z sygnałem niskiej klasy. Największe znaczenie ma tutaj czas reakcji matrycy, który w porównaniu do telewizorów plazmowych jest wielokrotnie wyższy, co wytwarza uciążliwe smużenie. Do tego trzeba wziąć pod uwagę fakt, że niewielki realny kąt patrzenia skutecznie popsuje dobrą rozrywkę w większym gronie.

Dokładnie przeciwnie jest w przypadku osób korzystających z konsoli do gier, często korzystających z telewizora w przeciągu dnia i tych nerwowo śledzących kosztów za prąd – tym osobom stanowczo odradzam wybór telewizora plazmowego. Telewizory PDP co prawda lepiej radzą sobie ze słabym sygnałem, ale w zamian za to posiadają duży apetyt na prąd – rachunki mogą zdziwić. W ciągu słonecznego dnia skutecznie odciągnie nas od rozrywki odbijane światło, a w starszych modelach może dojść do wypalenia ekranu – zdarzały się przypadki wypalenia loga stacji, którą użytkownik oglądał najchętniej.

Czymkolwiek kierujesz się przy wyborze nowego TV, pamiętaj – nigdy, ale to nigdy nie wybieraj telewizora tylko na bazie parametrów na sklepowej cenówce. Po pierwsze, producenci wykorzystują mnóstwo sztuczek, mających na celu wprowadzenie klienta w błąd. Najlepszym przykładem jest serwowanie wartości kontrastu dynamicznego, zamiast statycznego. Nie jest to co prawda okłamywaniem klienta, ale kontrast dynamiczny nie ma się nijak do rzeczywistości, tylko wartości robią wrażenie.
Tak samo jest w przypadku wyboru przekątnej ekranu. Najczęściej nie trzeba wiele dopłacić, aby zamiast 32’’ nabyć wiele większy rozmiar – polecam, oglądanie porządnego filmu na telewizorze na pół ściany jest bez wątpienia nieziemską rozrywką. Rozmyślajmy jednak przy tym racjonalnie – czy warunki nam na to pozwalają? Jaką odległość od TV do miejsca siedzenia mogę zorganizować?
Sędziwe telewizory CRT miały to do siebie, że bardzo zamęczały wzrok – działo się to za sprawą naprzemiennie wyświetlanego ekranu, niewidoczne ludzkim okiem mrugania o dużej częstotliwości bardzo fatygowały oczy. W nowych telewizorach technologia wyświetlania jest kompletnie inna, dlatego też inaczej trzeba spojrzeć na możliwą odległość TV od oczu. Najczęściej mówi się, że optymalną odległością do oglądania TV LCD albo plazmowego jest 1/10 jego przekątnej, czyli dla 40’’ są to 4 metry. Ja wyznaje inną teorię – dobierzmy rozmiar tak, żeby oglądając telewizję nie musieć ruszać głową w prawo i lewo. W praktyce odległość 3-3,5m absolutnie wystarcza nawet dla telewizorów 50’’.

Reasumując – zakup telewizora, choć dużo łatwiejszy niż niegdyś, wciąż wiąże się z wysokim wydatkiem. Dlatego przemyślmy naszą inwestycję bardzo precyzyjnie, określmy nasze wymagania i możliwości przed wydaniem pieniędzy. Wybór pomiędzy LCD czy plazmą okaże się najmniejszym kłopotem – nieważne co wybierzesz jakość i tak obali cię na kolana.
Warto także pamiętać, żeby przed zakupem zasięgnąć informacji na odpowiednich forach lub stronach WWW gdzie znajdziemy wszystkie telewizory, opinie, ceny i parametry. Nie ufajmy jedynie sprzedawcom.

PS. Uznałeś, że LCD to telewizor dla ciebie? A zastanawiałeś się już czym różni się LCD od LED?

---

Artykuł pochodzi z serwisu www.Artelis.pl

wtorek, 29 marca 2011

5 pytań o GPS

Autorem artykułu jest Krystian Wójcik



Obecnie najczęściej stosowanym systemem pozycjonowania satelitarnego jest amerykański system GPS. Wynika to w dużej mierze z jego zasięgu – obecnie całą Ziemię pokrywa sygnał z satelitów GPS. Tak dużego zasięgu nie posiada żaden inny system pozycjonowania satelitarnego. 

Wszystko jednak wskazuje na to, że w najbliższym czasie, globalnym zasięgiem będzie mógł poszczycić się rosyjski GLONASS oraz chiński Beidou. Jednak obecnie prym w nawigacji satelitarnej wiedzie GPS i to na nim właśnie chciałbym się skupić w tym artykule.

Czym jest system GPS?

Jest to system, który ma za zadanie umożliwić specjalnym urządzeniom (odbiornikom sygnału satelitarnego) wyznaczanie pozycji w czasie rzeczywistym. Odpowiednie oprogramowanie takiego urządzenia umożliwia również nawigację do celu. Ponadto urządzenia takie mogą podawać bardzo precyzyjny czas oraz dają możliwość pomiaru prędkości.

Kto zaprojektował ten system i po co?

System GPS został zaprojektowany przez amerykańskich naukowców. Miał on służyć amerykańskiemu wojsku i pod tym kontem był projektowany. Dopiero pewne wydarzenie nad ZSRR, a mianowicie zestrzelenie samolotu koreańskich linii lotniczych spowodowało, że Amerykanie podjęli decyzję o udostępnieniu tej technologii cywilom.

Jakie elementy tworzą GPS?

System ten posiada trójelementową budowę. Elementy te zwane są segmentami. Najbardziej zaawansowanym segmentem jest segment kosmiczny, który tworzą 32 satelity. Kontrolę nad całym systemem sprawuje segment nadzoru, zwany również segmentem kontroli. Jak sama nazwa wskazuje, ten element GPS odpowiada za nadzorowanie pracą całego systemu. Przede wszystkim chodzi tutaj o nadzorowanie siecią satelitów. Ostatnim segmentem jest segment użytkownika, czyli wszelkiego rodzaju odbiorniki.

Jakie zastosowania posiada GPS?

Zastosowania tej technologii tak naprawdę ograniczone są tylko przez naszą wyobraźnię. System ten możemy stosować wszędzie tam, gdzie wymagane jest wyznaczanie pozycji, lub nawigacja do celu. Możemy więc tutaj przytoczyć chociażby nawigację samochodową, transport drogowy, geodezję, archeologię, fotogrametrię, kartografię, rolnictwo, żeglugę oraz lotnictwo.

Jaka jest dokładność technologii GPS?

Temat ten budzi wiele kontrowersji, ponieważ nie ma jakiejś precyzyjnego systemu, który określałby ten parametr. Zwykle jednak możemy liczyć na dokładność rzędu kilku, lub kilkunastu metrów. Wszystko zależy od jakości odbiornika oraz ilości widocznych satelitów. Jednak w ściśle określonych sytuacjach możemy liczyć na dokładność rzędu kilku milimetrów! Sytuacja taka ma miejsce, gdy skorzystamy z lokalnych stacji referencyjnych. W Polsce taki system nazywa się ASG-EUPOS.

---

www.technologiagps.org.pl


Artykuł pochodzi z serwisu www.Artelis.pl

czwartek, 10 marca 2011

Samsung Wave II, wciąż kultowy?

Autorem artykułu jest newCreative



Pojawił się w końcu na rynku długo oczekiwany następca kultowego poprzednika, Samsung Wave II. Telefon ten od samego początku budzi spore kontrowersje, chociażby ze względu na wyposażenie, które jest uboższe od czasów pierwowzoru.

Z niewiadomych przyczyn zrezygnowano z wyświetlacza Super AMOLED, który był jednym z ojców sukcesu „jedynki”. Zamiast tego zastosowano multidotykowy 3,7 calowy ekran Super Clear LCD, co według początkowych opinii jest krokiem w tył, który nie przekona dotychczasowych użytkowników Wave’a do przesiadki na nowszy model. Czy tak będzie w rzeczywistości, czas pokaże.

Pozostając przy względach czysto technicznych, wspomnieć należy, że najnowszy Wave wyposażony jest w układ Hummingbird o taktowaniu 1 GHz, 512 MB pamięci RAM oraz aparat 5 Mpix z podwójną lampą diodową, dzięki któremu możemy robić zdjęcia oraz nagrywać filmy w jakości HD. Zdecydowanym plusem jest także zamontowana w tym modelu nawigacja Assisted-GPS. Na tym jednak zalety nowego Samsunga się nie kończą. Jedną z nowości jest narzędzie Social Hub. Część z Was zapewne już się domyśla jakie to udogodnienie sprezentowała nam koreańska firma. Otóż system ten pozwala nam na zarządzanie w pełni całą posiadaną przez nas bazą kontaktów mailowych a także kontaktami zgromadzonymi w komunikatorach oraz portalach społecznościowych. W nowym smartfonie możemy więc kontrolować wszelkie dane za pomocą jednej tylko książki adresowej. Otrzymujemy elektronicznego asystenta, który napewno ułatwi nam codzienne kontakty ze światem.

Ostatnią z nowości jest nowy OS bada w wersji 1.2, który jak się okazuje mimo początkowych zapewnień nie jest tym, co zachęcić mogłoby do zmiany swojego telefonu na ten właśnie model. Zastosowano w nim usługę QuickType t9 Trace, która pozwala na szybsze i sprawniejsze pisanie smsów niż dotychczas. Okazuje się jednak że zastosowaną tu platformę bez najmniejszego problemu ściągnąć można z Internetu oraz zainstalować w starszej wersji Wave. Dzięki temu, a raczej przez to, nowy Samsung traci wszelkie atuty, które mogły przekonać mnie do tego modelu. Nie wróżę mu więc świetlanej przyszłości, a już napewno nie osiągnie takiego sukcesu, jaki osiągnął jego poprzednik. Tymbardziej, że zdecydowanie przewyższa go cenowo, nie oferując w zamian nic, co przekonałoby do wydania takiej sumy pieniędzy.

---

newCreative - Centrum eBiznesu

Biznes Forum

Praca przy komputerze


Artykuł pochodzi z serwisu www.Artelis.pl

Pierwszy na świecie telefon w technologii 802.11n

Autorem artykułu jest PiterZG



Ascom wprowadził na rynek nowej generacji VoWi-Fi bez­przewodowy telefon Ascom i62. Rozwiązanie Ascom oznacza niezależność od producenta sieci WLAN, łatwe wdrożenie i skalowalność, jak również zdolność do integracji i komunikowania się z szeroką gamą zewnętrznych źródeł informacji.

Ascom i62Ascom wprowadził na rynek nowej generacji VoWi-Fi bez­przewodowy telefon Ascom i62. Ma on elegancki design, wysokiej rozdzielczości kolorowy wyświetlacz TFT, wysoki stopień ochrony przed wodą i zanieczyszczeniami (IP-44), dłuższy czas pracy baterii oraz wiele innych ulepszeń. Po­dobnie jak pozostałe telefony bezprzewodowe Ascom, i62 ma funkcję zdalnego programowania (OTA) i został prze­testowany do współpracy z różnymi sieciami Wi-Fi. Urządzenie zapewnia bezprzewodowy system transmisji głosu i wiadomości, ma wbudowane alarmy osobiste. Tele­fon pozwala na korzystanie z aplikacji lokalizujących poło­żenie użytkownika oraz na przesyłanie wiadomości, nie­zwykle przydatne zarówno w sytuacjach krytycznych, jak i codziennej pracy.

Ascom i62 to dobre rozwiązanie dla użytkowników dzięki interaktywnemu messagingowi Ascom, który integruje media stacjonarne, bezprzewodowe i mobilne, w tym alarmy i wiadomości, jak również bezprzewodowe systemy komunikacyjne, z publicznymi technologiami komunikacji, taki­mi jak GSM, e mail i internet. Ascom i62 zapewnia kom­patybilność z największymi dostawcami WLAN i dostosowuje swoje funkcje do wymagań. Niezależnie od tego, czy telefon podłączony jest do tradycyjnej centrali telefonicz­nej, czy nowoczesnego IP-PBX, czy przekazuje informacje z systemu przywoławczego, czy też z systemu monitorowania pacjenta, Ascom zapewnia optymalną integrację tych wszystkich systemów.

---

PiterZG


Artykuł pochodzi z serwisu www.Artelis.pl

Wybieramy ekrany projekcyjne

Autorem artykułu jest Karol Stopka



Jak wybierać ekrany projekcyjne? Na co zwrócić szczególną uwagę? I czy zawsze opłaca się wydawać tysiące złotych na najnowsze cuda techniki?

ekran projekcyjnyZałóżmy, że decyzja zapadła. Mamy projektor, teraz potrzebujemy ekranu, na którym będziemy wyświetlać prezentacje, slajdy, zdjęcia i filmy.

Zanim zaczniemy chodzić po sklepach lub przeglądać oferty handlarzy internetowych, przeprowadźmy prosty rachunek sumienia i zastanówmy się, do czego będziemy takiego projektowa używać i jakie powinien spełniać cechy. Odpowiedzmy sobie na pytanie, czy potrzebny jest nam projektor przenośny czy ścienno-sufitowy? Jeśli chcemy się z nim przemieszać lub nie bardzo możemy pozwolić sobie na umieszczenie czegoś na ścianie, powinniśmy wybrać ten pierwszy rodzaj projektorów. W przeciwnym razie możemy sięgnąć po ścienno-sufitowy. Zastanówmy się też, czy zależy nam na elektrycznym sterowaniu projektorem. To dość drogi bajer, niekoniecznie potrzebny w codziennym użytkowaniu. Ale jeśli chcemy robić wrażenie, możemy wydać trochę więcej.

Bardzo ważne jest znalezienie odpowiedzi na pytanie o cel używania projektora. Czy będzie ekranem do kina domowego czy raczej będą na nim prowadzone prezentacje? To ważne, bo zastosowanie warunkuje format ekranu.

Mogłoby się wydawać, że coraz większa popularność nowoczesnych ekranów panoramicznych oraz laptopów powinna przekładać się także na kształt ekranu projekcyjnego. Jest jednak inaczej. Jeśli chodzi o ekrany przeznaczone do prezentacji lepiej postawić na standard 4:3. Dlaczego? Bo mimo wszystko wciąż jeszcze dominuje sprzęt pracujący na takich proporcjach. Także większość oprogramowania lepiej sprawdza się właśnie na takich ekranach.

Przeznaczenie projektowa warunkuje miejscem, w którym będzie używany. Jeśli będzie to pomieszczenie ciemne, można wybierać ekrany projekcyjne o powierzchni białej i matowej. Jednak w przypadku jasnych pomieszczeń lepiej zdecydować się na te o powierzchni odbijającej światło.

Warto zastanowić się nad tym, jaka będzie dla nas najlepsza wielkość ekranu. W tym przypadku ważne jest, żeby obraz był czytelny. Jeśli planujemy używać naszego ekranu w małej grupie, jego rozmiar nie musi być duży. Jednak ekrany projekcyjne stosowane w salach o dużym audytorium powinny mieć przekątną powyżej 50 cali. Warto zastosować przy tym dość znaną zasadę: ostatni rząd oglądających nie powinien znajdować się dalej niż pięć długości przekątnej ekranu.

Dodatkowym elementem, nad którym warto się zastanowić są specjalne napinacze ekranów rozwijanych. Dzięki nim powierzchnia jest zawsze płaska i naciągnięta. Można je dodać do każdego rodzaju ekranu i w ten sposób podnieść jakość projekcji. W przeciwieństwie do niepotrzebnych bajerów taki wydatek może się opłacić.

Ostatnią kwestią, ale niekoniecznie najmniej ważną, jest wielkość budżetu, jaki możemy przeznaczyć na zakup ekranu. Jeśli mamy niewiele pieniędzy, wybierajmy ekrany projekcyjne bez zbędnych bajerów, za to wysokiej jakości. Jeśli mamy ich całą masę, możemy poszaleć.

---

Artykuł pochodzi z serwisu www.Artelis.pl

środa, 2 lutego 2011

Gadżet - co to takiego?

Autorem artykułu jest Mr.Yoso



Czym są gadżety, dlaczego je lubimy, co dla nas znaczą? Coraz więcej osób zadaje sobie te pytania, a jeszcze więcej z nas na codzień używa przedmiotów które spokojnie można nazwać gadżetami. Co więcej, stają się one nieodzownym atrybutem współczesnego człowieka.

Trudno jest jednoznacznie określić czym jest gadżet. Słownik współczesnego języka polskiego (1) podaje że gadżet to niewielki przedmiot związany z jakąś dziedziną stanowiący pamiątkę, lub będący reklamą czegoś… Inna definicja gadżetu – „niewielki przedmiot, zwykle nie pełniący funkcji użytkowej” również w pełni nie określa, co to tak naprawdę jest. Spróbuję pokrótce zapełnić tę lukę.

Szukając wyjaśnienia czym są gadżety, natkniemy się na różne podejścia do tematu, można je jednak podzielić na dwa dominujące nurty: marketingowy i technologiczny.

Z marketingowego punktu widzenia gadżet to niewielki przedmiot, przyrząd, lub urządzenie, czasem niepełniący żadnej funkcji użytkowej za to kojarzący się bezpośrednio z firmą lub jej działalnością. Gadżetami mogą być więc najprostsze rzeczy takie jak, reklamówki, figurki, podstawki, przyciski do papieru, długopisy, czy breloczki. Zadaniem gadżetów firmowych jest przede wszystkim wytworzenie więzi emocjonalnej z klientem, budowanie pozytywnego wizerunku firmy, kreowanie określonych skojarzeń czy po prostu przypominanie o danej firmie. Tego typu gadżety, dla klienta darmowe, traktowane są jak jeden z dostępnych firmie nośników reklamowych, który docierając do klientów w formie darmowego prezentu ma wywołać określony efekt. Materiały tego typu są zazwyczaj zaopatrzone w logotyp - znak towarowy lub markę (brand) stanowiące nazwę, termin, symbol, napis, wzór albo ich kombinację, kompozycję kolorystyczną lub zestawienie wszystkich tych elementów wykorzystywane w celu odróżnienia danego produktu od produktów konkurencyjnych.  Najwcześniejsze przykłady znakowania miały miejsce w sztuce. Już w czasach starożytnych wielu malarzy i rzeźbiarzy podpisywało wykonane przez siebie prace, a rzemieślnicy od wieków nadawali charakter osobisty swoim produktom, podpisując je lub używając jakiegoś wyróżniającego ich prace symbolu.

Z technologicznego punktu widzenia gadżetami mogą być narzędzia, telefony i inne urządzenia elektroniczne, programy komputerowe, czy zaawansowane technologicznie zabawki, za którymi stoi najnowsza myśl techniczna, innowacja czy niekonwencjonalne podejście do tematu, a które z prostotą działania (i darmowością) nie mają nic wspólnego. Celem tego typu przedmiotów, poza samą użytecznością, może być zrobienie wrażenia, zaszokowanie, zadziwienie, a często po prostu dostarczenie rozrywki. W drugiej połowie XX wieku słowo gadget zaczęto kojarzyć z przedmiotem, który łączy w sobie takie cechy jak kompaktowość, mobilność, użyteczność (w stosunku do małych rozmiarów), a także łatwość obsługi. Idealnym przykładem takich gadżetów są szwajcarskie scyzoryki czy multitoole.

Gadżety są obecne w naszym życiu praktycznie zawsze, i często nie moglibyśmy się bez nich obyć,  podobnie jak choćby bez telefonów komórkowych, komputerów czy internetu. Można więc powiedzieć, że sporo dla nas znaczą. Są nawet ludzie którzy z polowania na gadżety związane ze swoimi ulubionymi  „tematami” uczynili część swojego życia i których kolekcje wyceniane są na ogromne sumy. Gadżety filmowe, reklamowe, związane z grami komputerowymi, popularnymi miejscami, znanymi ludźmi, ułatwiające i inspirujące poznawanie świata, oraz  zwyczajnie dostarczające rozrywki, stały się więc nierozerwalną częścią naszej rzeczywistości.

 

Źrodła:

(1) wyd. Readers digest, 1998

---

Autorem tekstu jest: Mr.Yoso


Artykuł pochodzi z serwisu www.Artelis.pl

Pendrive

Współczesny rozwój technologii niezwykle ułatwia nam życie. Jeszcze kilkadziesiąt lat temu nikt myślał o tym, że będzie możliwe przechowywanie wszelkich danych na niewielkich nośnikach pamięci. Jeszcze jakiś czas temu triumf święciły dyskietki. Potem nadeszła era płyt CD, a dziś nośniki pamięci mieszczą się bez trudu w kieszeniach.

Taką możliwość daje nam pendrive – niewielkie urządzenie, które w dzisiejszych czasach bywa niezbędne.


Czym jest pendrive?
Pendrive to nic innego jak pamięć przenośna USB. Umożliwia nam przechowywanie danych. Specjalna konstrukcja urządzenia, poprzez port USB, umożliwia transportowanie danych między komputerem oraz wszelkimi innymi urządzenia, które wyposażone są w wejście USB.

Polska nazwa pendrive przyjęła się najprawdopodobniej od słów pen (długopis) i driver (napęd). Tak bowiem wyglądają najbardziej klasyczne nośniki danych. Swoim wyglądem mogą bowiem przypominać króciutki długopis ze skuwką.

W zależności od wersji USB oraz od szybkości pamięci Flash, urządzenia pendrive mogą mieć różną szybkość.

Różna jest również pojemność takiego urządzenia. Kiedyś „ze świecą” można było szukać pamięci o dużej pojemności. W dzisiejszych czasach na rynku znajdziemy mnóstwo urządzeń typu pendrive z pamięcią 512 MB, 1 GB, 2 GB, 4 GB, 8 GB, 16GB, 32GB, 64GB, 128GB. Istnieją także nośniki o pojemności 256GB („równowartość” mniej więcej 160 filmów w jakości dvd, trwających około 90 minut!).

Jak działa pendrive?
Warto wiedzieć, że pendrive to urządzenie typu Plug&Play. Znaczy to tyle, że urządzenie takie jest w stanie pracować zaraz po podłączeniu go do komputera bądź innego urządzenia z wejściem USB.

Do wyboru do koloru
W związku z tym, że pendrive’y są niezwykle funkcjonalne i nikt nie wyobraża sobie bez nich życia, urządzenia stale dostosowywane są do potrzeb użytkowników. Obecnie ich rozmiary są tak małe, że bez trudu zmieszczą się w maleńkiej kieszeni.

Wychodząc naprzeciw oczekiwaniom, producenci pendrive’ów dwoją się i troją, by czymś zaskoczyć swoich potencjalnych klientów. Urządzenia można wybierać nie tylko ze względu na szybkość, czy pojemność. W dzisiejszych czasach na porządku dziennym są pendrive’y w różnych kształtach i kolorach. Poza klasycznymi kształtami, można spotkać się z postaciami zwierząt, owoców, warzyw. Nowoczesne pendrive’y cechuje także bogata kolorystyka. Ostatnimi czasy popularne są urządzenia, które mogą spełniać rolę kreatywnych zabawek – można je dowolnie łączyć ze sobą tak, jak łączy się klocki.

W sprzedaży dostępne są pendrive’y, które mają nie tylko niebanalne kształty czy kolory, ale także wykonane są z różnych materiałów. Plastikowe urządzenia to już standard. Dziś w sprzedaży znajdują się nośniki gumowe, drewniane, skórzane, a nawet metalowe.

Bezpieczeństwo danych na pendrive’ach
Pendrive’y to urządzenia, które są niezwykle odporne na wstrząsy i upadki. W sklepach można nabyć także wersje, które odporne są na wodę i ogień. Dzięki temu ryzyko utraty danych jest niewielkie.

Drugą kwestią pozostaje ochrona danych przed osobami niepowołanymi. W sprzedaży dostępne są urządzenia, które mają wbudowane specjalne oprogramowanie wymagające wpisania hasła przed użyciem. Można nabyć także pendrive’y, które wyposażone są w czytnik linii papilarnych. Dzięki temu odczytanie przechowywanych danych jest niemożliwe przez osoby do tego nieupoważnione.


Źródło: Pendrive - izabela

Kupujemy projektor multimedialny

Można wydać kupę pieniędzy na telewizor. Można wydać jeszcze więcej na ekran wielkości kilkudziesięciu cali. Ale żaden z nich nie da Ci wrażenia wizyty w sali kinowej. To może zapewnić projektor multimedialny. Pytanie – jak go wybierać?

Rozdzielczość
Jedną z podstawowych cech, na którą każdy wybierający projektor multimedialny zwraca uwagę jest jego rozdzielczość. Można naturalnie decydować się na wartości maksymalne i kupować takie urządzenia, które na papierze oferują największą rozdzielczość, ale będzie to działanie nie do końca pragmatyczne. Może się bowiem okazać, że w jego wyniku kupimy sprzęt nie odpowiadający naszym potrzebom.

Jeśli planujemy wykorzystywać projektor multimedialny do stworzenia kina domowego, wystarczy nam rozdzielczość WVGA, czyli 854 na 480. Jeśli chcemy, żeby filmy wyświetlały się w lepszym niż DVD standardzie, powinniśmy sięgnąć po projektory o rozdzielczości WXGA, czyli 1280 na 720. Inaczej będzie, jeśli naszym celem będzie używanie projektora na dużej sali. Wówczas lepiej wybrać większą rozdzielczość, co powinno zapewnić odpowiednią jakość obrazu.

Kontrast
Realna wartość kontrastu podawana wg miary ANSI to 450:1. I takie wymagania spełnia większość projektorów. Co więcej, wystarczy ona do oglądania filmów w obrazie wysokiej jakości. Oczywiście, można szukać sprzętu o lepszych parametrach jednak nie zawsze będzie to sensownym wyjściem.

Żywotność lampy
Ile godzin filmów wytrzyma projektor multimedialny? To dobre pytanie. Standardowo – około 2 tysięcy. W trybie ekonomicznym można dorzucić jeszcze tysiąc. Wybierając sprzęt warto zwrócić uwagę na ten parametr i nie decydować się na taki, który ma niższą żywotność lampy. Jeśli tak będzie, dość szybko zostaniemy zmuszeni do wymiany projektora.

Poziom hałasu
Dźwięk wysokiej jakości, głośniki warte masę pieniędzy – to wszystko może nie dać odpowiedniego efektu, jeśli zakłócone będzie głośną pracą projektora. Dobrze jest więc sprawdzić, jaki hałas emituje sprzęt zanim dokonamy zakupu.

Waga i wielkość
Kto szuka projektora przenośnego, który będzie mógł schować do teczki i zabrać do kontrahentów lub znajomych, ten powinien zwrócić szczególną uwagę na tę właśnie cechę Dla reszty jest to sprawa drugorzędna. Ważne, żeby projektor pasował do miejsca na półce, które dla niego wyznaczyliśmy.

Gwarancja
Podobnie jak w przypadku żywotności lampy, także gwarancja ma znaczenie dla każdego, kto nie chce zbyt szybko płacić za to samo. Dziś większość producentów udziela jej na 24 lub 36 miesięcy. Jednak uwaga: na lampy udzielana jest o wiele krótsza gwarancja, nie przekraczająca często trzech miesięcy lub dwustu godzin pracy.

Cech, na które warto zwrócić uwagę jest wiele. Najważniejsze jednak, żeby dokonywać wyboru świadomie. Wiedząc, jakie są nasze oczekiwania i na co stać sprzęt będziemy w stanie świadomie zdecydować o tym, jaki projektor sprawdzi się w naszym przypadku. Bez ulegania marketingowym chwytom.


Źródło: Kupujemy projektor multimedialny - Karol Stopka

GPS - wprowadzenie

Autorem artykułu jest Krystian Wójcik



Technologie kosmiczne fascynują nas od początku swojego istnienia. Trudno się temu dziwić. Każdy z nas chyba pamięta filmy z Jamesem Bondem, kiedy to za pomocą satelitów brytyjski wywiad szukał "wrogów państwa". Co prawda takiej możliwości nie mają cywile, ale możemy poczuć „powiew kosmosu” dzięki GPS.

GPS to akronim słów Global Positioning System co w języku polskim oznacza Globalny System Pozycjonowania. Wyraz globalny nie jest żadnym stwierdzeniem na wyrost. GPS zapewnia praktycznie stuprocentowe pokrycie swoim zasięgiem Ziemi. Dokładniej, z prawdopodobieństwem 0,9996 z każdego miejsca na Ziemi widocznych jest co najmniej 5 satelitów, a jak wiadomo do prawidłowego działania wymagana są przynajmniej 4 satelity widoczne przez odbiornik w tym samym czasie (pozwala to określić pozycję w 3 wymiarach).  

 GPS nie jest jakąś specjalnie nową technologią. Początków systemu GPS, ale również innych systemów pozycjonowania satelitarnego, możemy dopatrzyć się już w latach 50. ubiegłego stulecia. Historia ta jest dosyć często przytaczana, kiedy mówimy o genezie GPS. Mianowicie był rok 1957. W roku tym grupa amerykańskich uczonych obserwowała radzieckiego satelitę Sputnik 1. Był to czas "zimnowojennego” napięcia pomiędzy USA, a ZSRR. Lata pięćdziesiąte były początkiem wyścigu zbrojeń, który przejawiał się między innymi w rozwoju technologii kosmicznych. Sputnik 1 był natomiast pierwszym sztucznym satelitą Ziemi. Amerykanie nie wiedzieli zbytnio z czym mają do czynienia, więc zlecili naukowcom, aby sprawdzili czy satelita ten jest jakimś zagrożeniem dla Stanów Zjednoczonych, bądź jego sojuszników. Uczeni odbierając sygnał radiowy, który był emitowany przez satelitę wpadli na pomysł, aby wykorzystać satelity, a w zasadzie sieć satelitów do wyznaczania pozycji na Ziemi.

 Zanim rozpoczęto właściwe prace nad GPS, opracowano inne systemy pozycjonowania o charakterze wojskowym. Był to między innymi system Transit, który opracowany był dla potrzeb marynarki wojennej Stanów Zjednoczonych. Kolejnym systemem, który wykorzystywał satelity do pozycjonowania był TIMATION. Kolejne prace nad systemami pozycjonowania satelitarnego wiążą się już bezpośrednio z GPS, który jak i inne tego typu tworzony był z myślą o wojsku.

 GPS to wbrew pozorom jakie mogą wyniknąć z prostoty korzystania z urządzeń do pozycjonowania satelitarnego, bardzo zaawansowana technologia. Prace nad nim rozpoczęły się w roku 1973, a pełną operatywność GPS osiągnął dopiero w roku 1995. Jednak to nie oznaczało, że zakończyły się prace nad nim. Nic bardziej mylnego. GPS-Navstar wymaga ciągłej konserwacji i nadzorowania. Ciągle wystrzeliwane są nowe satelity, aby zastąpić stare i zużyte, bądź z powodu zaimplementowania jakichś nowych rozwiązań. Aby tak naprawdę uzmysłowić sobie z jak skomplikowanej technologii korzystamy warto przeczytać poniższy nagłówek.

 Struktura GPS sprawia, że każdy z nas fizyczny kontakt ma tylko z małą częścią tej technologii, a mianowicie z odbiornikiem sygnału radiowego. A tak naprawdę jest to ta najmniej zaawansowana część nawigacji satelitarnej, która posiada trójelementową strukturę, w której wyróżniamy segment kosmiczny, segment użytkownika oraz segment kontroli. Odbiorniki to urządzania tak zwanego segmentu użytkownika. Dużo ważniejszy jest segment kosmiczny, który tworzy złożona sieć satelitów nawigacyjnych, których zadaniem jest nieprzerwane emitowanie sygnału, który następnie odbierany jest przez poszczególne odbiorniki. Dla wyznaczania pozycji niezwykle istotny jest bardzo precyzyjny pomiar czasu, dlatego każdy satelita wyposażony jest w zegar atomowy. Ostaniem elementem GPS jest segment kontroli, który zwany jest również segmentem nadzoru. Zadaniem tego segmentu jest, jak sama nazwa wskazuje, ciągły nadzór pracy poszczególnych satelitów. Przede wszystkim chodzi tutaj o kontrolę orbit satelitów, jednak nie tylko.

---

Wójcik K. - więcej wiadomości o GPS, a także innych systemach pozycjonowania satelitarnego znajdziesz na > GPS - technologiagps.org.pl 


Artykuł pochodzi z serwisu www.Artelis.pl

środa, 12 stycznia 2011

Narodziny video

Autorem artykułu jest agata



Mówiąc najprościej video to technika umożliwiająca zapisywanie obrazu oraz dźwięku, z możliwością natychmiastowego ich odtwarzania.Słowo wywodzi się z języka łacińskiego gdzie video oznacza -widzieć, patrzeć, ale określa także rodzaj twórczości audio- wizualnej przy użyciu kamer video.

 

Wszystko zaczęło się w 1952 roku. Wtedy to BBC opracowało system VERA – (Vision Electronic Recording Apparatus), który stał się popularyzatorem rodzącej się technologii. System ten oparty był na nieruchomych głowicach, które odczytywały nawiniętą na szpulę taśmę. Poruszała się ona z zawrotną prędkością kilku metrów na sekundę przez co możliwe było nagrywanie jedynie krótkich, maksymalnie 15-to minutowych, czarno-białych filmów, o słabej jakości i chwiejnym obrazie.

W 1956 roku pojawił się system SECAM – pierwszy system kolorowej telewizji zastosowany w Europie. Został opracowany w zakładach Thomson we Francji, jako wynik francuskich aspiracji do stworzenia własnego standardu. Mniej więcej w tym samym czasie opracowano inny system nadawania koloru – PAL – tym razem w Niemczech. Oba systemy zastosowano po raz pierwszy w 1967 roku.

1969 rok to pojawienie się pierwszej, zamkniętej w kasecie taśmy. Pierwszym zastosowanym formatem był VCR ( Video Casette Recording ), zaproponowany w 1972 roku przez firmę Philips. Był on pierwowzorem późniejszych kaset VHS (Video Home Sytsem). Jednocześnie ten format wygrał z innym, amatorskim systemem nagrywania -Betamax. O porażce zdecydowała zbyt wysoka cena i brak promocji Betamaxu.

1982 rok to pojawianie się VHS w wersji mini, mianowicie VHS-C. Dzięki mniejszemu formatowi kaset wykorzystywano ją powszechnie w domowych kamerach.

Pięć lat później pojawił się kolejny format S-VHS (Super-VHS) Oznaczał on przede wszystkim zwiększanie częstotliwości, co zwiększyło rozdzielczość i wpłynęło na poprawę jakości oglądanych materiałów.

1993 to przełom i pojawienie się dysku Video CD ( Video Compact Disc) jako nośnika dla materiałów video, i jako poprzednika płyt DVD. Jakość obrazu VCD miała być podobna do tej z VHS, ale z powodu mniejszej rozdzielczości jakość obrazu była gorsza niż na nie zużytej kasecie VHS. Z kolei format VCD zapewnił taką samą jakość filmów bez względu na ilość i częstotliwość ich odtwarzania.

W 1994 roku pojawiły się pojęcia: Standard Definition: telewizja o standardowej rozdzielczości, w formacie cyfrowym, oraz High Definiotion – co oznaczało telewizję wysokiej rozdzielczości. Najszybciej została ona uruchomiona w Japonii i Stanach Zjednoczonych. Obecnie jest popularna w większości krajów europy. Zwiększona rozdzielczość oznacza większą ilość pikseli co sprawia, że obraz jest dokładniejszy, a wszystkie szczegóły są bardziej widoczne.

Dwa lata później pojawił się DVD(Digital Video Disc lub Digital Versatile Disc ).Jakość zapisu podobna jest do tej CD, ale dzięki zwiększeniu gęstości zapisu uzyskano o wiele większą pojemność.

O tytuł następcy formatu DVD walczyły technologie HD DVD i Blu-ray, Zwycięzcą został ten drugi,który na rynek wszedł w 2002 roku. HD DVD nie przyjęło się na rynku. System Blu-ray po raz pierwszy zastosowano w Japonii. Dzięki uzyciu niebieskiego lasera umożliwia zapisanie ogromnej ilości danych, dodatkowo daje możliwość zapisania materiałów video aż w trzech formatach.

Już zapowiadane jest pojawienie się nowego formatu Green-ray Disc – zapisywanego przy pomocy zielonej wiązki lasera, co ma umożliwić zapisywanie jeszcze większej ilości danych niż na dysku Blu-ray

2005 rok pojawianie się serwisu YouTube.YouTube stał się nie tylko kamieniem milowym dla rozwoju video w sieci.Obecnie oglądalność sięga ponad miliarda filmików dziennie!!!Co minutę pojawia się prawie 24 godziny nagrań.

---

agata b.


Artykuł pochodzi z serwisu www.Artelis.pl

Koniec GPS?

Autorem artykułu jest Adrian Gamrot



Medialną burzę wywołał raport Amerykańskiego Rządowego Biura Obrachunkowego (GAO) z 30 kwietnia tego roku. Czytamy w nim alarmujące wieści, iż już w przyszłym roku działanie systemu GPS może zostać poważnie zaburzone. Jednak czy rzeczywiście mamy powody do paniki?
Medialną burzę wywołał raport Amerykańskiego Rządowego Biura Obrachunkowego (GAO) z 30 kwietnia tego roku. Czytamy w nim alarmujące wieści, iż już w przyszłym roku działanie systemu GPS może zostać poważnie zaburzone. Jednak czy rzeczywiście mamy powody do paniki?

Amerykański system nawigacji satelitarnej zrobił w ostatnich latach niesamowitą karierę. Na popularyzację odbiorników GPS niewątpliwy wpływ miał spadek ich cen, dzięki czemu przeciętny Kowalski mógł pozwolić sobie na zakup takiego urządzenia. Nawigacja powoli staje się częścią standardowego wyposażenia każdego samochodu. Do tego pojawiły się telefony komórkowe wyposażone w odbiornik GPS, co sprawiło, że już niemal każdy miał z tym systemem bezpośrednią styczność. Nawigacja staje się nieodłącznym elementem naszej codzienności. Czy to się może zmienić?

Raport GAO wskazuje na opóźnienia w realizacji wartego, bagatela ponad 2 miliardy dolarów programu naprawczego. W planach pierwsze satelity miały zostać wymienione już w 2007 roku, jednak nie udał się tego uczynić do dziś. Raport zawiera również ostrzeżenie, że jeżeli Amerykańskie Siły Powietrzne nie podejmą odpowiednich działań, to już w 2010 roku wysłużone satelity zaczną opuszczać swoją orbitę. Co ciekawe przewidziany przez konstruktorów czas eksploatacji satelitów wynosi 10-11 lat, a niektóre z nich spędziły w przestrzeni już ponad 20 lat.

Czy grozi nam krach nawigacji satelitarnej?

Mimo, że GAO stwierdziła, że nie jest pewne, czy siły powietrzne będą w stanie wystrzelić nowe satelity na czas i zapewnić ciągłość usług komunikacyjnych to warto wziąć pod uwagę fakt, że korzystanie z systemu GPS jest coraz bardziej popularne. Światowy rynek GPS w 2013 roku osiągnie liczbę 900 milionów sprzedanych urządzeń. Systemu używa wojsko, geodeci, transport oraz zwykli ludzie.

Duży odsetek użytkowników znajduje się na terenie samych Stanów Zjednoczonych. Czy rząd USA ma zamiar zostawić swoich wyborców z niczym? Czy jest możliwe, że przez opieszałość urzędników czy niesolidność podwykonawców tak przydatny i użyteczny system przestanie działać? Czy ktokolwiek może przypuszczać, że taka potęga militarna jak Stany Zjednoczone może sobie pozwolić, żeby z dnia na dzień może zostać pozbawiona systemu nawigacyjnemu? Spowodowałoby to paraliż całej armii. Żadna rakieta nie trafiła by w cel, samoloty miałyby problemy z dotarciem na lotnisko. Otóż nie. Amerykanie zrobią wszystko, by system pracował bez zakłóceń. Start rakiet z nowymi satelitami przewidziany jest na listopad bieżącego roku.

Co prawda GPS ma konkurencję w postaci rosyjskiego Glonass-u, europejskiego Galileo, czy chińskiego Compass-u, jednak nie sądzę żeby te systemy osiągnęły pełną funkcjonalność i pokrycie całego globu wcześniej niż w 2013 roku. Nie wydaje mi się również, żeby Amerykanie zgotowali nam i sobie 3 lata „ciemności” nawigacyjnej.

Wniosek jest prosty. GPS musi działać. Amerykański rząd wie o tym najlepiej, dlatego woli dmuchać na zimne i alarmuje póki jest na to czas. Oczywiście pewności nigdy nie ma. Dlatego może warto zainteresować się odbiornikami odbierającymi sygnały zarówno amerykańskich, jak i rosyjskich satelitów (więcej tutaj) i być gotowym na każdą ewentualność?

Źródło: www.gao.gov
---

Autor artykułu jest redaktorem naczelnym serwisu goGPS, w którym zbierana jest cała dostępna wiedza o nawigacji satelitarnej.
goGPS - nawigacja dla Ciebie


Artykuł pochodzi z serwisu www.Artelis.pl

wtorek, 11 stycznia 2011

Nawigacja GPS - krótka historia

Autorem artykułu jest Krystian Wójcik



Czy korzystając z nawigacji GPS zastanawiałeś się kiedykolwiek jakie były jej początki? Nawigacja GPS tworzona była z myślą o zastosowaniach militarnych. Dopiero pewne tragiczne wydarzenie spowodowało, że zdecydowano się ją udostępnić cywilom.

Nawigacja GPS – narodziny koncepcji

Początków nawigacji GPS możemy doszukać się już w roku 1957. Mimo, że zdarzenie to nie jest początkiem prac nad nawigacją GPS, to uznajemy je za początek prac nad systemami nawigacji satelitarnej. Co wydarzyło się w 1957 roku? Naukowcy  z John Hopkins University w Baltimore, obserwowali radzieckiego satelitę Sputnik 1. Celem ich obserwacji miało być zbadanie, czy ta radziecka satelita zagraża w jakimś stopniu bezpieczeństwu Stanów Zjednoczonych. Trochę przypadkowo naukowcy ci odkryli, że sygnał satelitarny może być wykorzystywany do lokalizowania pozycji. To wydarzenie spowodowało rozpoczęcie prac nad systemem nawigacji satelitarnej.

Pierwszym systemem nawigacji satelitarnej była nawigacja TRANSIT. Powstała ona na początku lat 60. ubiegłego wieku. System Transit wykorzystywał 5 satelitów i potrzebował kilku godzin do aktualizacji pozycji. Kolejnym systemem, nawigacji satelitarnej był system TIMOTION.

Nawigacja satelitarna o zasięgu globalnym

W 1973 r. Departament obrony Stanów Zjednoczonych podjął decyzję o stworzeniu nawigacji satelitarnej o zasięgu globalnym. Nowy system nawigacji miał powstać na bazie nawigacji TRANSIT oraz TIMOTION. To wydarzenie możemy uznać za właściwy początek nawigacji GPS.

Tragedia nad Związkiem Radzieckim

Nawigacja GPS od samego początku tworzona była z myślą o zastosowaniach wojskowych. Dopiero tragiczne wydarzenie jakie miało miejsce w 1983 r. spowodowało udostępnienie nawigacji GPS cywilom. Co zdarzyło się 1983 roku? Koreański samolot pasażerki, podczas złej pogody zboczył z kursu i znalazł się nad terytorium Związku Radzieckiego. Radzieccy dowódcy wojskowi zdecydowali się zestrzelić samolot. Po tym wydarzeniu prezydent Regan zdecydował się udostępnić nawigację GPS cywilom. 

Pełna zdolność operacyjna

Nawigacja GPS osiągnęła pełną operatywność (Full Operational Capability, FOC) 17 lipca 1995 roku. Oznaczało to globalne pokrycie zasięgiem nawigacji GPS Ziemi.

Wyłączenie Selective Availability

Mimo, że nawigacja GPS została udostępniona cywilom w 1983 r., to jednak sygnał satelitarny był celowo zakłócany, aby zmniejszyć precyzję wyznaczania pozycji. Był to tzw. mechanizm Selective Availability. Powodował on błędy podczas pozycjonowania w granicach 100m. Chwilowo mechanizm Selective Availability nie działał w latach 1990-1991 (został wyłączony na czas I wojny w Zatoce Perskiej). Definitywnie mechanizm Selective Availability wyłączono 1 maja 2000 roku.


---

Artykuł pochodzi z serwisu www.Artelis.pl

Super wizja - nowa jakość telewizji wysokiej rozdzielczości

Autorem artykułu jest Katarzyna G.



Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.

Pod koniec września 2010 roku światłowody na trasie Londyn - Tokio rozgrzały się do czerwoności. Po raz pierwszy w historii miała miejsce transmisja na żywo sygnału w rozdzielczości Super Hi-Vision.


Japońscy fani brytyjskiego zespołu The Charlatans obejrzeli ich koncert podziwiając jednocześnie formę zespołu, jak i (może bardziej?) jakość dostarczanego obrazu i dźwięku. Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.
Ciekawostką jest fakt, że Japończycy dysponowali możliwościami dystrybucji analogowego sygnału w wysokiej rozdzielczości już pod koniec lat 80-tych poprzedniego stulecia.

00010408

Prezentacja Super Hi-Vision na targach IBC 2010 w Amsterdamie (digitalproductionme.com)


Super Hi-Vision jest opracowanym przez japońską telewizję publiczną NHK standardem wyświetlania obrazu telewizyjnego. Przy pracach nad jego udoskonalaniem i wdrażaniem pomagają również: brytyjskie BBC oraz włoska RAI.

Możliwości standardu są imponujące - obraz wyświetlany jest w rozdzielczości 7680 x 4320 (33 1776 MPix), czyli w 16-krotnie większej rozdzielczości niż obraz w Full HD. Większa jest również liczna klatek, jakie mogą być wyświetlane w ciągu jednej sekundy: 50 lub 60.

Każdy fan kina i telewizji wie, jak wiele wrażeń dostarcza dźwięk. Składową Super Hi-Vision jest technika "Hamasaki 22.2" nazywana w skrócie "22.2", będąca krokiem milowym w przesyłaniu strumieni audio.
Transmisja dźwięku odbywa się na 24 kanałach: 9 kanałów powyżej głowy, 10 kanałów na wysokości głowy, 3 kanały poniżej wysokości głowy, 2 kanały na efekty specjalne o niskich częstotliwościach.
Przy 24 głośnikach określenie "dźwięk przestrzenny" nabiera zupełnie nowego znaczenia. Przy tym standardzie obraz w jakości Full HD wygląda jak rozmyta plama, a jakość dźwięku Dolby Surround przypomina dźwięk z samochodowego odtwarzacza kasetowego.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Czy warto omijać blokadę nawigacji?

Autorem artykułu jest Marcin Osiński



Kupiłeś urządzenie PNA? A może właśnie planujesz taki zakup? Atrakcyjna cena nie zawsze idzie w parze z funkcjonalnością. Czym jest blokada systemu operacyjnego i czy warto się jej pozbywać aby instalować inne oprogramowanie?
Większość dostępnych na rynku urządzeń do nawigacji satelitarnej dostarczana jest w komplecie z mapami. Sprzęt kupowany promocyjnie za nieduże pieniądze wyposażony jest zazwyczaj w przestarzałe lub dość ubogie wersje programów nawigacyjnych i nie zawsze aktualne mapy. Przeważnie produkty promocyjne są zablokowane i pozwalają na obsługę jedynie oprogramowania które było dołączone do zestawu.
Rozwiązaniem może być np. sprzęt marki Navix, który nie posiada żadnych blokad oprogramowania. Niestety jest to raczej wyjątek potwierdzający regułę. Fora dyskusyjne pełne są jednak sposobów na ominięcie i usunięcie blokad z praktycznie każdego urządzenia.

Odblokowanie Larka, Akiry, GoClevera czy Navii nie jest problemem nawet dla osoby niedoświadczonej w tym temacie. Pozostaje jednak pytanie czy ma to sens? Pierwsza sprawa z którą należy się liczyć po zdjęciu blokady programowej z nawigacji to utrata gwarancji. Tak jak w przypadku simlocków w telefonach GSM tak samo w przypadku urządzeń PNA usunięcie blokady spowoduje duże problemy przy ewentualnych roszczeniach zgłoszeniach gwarancyjnych w przypadku serwisu producenta i prawie pewne odrzucenie reklamacji w przypadku zgłoszenia w sklepie. Ten problem dotyczy praktycznie wszystkich zabezpieczonych urządzeń, niezależnie od marki.

Pomimo zadowolenia użytkowników z odblokowania własnej nawigacji w trakcie użytkowania dośc często zaczynaja pojawiać się różne, niespotykane dotąd kłopoty. Czasami zanika sygnał GPS, w innych przypadkach czytelnośc wyświetlacza zaczyna spadać nie dając sie wyregulować. Zdarzają się tez przypadki przywieszania urządzeń a nawet całkowitej ich blokady która wymaga właściwie jedynie wizyty w serwisie (a przypominam, najprawdopodobniej utraciliśmy juz gwarancję dokonując odblokowania).

Kupić tanią nawigację, niezbyt funkcjonalną mapę, ominąć blokady i miec nadzieję że obejdzie się bez wymienionych wyżej problemów czy może jednak od razu kupić lepszy sprzęt (np. Navix) który nie ogranicza stosowania innego oprogramowania? Decyzję pozostawiamy Czytelnikom.
Warto jednak zwrócić dodatkowo uwagę na kwestię licencjonowania Sisvel. Dystrybutor marki Navix jasno i wyraźnie deklaruje zgodność z obowiązującymi w Europie licencjami. W przypadku innych produktów często no-name może być różnie.
---

--


Artykuł pochodzi z serwisu www.Artelis.pl

Jaki GPS wybrać? – o nawigacji i nie tylko …

Autorem artykułu jest Paweł Kuźma



Wybór najlepszej nawigacji samochodowej, nie jest wyborem łatwym. Na rynku zaroiło się ostatnimi czasy od tanich urządzeń mało znanych producentów z dalekiego wschodu. Czy oznacza to, że urządzenia te powinny być już na starcie poszukiwań odpowiedniego sprzętu odrzucane?

To, że nawigacja nie jest firmowana przez takich producentów jak Garmin, TomTom, czy Navigon, nie oznacza wcale, że sprzęt nie będzie się dobrze spisywał na drodze .Czym więc powinien kierować się potencjalny nabywca odbiornika GPS?

Należy mieć  świadomość, iż urządzenia nawigacyjne bazują na mapach dróg o różnej dokładności odwzorowania, dostarczanych przez różnych producentów, tak więc trzeba liczyć się z różną dokładnością map. Przy wyborze urządzenia, należy też odpowiedzieć sobie na pytanie czy potrzebujemy nawigacji samochodowej, czy może multimedialnego urządzenia z opcją nawigowania i funkcjonalnościami takimi jak np. odtwarzacz mp3, odtwarzacz video itp.

Przy wyborze GPS-a warto więc, kierować się wieloma czynnikami, z których najważniejsze to:

- szczegółowość map dołączanych do urządzenia dla mniejszych i większych miejscowości w kraju i zagranicą,

- koszt aktualizacji map,

- algorytm wyznaczania tras, objazdów oraz możliwość zaawansowanego planowania tras oraz modyfikowania ich w czasie podróży

- wielkość wbudowanej bazy danych punktów użyteczności (POI),

- szybkość reakcji na zmiany trasy w trakcie jazdy,

- funkcje dodatkowe.

Warto też  sprawdzić, czy urządzenie jest przystosowane do współpracy z różnymi mapami, na wypadek gdyby mapa dostarczona przez producenta niespełniała naszych oczekiwań.

Niektóre z urządzeń nawigacyjnych oferują także możliwość wyboru trybu pracy jako np. nawigacja piesza, czy nawigacja do samochodów ciężarowych. Tu jednak warto mieć na uwadze, że profesjonalne systemy do nawigacji dedykowane np. do samochodów ciężarowych, odznaczają się nie tylko wyższą ceną, ale i szeregiem funkcji, takich jak możliwość zaprogramowania urządzenia z uwzględnieniem gabarytów pojazdu, ciężaru, czy monitorowaniem zużycia paliwa, których to zwykła nawigacja samochodowa mieć nie będzie.

Decydując się na zakup nawigacji samochodowej warto pamiętać, że nie istnieją urządzenia idealne. Nie ma urządzeń, które potrafiłyby zastąpić za kierownicą człowieka, urządzenia te mają za zadanie jedynie ułatwić człowiekowi prowadzenie pojazdu i wybór właściwej drogi.

---

Xtrack.pl - GPS systemy monitorowania pojazdów


Artykuł pochodzi z serwisu www.Artelis.pl

Czy technologia LED jest najlepsza?

Autorem artykułu jest kadlubek



Obecnie na rynku można znaleźć trzy rodzaje telewizorów a mianowicie plazmowe, LCD i LED. Dlaczego warto zakupić telewizory LED a nie inne?

 

We wcześniejszych artykułach wspomniane jest, iż technologia LED opiera się na diodach emitujących światło. Sprawia to polepszenie jakości widzianego obrazu. Tak naprawdę telewizory LED należą do grupy telewizorów ciekłokrystalicznych LCD. Główna różnica miedzy LCD a LED polega na rodzaju podświetlenia zastosowanego w telewizorze. Technologia LCD zastosowała świetlówki typu CCFL, natomiast telewizory typu LED posiadają małe diody emitujące światło. Do ciekawostek należy fakt, iż pierwszy telewizor typu LED został zbudowany w 2004 roku i na tamtejsze czasy kosztował bagatela 25 tysięcy dolarów. Jak łatwo się domyśleć mało kto mógł sobie pozwolić na taki rarytas jakim był telewizor LED. Obecnie jednak nie ma czego się obawiać technologia LED, pomimo iż jest jeszcze drogą technologia to i tak bardzo duże grono osób może sobie pozwolić na telewizory LED. Można bowiem już zakupić tego typu telewizor zaczynając od ceny około 2000 złotych.

Należy nadmienić, iż telewizory LED można podzielić na „local dimming”, gdzie diody podświetlają ekran od spodu oraz „Edg LED” gdzie diody są umieszczone w listwach po obu stronach ekranu. Powoduje to zmniejszenie zużycia prądu nawet o 60%. Kolejnym efektem zastosowania tej technologii jest widoczna poprawa jakości obrazu.

Do zalet tych telewizorów należy, więc poprawa kontrastu w porównaniu z telewizorem LCD, dużo mniejsze zużycie energii oraz pogłębienie czerni obrazu co jest niemożliwe jak na razie w zwykłych telewizorach LCD. Dodatkową zaletą jest to, iż zajmuje mniej miejsc, gdyż należy do telewizorów super cienkich o szerokości 1,5 cm a nowsze telewizory mają szerokość kilku milimetrów. Do wad należy wciąż duży koszt zakupu tego typu telewizora w porównaniu do LCD. Telewizory LCD można bowiem zakupić już w cenie 1000 złotych ( mową o 32” telewizorach).

 

 

---

samosia


Artykuł pochodzi z serwisu www.Artelis.pl

niedziela, 9 stycznia 2011

Telewizory LCD – niekoniecznie tanie, koniecznie Full HD

Autorem artykułu jest Okazje



Producent, wielkość i rozdzielczość. Jak wynika z raportu internetowej porównywarki cen Okazje.info, nie cena, a właśnie te trzy parametry najbardziej interesują kupujących telewizory LCD Polaków.

Producent, wielkość i rozdzielczość. Jak wynika z raportu internetowej porównywarki cen Okazje.info, nie cena, a właśnie te trzy parametry najbardziej interesują kupujących telewizory LCD Polaków.

Z raportu wynika, że szukamy głównie telewizorów średniej wielkości (najczęściej wybierana przekątna ekranu to 30-39 cali) i w umiarkowanej cenie (najchętniej - do 2000 zł). Cena nie odgrywa jednak głównej roli w naszych wyborach - najtańszych modeli telewizorów szukało tylko 2 % przeglądających kategorię internautów.

- Użytkownicy byli szczególnie zainteresowani ofertą telewizorów Full HD, które wyprzedziły modele HD Ready o 82,5 %. Modelami o innego rodzaju rozdzielczości interesowało się zaledwie 4,5 % użytkowników – mówi Justyna Staszewska, PR&Marketing Assistant porównywarki Okazje.info. Jednak najczęstszym kryterium wyboru okazał się producent.

Największą popularnością wśród użytkowników Okazje.info cieszy się firma Sony, która przyciągnęła uwagę 27 % internautów. 25% użytkowników wybierało Samsunga, trzecią w kolejności lokatę zajęło LG z zainteresowaniem na poziomie 12 %.

- Niezdecydowani klienci szukają informacji u innych kupujących - mówi Justyna Staszewska. - Poza danymi dotyczącymi parametrów, internauci często szukali informacji o wyborach innych użytkowników. Ranking telewizorów LCD odwiedziło 4,5 % zainteresowanych telewizorami, a dział porad dotyczących wyboru sprzętu – 4 %.

Jak wynika z danych porównywarki, szukających pomocy jest dość dużo. Zarówno ranking jak i porady znalazły się w pierwszej dziesiątce najpopularniejszych stron związanych z kategorią: telewizory LCD.

---

Milena Bakalarz Okazje.info


Artykuł pochodzi z serwisu www.Artelis.pl

Cyfrowa telewizja naziemna w Europie - DVB-T2

Autorem artykułu jest Katarzyna G.



Cyfrowa telewizja naziemna w Europie DVB-T2 - w ubiegłym roku zatwierdzono finalny draft DVB-T2, ostateczne przyjęcie standardu zapowiadane jest na lipiec bieżącego roku.
Większość krajów europejskich pracuje nad wdrażaniem nadawania telewizji naziemnej w systemie cyfrowym. Czasu zostało niewiele, ponieważ na 2013 rok przewidziano ostateczne zakończenie analogowego nadawania telewizji naziemnej w Europie.
Obecny okres przejściowy charakteryzuje się dużą różnorodnością - nadawane są równocześnie sygnały TV w wersji analogowej i cyfrowej.
Również w samym zakresie transmisji cyfrowych panuje spore zamieszanie. Obecnie dostępne są następujące sposoby emisji sygnału cyfrowego:

* DVB-T MPEG-2 - najbardziej popularne w Europie
* DVB-T MPEG-4 (H.264) - stosowane obecnie w przekazach testowych
* DVB-T2 MPEG-2
* DVB-T2 MPEG-4 (H.264) - docelowy standard naziemnej telewizji cyfrowej w Europie

Obecnie w Europie dominuje DVB-T/MPEG-2. W niektórych krajach zdecydowano się na DVB-T MPEG-4 (H.264) - Francja, Litwa, Węgry, Polska.

Docelowo jednak w Europie standardem będzie DVB-T2 MPEG-4 (H.264). Pierwsze komercyjne nadawanie w nowym standardzie powinno się rozpocząć w Wielkiej Brytanii pod koniec roku - mają być nadawane 3 programy w wersji HD. Pierwszym jednak terytorium, które w całości przejdzie na nowy standard będzie Grenada (listopad 2009).
W ubiegłym roku zatwierdzono finalny draft DVB-T2, ostateczne przyjęcie standardu zapowiadane jest na lipiec bieżącego roku.

a147_

a148_

Czy w dobie przekazów satelitarnych nadawanie z dużymi mocami za pomocą nadajników naziemnych ma sens, to podstawowa kontrowersja związana z naziemnym nadawaniem cyfrowym.
Na zdjęciach najwyższa wieża telewizyjna świata Toronto - CN Tower.
---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

nawigacja

Mapy GPS – AutoMapa czy MapaMap?

Autorem artykułu jest Krystian Wójcik



Jak większość urządzeń cyfrowych tak i urządzenia GPS muszą posiadać oprogramowanie, które będzie koordynować poszczególne podzespoły (system operacyjny), a także zapewni dodatkową funkcjonalność (aplikacje). Tak więc, sam odbiornik na niewiele się przyda, jeżeli nie wyposażymy go w odpowiednie mapy cyfrowe.

Dobrej jakości mapy – oprócz rozmieszczenia dróg i miejscowości – posiadają również obszerną bazę adresową oraz bazę Punktów Użeteczności Publicznej (POI) – apteki, kluby fitness, bankomaty, stacje paliw itp. Jednak na rynku nie istnieje jedna, ale przynajmniej kilka map cyfrowych, więc którą wybrać? Czy każda mapa będzie pasować do mojego odbiornika GPS? Polski rynek należy w dużej mierze do AutoMapy oraz MapyMap.

Przy wyborze mapy powinniśmy głównie kierować się dokładnmością odwzorowania. W przypadku aktualnej AutoMapy w mieście dokładność ta wynosi nawet 1m. Natomiast poza miastem AutoMapa może pohwalić się dokładnością na poziomie 12m. Również istotnym parametrem każdej mapy cyfrowej jest ilość punktów adresowych. MapaMap posiada dokładnie 2 614 835 punktów adresowych. Automapa to 2 806 178 szt. Istotnym parametrem każdej mapy cyfrowej jest ilość naniesionych miejscowości. MapaMap posiada 7 767 planów miast i miejscowości. A jak wygląda to w przypadku AutoMapy? Tutaj możemy liczyć na 26 603 nawigacyjnych planów miast i miejscowości. Istotną kwestią jaką musimy rozważyć jest ilość POI. MapaMap posiada ich 211 794 szt. A co z AutoMapą? Tutaj możemy liczyć na 600 036 punktów użyteczności publicznej.

Jednak parametry map GPS, to nie wszytko. Musimy jeszcze zwrócić uwagę na system operacyjny w naszej nawigacji. Każdy system operacyjny współpracuje z określoną mapą. Trzy najpopularniejsze systemy operacyjne instalowane w nawigacji GPS, to Windows CE, system operacyjny firmy Garmin oraz system operacyjny firmy TomTom.

Windows CE: AutoMapa, MapaMap, Be-On-Road, MioMap

Garmin: CityNavigator, GPMapa, WorldMap

TomTom: TomTom Navigator

---

Krystian Wójcik > więcej na  AutoMapa - podstawowe parametry 


Artykuł pochodzi z serwisu www.Artelis.pl

nawigacje GPS

Moduł GPS - podstawowe informacje

Autorem artykułu jest Krystian Wójcik



Aby możliwe było korzystanie z nawigacji GPS, musimy wyposażyć się w odpowiednie urządznie, które będzie odbierało sygnał z satelitów. Tym urządzeniem musi być moduł do nawigacji GPS. Urządzenie to dostarcza dokładne informacje o położeniu obiektów na Ziemi, na podstawie informacji z satelitów.

Każdy z 24 satelitów nawigacyjnych wyposażonych w atomowy zegar rubidowy, komunikuje się z segmentem naziemnym (12 stacji), aby uzyskać informacje korygujące orbitę satelity, bądź informacje o poprawkach jonosfecznych. Informacje te uzyskiwane są dzięki temu, że stacje nadzoru ciągle zbierają dane o efemerydach i almanachach (rozmieszczenie satelitów na niebie). Korzystając z informacji o almanachach moduł GPS może określić czas potrzebny do transmisji sygnału z satelitów do odbiornika GPS. Ponieważ czas ten jest proporcjonalna do odległości pokonanej, moduły GPS mogą zmierzyć promień między nim, a satelitą.

Wybór urządzeń GPS, w tym modułów GPS, wymaga analizy parametrów, tj. rodzaj modułu, moc i sposób połączenia z innymi urządzeniami, np. telefonem. Obecnie najczęściej spotykanym sposobem połączenia modułu GPS z innym urządzeniem jest interfejs BlueTooth. Ważnym parametrem każdego modułu GPS decydujący w znaczącej mierze o jego jakości jest ilość kanałówł (iość kanałów równa się maksymalnej ilości satelitów, z którymi może mieć kontakt w tym samym czasie moduł GPS), pasmo przenoszenia, czułość, dokładność położenia i czas konieczny do pierwszej poprawki. Jeżeli weźmiemy pod uwgę moc modułu GPS musimy określić napięcie, pobór prądu oraz rodzaj anteny (niektóre anteny łączone są za pomocą złącza SMA). Istotnymi parametrami każdego modułu GPS są tzw. zimny start oraz ciepły start. Zimny start jest to czas, który musi upłynąć od pierwszego włączenia nawigacji do wyznaczenia pozycji. Ciepły start to czas, który musi upłynąć od powtórnego włączenia modułu GPS do wyznaczenia pozycji. 

---

Krystian Wójcik >  szukasz modułu GPS? Jeżeli tak to zapraszam - Moduł do GPS


Artykuł pochodzi z serwisu www.Artelis.pl

sobota, 8 stycznia 2011

Trzeci wymiar według firmy Panasonic

Autorem artykułu jest Katarzyna G.



Najwięksi producenci prześcigają się w przygotowaniu systemów wyświetlających obraz 3D. Panasonic angażuje się w opracowanie technologii do: przechwytywania obrazu (3D kamkorder), odtwarzania (odtwarzacz Blu-ray DMP-BDT350 debiut handlowy 06.10.2010) i wyświetlania...

Panasonic angażuje się w opracowanie technologii do: przechwytywania obrazu (3D kamkorder), odtwarzania (odtwarzacz Blu-ray DMP-BDT350 debiut handlowy 06.10.2010) i wyświetlania (seria telewizorów Viera TV z 3D), jednocześnie wspólnie z amerykańską platformą DirecTV planuje uruchomić w czerwcu nadawanie programów 3D.

Jednym z najciekawszych rozwiązań w zakresie 3D jest Full HD Plasma Home Theater System (3D FHD) przygotowany przez firmę Panasonic. Zestaw składa się z telewizora plazmowego serii Viera (dostępne odbiorniki - 50", 54", 58" oraz 65" i pokazany na CES w Las Vegas 152"), odtwarzacza Blu ray DMP-BDT350 i aktywnych okularów (Active Shutter 3D Glasses). Na dysku optycznym nagrane są obrazy w rozdzielczości 1080p - osobno dla lewego i prawego oka. Odtwarzacz wyposażony w wysokowydajny procesor odczytuje zapisane obrazy, które wyświetlane są naprzemiennie w telewizorze plazmowym o częstotliwości odświeżania 600 Hz (panele typu NeoPDP opracowane przez Panasonic).

Aby móc oglądać odpowiednio przygotowany materiał, widz zaopatrzyć się musi w tzw. aktywne okulary (Active Shutters Glasses), synchronizujące się z telewizorem dzięki bezprzewodowej transmisji Bluetooth. Okulary, które zamiast typowych szkieł posiadają ciekłe kryształy przysłaniają raz lewe raz prawe oko z niewykrywalną dla wzroku częstotliwością 120 lub 200Hz. Zastosowanie takiej technologii pozwala wyeliminować drgania obrazu i uzyskać obraz trójwymiarowy o rozdzielczości 1080p.

Trzeci wymiar według firmy Panasonic

 

Zasada działania systemu 3D FHD - firmy Panasonic
źródło www.panasonic.co.uk

 

SMPTE (Society of Motion Picture and Television Engineers) pracujący nad standardem 3D dla dysków Blu-ray od 2009 roku wydał rekomendację, że w standardzie docelowym obraz powinien być wyświetlany w rozdzielczości 1920 x 1080 przy 60 klatkach/s. Specyfikacja do standardu będzie wyszczególniała między innymi specjalny kodek - Multiview Video Coding (MVC), który ma być rozszerzeniem ITU-T H.264 Advanced Video Coding (AVC) stosowanego obecnie w odtwarzaczach Blu-ray.


Kodek MPEG4-MVC pozwoli na zapisanie jednego obrazu wraz z opisem różnicy pomiędzy obrazem dla lewego i prawego oka (metadane). Wykorzystując metadane będzie można odtwarzać dwie ramki (lewą i prawą) przy zmniejszonej znacznie wielkości plików danych.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

piątek, 7 stycznia 2011

Telewizory LCD przechodzą do lamusa

Autorem artykułu jest Kamil Guru



Nowa technologia podświetlenia obrazu w telewizorach wkracza do sklepów. Okres dominacji LCD dobiega końca. Czy warto jeszcze kupić model z takim panelem ? Zapraszam do lektury.

Telewizory LED dostępne są na rynku już od kilkunastu miesięcy, jednak dopiero o niedawna cieszą się zainteresowaniem klientów. Najnowsze badania wskazują, że odbiorniki z podświetleniem LED na koniec 2009 roku uzyskały 3 proc. udział w rynku. Prawdziwa ekspansja zapowiadana jest na 2010 rok, w którym udział zwiększy się do 40 proc. Zagrożone są przede wszystkim telewizory lcd, ponieważ LED jest ich następcą. Nowa technologia pobiera o ponad 60 proc. energii mniej, telewizory LED są cieńsze i oferują znacznie lepszą jakość obrazu. Aktualnie jedynie trzech producentów oferuje takie telewizory, jednak sytuacja zmienia się bardzo dynamicznie. Jeszcze w tym roku do wielkiej trójki dołączą mniejsi gracze, którzy zaoferują TV LED w konkurencyjnych cenach. Zdaniem analityków czeka nas kolejna wojna cenowa, która powinna ucieszyć klientów, ponieważ to wysoka cena była wymieniana jako główna przeszkoda w masowej popularyzacji LED TV. Z danych dostarczonych przez największe sieci sklepowe w Polsce wynika, że dziennie 400-500 telewizorów LED w kraju znajduje nowego właściciela. Sytuacja ulegnie znaczącej poprawia już za kilka miesięcy, kiedy ceny LCD i LED zrównają się. Musimy jednak pamiętać, że nowa technologia nadal wymaga dopracowania, dlatego wato szukać promocji cenowych dla telewizorów LCD. Oferowana jakość wyświetlanego obrazu jest porównywalna lub niewiele gorsza od LED, dlatego nie w każdym przypadku opłacalne jest inwestowanie w nowe rozwiązania. Zawsze warto porównać obraz z telewizorów w sklepie i dopiero wtedy podjąć decyzję.

---

Artykuł pochodzi z serwisu www.Artelis.pl

telewizja 3D

Trójwymiarowa telewizja bez okularów

Autorem artykułu jest Katarzyna G.



Idea przygotowania ekranu do wyświetlania obrazów 3D, pozwalająca na oglądanie bez specjalnych okularów, sprowadza się do zamontowania na ekranie specjalnej przesłony lub cylindrycznych soczewek.


 

W obu przypadkach efektem działania jest dostarczenie do lewego i prawego oka różnych obrazów.
Na rynku dominują dwie techniki autostereoskopowe ("bezokularowe"):

metoda bariery paralaksy,metoda soczewkowa (soczewek lentykularnych).

Trójwymiarowa telewizja bez okularów

Techniki "okularowe" dominują na rynku 3D,
ale przyszłość należy do autostereoskopii

 

Metoda bariery paralaksy polega na umieszczeniu przed ekranem telewizora specjalnie zaprojektowanej przesłony wykonanej z nieprzeźroczystego materiału. Przesłona posiada szczeliny, przez które przekazywany jest obraz dla prawego oraz lewego oka. Rozmieszczenie szczelin współgra z możliwymi pozycjami obu oczu względem ekranu telewizora. Aby możliwe było oglądanie trójwymiarowych efektów w tej technologii, konieczne jest odpowiednie przygotowanie materiału wideo. Klatka obrazu zwana stereogramem powstaje poprzez złożenie dwóch obrazów - dla prawego oraz lewego oka. Tak spreparowany obraz pozwala na ujrzenie efektu 3D tylko naprzeciwko ekranu telewizyjnego, dlatego też najnowsze technologie tworzenia obrazów pozwalają na tworzenie pojedynczych klatek (panoramagramów), w skład których wchodzi znacznie większa ilość obrazów bazowych. W efekcie zwiększa się ilość puntów, w których widz oglądać może czysty, ostry i trójwymiarowy obraz.

 

Trójwymiarowa telewizja bez okularów

Autostereoskopowe metody wyświetlania obrazu 3D.
Wygląda na to, że przyszłością jest metoda soczewek lentykularnych,
ze względu na lepsze odwzorowanie barw i janość obrazu.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Technologia LED

Technologia LED przyszłość czy marketing?

Autorem artykułu jest electroart



Na początek chciałbym przedstawić co to wogule jest technologia led.LED - czyli light emitting diode - są to małe diody, które zrewolucjonizowały przemysł elektroniczny do takiego stopnia, że dzisiaj nie sposób nie natknąć się na nie.

Zacznijmy m oże od wyświetlaczy led  o których ostatnimi czasy jest coraz głośniej. Przyjżyjmy się czy ta technologia w wyświetlaczch lcd to poprostu skuteczny marketing nażucony nam przez cpecjalistów od PR-u czy naprawdę w led jest przyszłość.

Wyświetlacze LED jeżeli by wierzyć zapewnieniom naukowców niewątpliwie już niebawem zastąpią LCD, nie dziwi więc fakt, że na rozwój tej technologii  przyznawane są coraz większe fundusze. Jednak większość wprowadzanych na rynek telewizorów wykorzystujących technologię  LED spotyka się z wieloma zarzutami. Jednym z najważniejszych jest to, że panelu nie tworzą diody, a jedynie służą one do podświetlania krawędzi (a więc, technicznie rzecz biorąc, nie są to prawdziwe Panele te, w odróżnieniu od tradycyjnych LCD charakteryzują się tym ,że:

    * uzyskiwany na nich obraz jest jaśniejszy,a odcień czerni jjest  głęboki i wyrazisty
    * są dużo cieńsze niż tradycyjnie podświetlane (obecne na rynku modele mają około 1,6 cm grubości)
    * zużywają dużo mniej energii (około 50 %)
    * oferują szerszą gamę kolorów (szczególnie przy podświetlaniu RBG-LED)

Obecnie są prowadzone prace nad otrzymaniem ultracienkich, nieorganicznych diod które świecą jaśniej i dłużej niż tradycyjne matryce LED, dzięki czemu możliwe będzie stworzenie elastycznego mikrowyświetlacza zawierającego sieć połączonych oczek, na których nadrukowane będą przyczepione do organicznego podłoża mikrodiody.

Czyli jeżeli chodzi o zastosowanie diód led w wyświetlaczach zyskujemy nie tylko na oszczędności energi ale także na jakości wyświetlanego obrazu, zatem na dzień dzisiejszy warto rozważyć zakup telewizora z podświetleniem Led

A zatem co ze zwykłym oświetleniem domu czy tu też led znajdzie zastosowanie ?

Zalety Podświetlenia LED

Przede wszystkim  czas eksploatacji żarówek opartych na diodach led jest znacznie dłuższy i wynosi nawet 100 tysięcy godzin przypomnijmy że zwykła żarówka posiada żywotność do 10 tys godz zatem różnica jest zauważalna. Ponadto źródła światła LED nie tracą pobieranej energii wydzielając niepotrzebne ciepło co u tradycyjnych żarówek niestety jest normą żę 70 % Energi którą pobierają zużywają nie na emitowanie światła ale na wydzielanie ciepła. Dzięki nowoczesnym rozwiązaniom technologicznym cała moc zużywana jest na produkcję światła - gdyby stworzono diody o tej samej mocy co żarówka, emitowałyby one nawet trzy razy więcej światła pobierając taką samą ilość energii. Przewiduje się jednak, że w niedalekiej przyszłości diody LED o takiej mocy emitować będą aż 16 razy więcej światła. Ważną zaletą LED jest także ich wytrzymałość na uszkodzenia mechaniczne (brak szklanych elementów sprawia, że diody są praktycznie niezniszczalne) oraz zmiany pogodowe, czyli wysokie i niskie temperatury. Z punktu widzenia zastosowania diod istotny jest tzw. kąt rozsyłu, który mieści się w ich przypadku w przedziale 1-150 stopni normalna żarówka świeci dookoła dzięki czemu oświetla całe pomieszczenie w technologi led to jest jedna z przeszkód którą napotkano przy zastosowaniach domowych, a także czas włączania, który jest 2 miliony razy krótszy od typowych żarówek.

Obsługa i zastosowanie 
Sposób obsługi diod stwarza niemal nieograniczone możliwości użytkowe. Mogą one być zasilane i sterowane, podobnie jak inne urządzenia elektroniczne, przy pomocy mikroprocesora, który steruje poziomem jasności i kolorem światła. Traktuje się je, jako punktowe źródło światła, co sprawia, że standardowe oprawy oświetleniowe nie nadają się do ich wykorzystania. Dlatego też dużym wyzwaniem stoją projektanci i konstruktorzy. To od  będzie zależeć zastosowanie diod LED w oświetleniu ogólnym, akcentującym, reklamowym czy dekoracyjnym. Obecnie najczęściej grupuje się kilka pojedynczych diod, by tworzyły układ możliwy do wykorzystania w tradycyjnych oprawach. Dzięki licznym zaletom stosowane są praktycznie wszędzie gdzie jest to możliwe - do oświetlenia domów, lokali użytkowych, budynków, ogrodów, pojazdów i tablic informacyjnych. Technologia LED wykorzystywana jest również w oświetleniu sygnalizacyjnym i ostrzegawczym. Wszystkie te elementy sprawiają, że dioda ma duże szanse zastąpić istniejące źródła światła.

Tak więć podsumowując

Warto się zastanowić nad zakupem alternatywnego podświetlenia np w naszych domach jeżeli chcemy zaoszczęzić na rachunku jest to zdecydowanie godne polecenia rozwiązanie, aczkolwiek nie jest wolne od wad i jeszcze długa droga do doskonałośći .Podśwetlenie Led bardzo dobrze się sprawdza w wyświetlaczach do telefonów komórkowych dzięki temu że taki wyświetlacz zużywa mniej prądu nasza bateria w telefonie wystarcza na dłużej i moim zdaniem ten rynek diody led podbijąnajszybciej. Akcesoria gsm zaczynają być oparte na diodach led gdyż jest to jedna z tych dziedzić w której oszczędność energi znaczącą wpływa na komfort użytkowania telefonów.

---

Artykuł pochodzi z serwisu www.Artelis.pl