środa, 12 stycznia 2011

Narodziny video

Autorem artykułu jest agata



Mówiąc najprościej video to technika umożliwiająca zapisywanie obrazu oraz dźwięku, z możliwością natychmiastowego ich odtwarzania.Słowo wywodzi się z języka łacińskiego gdzie video oznacza -widzieć, patrzeć, ale określa także rodzaj twórczości audio- wizualnej przy użyciu kamer video.

 

Wszystko zaczęło się w 1952 roku. Wtedy to BBC opracowało system VERA – (Vision Electronic Recording Apparatus), który stał się popularyzatorem rodzącej się technologii. System ten oparty był na nieruchomych głowicach, które odczytywały nawiniętą na szpulę taśmę. Poruszała się ona z zawrotną prędkością kilku metrów na sekundę przez co możliwe było nagrywanie jedynie krótkich, maksymalnie 15-to minutowych, czarno-białych filmów, o słabej jakości i chwiejnym obrazie.

W 1956 roku pojawił się system SECAM – pierwszy system kolorowej telewizji zastosowany w Europie. Został opracowany w zakładach Thomson we Francji, jako wynik francuskich aspiracji do stworzenia własnego standardu. Mniej więcej w tym samym czasie opracowano inny system nadawania koloru – PAL – tym razem w Niemczech. Oba systemy zastosowano po raz pierwszy w 1967 roku.

1969 rok to pojawienie się pierwszej, zamkniętej w kasecie taśmy. Pierwszym zastosowanym formatem był VCR ( Video Casette Recording ), zaproponowany w 1972 roku przez firmę Philips. Był on pierwowzorem późniejszych kaset VHS (Video Home Sytsem). Jednocześnie ten format wygrał z innym, amatorskim systemem nagrywania -Betamax. O porażce zdecydowała zbyt wysoka cena i brak promocji Betamaxu.

1982 rok to pojawianie się VHS w wersji mini, mianowicie VHS-C. Dzięki mniejszemu formatowi kaset wykorzystywano ją powszechnie w domowych kamerach.

Pięć lat później pojawił się kolejny format S-VHS (Super-VHS) Oznaczał on przede wszystkim zwiększanie częstotliwości, co zwiększyło rozdzielczość i wpłynęło na poprawę jakości oglądanych materiałów.

1993 to przełom i pojawienie się dysku Video CD ( Video Compact Disc) jako nośnika dla materiałów video, i jako poprzednika płyt DVD. Jakość obrazu VCD miała być podobna do tej z VHS, ale z powodu mniejszej rozdzielczości jakość obrazu była gorsza niż na nie zużytej kasecie VHS. Z kolei format VCD zapewnił taką samą jakość filmów bez względu na ilość i częstotliwość ich odtwarzania.

W 1994 roku pojawiły się pojęcia: Standard Definition: telewizja o standardowej rozdzielczości, w formacie cyfrowym, oraz High Definiotion – co oznaczało telewizję wysokiej rozdzielczości. Najszybciej została ona uruchomiona w Japonii i Stanach Zjednoczonych. Obecnie jest popularna w większości krajów europy. Zwiększona rozdzielczość oznacza większą ilość pikseli co sprawia, że obraz jest dokładniejszy, a wszystkie szczegóły są bardziej widoczne.

Dwa lata później pojawił się DVD(Digital Video Disc lub Digital Versatile Disc ).Jakość zapisu podobna jest do tej CD, ale dzięki zwiększeniu gęstości zapisu uzyskano o wiele większą pojemność.

O tytuł następcy formatu DVD walczyły technologie HD DVD i Blu-ray, Zwycięzcą został ten drugi,który na rynek wszedł w 2002 roku. HD DVD nie przyjęło się na rynku. System Blu-ray po raz pierwszy zastosowano w Japonii. Dzięki uzyciu niebieskiego lasera umożliwia zapisanie ogromnej ilości danych, dodatkowo daje możliwość zapisania materiałów video aż w trzech formatach.

Już zapowiadane jest pojawienie się nowego formatu Green-ray Disc – zapisywanego przy pomocy zielonej wiązki lasera, co ma umożliwić zapisywanie jeszcze większej ilości danych niż na dysku Blu-ray

2005 rok pojawianie się serwisu YouTube.YouTube stał się nie tylko kamieniem milowym dla rozwoju video w sieci.Obecnie oglądalność sięga ponad miliarda filmików dziennie!!!Co minutę pojawia się prawie 24 godziny nagrań.

---

agata b.


Artykuł pochodzi z serwisu www.Artelis.pl

Koniec GPS?

Autorem artykułu jest Adrian Gamrot



Medialną burzę wywołał raport Amerykańskiego Rządowego Biura Obrachunkowego (GAO) z 30 kwietnia tego roku. Czytamy w nim alarmujące wieści, iż już w przyszłym roku działanie systemu GPS może zostać poważnie zaburzone. Jednak czy rzeczywiście mamy powody do paniki?
Medialną burzę wywołał raport Amerykańskiego Rządowego Biura Obrachunkowego (GAO) z 30 kwietnia tego roku. Czytamy w nim alarmujące wieści, iż już w przyszłym roku działanie systemu GPS może zostać poważnie zaburzone. Jednak czy rzeczywiście mamy powody do paniki?

Amerykański system nawigacji satelitarnej zrobił w ostatnich latach niesamowitą karierę. Na popularyzację odbiorników GPS niewątpliwy wpływ miał spadek ich cen, dzięki czemu przeciętny Kowalski mógł pozwolić sobie na zakup takiego urządzenia. Nawigacja powoli staje się częścią standardowego wyposażenia każdego samochodu. Do tego pojawiły się telefony komórkowe wyposażone w odbiornik GPS, co sprawiło, że już niemal każdy miał z tym systemem bezpośrednią styczność. Nawigacja staje się nieodłącznym elementem naszej codzienności. Czy to się może zmienić?

Raport GAO wskazuje na opóźnienia w realizacji wartego, bagatela ponad 2 miliardy dolarów programu naprawczego. W planach pierwsze satelity miały zostać wymienione już w 2007 roku, jednak nie udał się tego uczynić do dziś. Raport zawiera również ostrzeżenie, że jeżeli Amerykańskie Siły Powietrzne nie podejmą odpowiednich działań, to już w 2010 roku wysłużone satelity zaczną opuszczać swoją orbitę. Co ciekawe przewidziany przez konstruktorów czas eksploatacji satelitów wynosi 10-11 lat, a niektóre z nich spędziły w przestrzeni już ponad 20 lat.

Czy grozi nam krach nawigacji satelitarnej?

Mimo, że GAO stwierdziła, że nie jest pewne, czy siły powietrzne będą w stanie wystrzelić nowe satelity na czas i zapewnić ciągłość usług komunikacyjnych to warto wziąć pod uwagę fakt, że korzystanie z systemu GPS jest coraz bardziej popularne. Światowy rynek GPS w 2013 roku osiągnie liczbę 900 milionów sprzedanych urządzeń. Systemu używa wojsko, geodeci, transport oraz zwykli ludzie.

Duży odsetek użytkowników znajduje się na terenie samych Stanów Zjednoczonych. Czy rząd USA ma zamiar zostawić swoich wyborców z niczym? Czy jest możliwe, że przez opieszałość urzędników czy niesolidność podwykonawców tak przydatny i użyteczny system przestanie działać? Czy ktokolwiek może przypuszczać, że taka potęga militarna jak Stany Zjednoczone może sobie pozwolić, żeby z dnia na dzień może zostać pozbawiona systemu nawigacyjnemu? Spowodowałoby to paraliż całej armii. Żadna rakieta nie trafiła by w cel, samoloty miałyby problemy z dotarciem na lotnisko. Otóż nie. Amerykanie zrobią wszystko, by system pracował bez zakłóceń. Start rakiet z nowymi satelitami przewidziany jest na listopad bieżącego roku.

Co prawda GPS ma konkurencję w postaci rosyjskiego Glonass-u, europejskiego Galileo, czy chińskiego Compass-u, jednak nie sądzę żeby te systemy osiągnęły pełną funkcjonalność i pokrycie całego globu wcześniej niż w 2013 roku. Nie wydaje mi się również, żeby Amerykanie zgotowali nam i sobie 3 lata „ciemności” nawigacyjnej.

Wniosek jest prosty. GPS musi działać. Amerykański rząd wie o tym najlepiej, dlatego woli dmuchać na zimne i alarmuje póki jest na to czas. Oczywiście pewności nigdy nie ma. Dlatego może warto zainteresować się odbiornikami odbierającymi sygnały zarówno amerykańskich, jak i rosyjskich satelitów (więcej tutaj) i być gotowym na każdą ewentualność?

Źródło: www.gao.gov
---

Autor artykułu jest redaktorem naczelnym serwisu goGPS, w którym zbierana jest cała dostępna wiedza o nawigacji satelitarnej.
goGPS - nawigacja dla Ciebie


Artykuł pochodzi z serwisu www.Artelis.pl

wtorek, 11 stycznia 2011

Nawigacja GPS - krótka historia

Autorem artykułu jest Krystian Wójcik



Czy korzystając z nawigacji GPS zastanawiałeś się kiedykolwiek jakie były jej początki? Nawigacja GPS tworzona była z myślą o zastosowaniach militarnych. Dopiero pewne tragiczne wydarzenie spowodowało, że zdecydowano się ją udostępnić cywilom.

Nawigacja GPS – narodziny koncepcji

Początków nawigacji GPS możemy doszukać się już w roku 1957. Mimo, że zdarzenie to nie jest początkiem prac nad nawigacją GPS, to uznajemy je za początek prac nad systemami nawigacji satelitarnej. Co wydarzyło się w 1957 roku? Naukowcy  z John Hopkins University w Baltimore, obserwowali radzieckiego satelitę Sputnik 1. Celem ich obserwacji miało być zbadanie, czy ta radziecka satelita zagraża w jakimś stopniu bezpieczeństwu Stanów Zjednoczonych. Trochę przypadkowo naukowcy ci odkryli, że sygnał satelitarny może być wykorzystywany do lokalizowania pozycji. To wydarzenie spowodowało rozpoczęcie prac nad systemem nawigacji satelitarnej.

Pierwszym systemem nawigacji satelitarnej była nawigacja TRANSIT. Powstała ona na początku lat 60. ubiegłego wieku. System Transit wykorzystywał 5 satelitów i potrzebował kilku godzin do aktualizacji pozycji. Kolejnym systemem, nawigacji satelitarnej był system TIMOTION.

Nawigacja satelitarna o zasięgu globalnym

W 1973 r. Departament obrony Stanów Zjednoczonych podjął decyzję o stworzeniu nawigacji satelitarnej o zasięgu globalnym. Nowy system nawigacji miał powstać na bazie nawigacji TRANSIT oraz TIMOTION. To wydarzenie możemy uznać za właściwy początek nawigacji GPS.

Tragedia nad Związkiem Radzieckim

Nawigacja GPS od samego początku tworzona była z myślą o zastosowaniach wojskowych. Dopiero tragiczne wydarzenie jakie miało miejsce w 1983 r. spowodowało udostępnienie nawigacji GPS cywilom. Co zdarzyło się 1983 roku? Koreański samolot pasażerki, podczas złej pogody zboczył z kursu i znalazł się nad terytorium Związku Radzieckiego. Radzieccy dowódcy wojskowi zdecydowali się zestrzelić samolot. Po tym wydarzeniu prezydent Regan zdecydował się udostępnić nawigację GPS cywilom. 

Pełna zdolność operacyjna

Nawigacja GPS osiągnęła pełną operatywność (Full Operational Capability, FOC) 17 lipca 1995 roku. Oznaczało to globalne pokrycie zasięgiem nawigacji GPS Ziemi.

Wyłączenie Selective Availability

Mimo, że nawigacja GPS została udostępniona cywilom w 1983 r., to jednak sygnał satelitarny był celowo zakłócany, aby zmniejszyć precyzję wyznaczania pozycji. Był to tzw. mechanizm Selective Availability. Powodował on błędy podczas pozycjonowania w granicach 100m. Chwilowo mechanizm Selective Availability nie działał w latach 1990-1991 (został wyłączony na czas I wojny w Zatoce Perskiej). Definitywnie mechanizm Selective Availability wyłączono 1 maja 2000 roku.


---

Artykuł pochodzi z serwisu www.Artelis.pl

Super wizja - nowa jakość telewizji wysokiej rozdzielczości

Autorem artykułu jest Katarzyna G.



Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.

Pod koniec września 2010 roku światłowody na trasie Londyn - Tokio rozgrzały się do czerwoności. Po raz pierwszy w historii miała miejsce transmisja na żywo sygnału w rozdzielczości Super Hi-Vision.


Japońscy fani brytyjskiego zespołu The Charlatans obejrzeli ich koncert podziwiając jednocześnie formę zespołu, jak i (może bardziej?) jakość dostarczanego obrazu i dźwięku. Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.
Ciekawostką jest fakt, że Japończycy dysponowali możliwościami dystrybucji analogowego sygnału w wysokiej rozdzielczości już pod koniec lat 80-tych poprzedniego stulecia.

00010408

Prezentacja Super Hi-Vision na targach IBC 2010 w Amsterdamie (digitalproductionme.com)


Super Hi-Vision jest opracowanym przez japońską telewizję publiczną NHK standardem wyświetlania obrazu telewizyjnego. Przy pracach nad jego udoskonalaniem i wdrażaniem pomagają również: brytyjskie BBC oraz włoska RAI.

Możliwości standardu są imponujące - obraz wyświetlany jest w rozdzielczości 7680 x 4320 (33 1776 MPix), czyli w 16-krotnie większej rozdzielczości niż obraz w Full HD. Większa jest również liczna klatek, jakie mogą być wyświetlane w ciągu jednej sekundy: 50 lub 60.

Każdy fan kina i telewizji wie, jak wiele wrażeń dostarcza dźwięk. Składową Super Hi-Vision jest technika "Hamasaki 22.2" nazywana w skrócie "22.2", będąca krokiem milowym w przesyłaniu strumieni audio.
Transmisja dźwięku odbywa się na 24 kanałach: 9 kanałów powyżej głowy, 10 kanałów na wysokości głowy, 3 kanały poniżej wysokości głowy, 2 kanały na efekty specjalne o niskich częstotliwościach.
Przy 24 głośnikach określenie "dźwięk przestrzenny" nabiera zupełnie nowego znaczenia. Przy tym standardzie obraz w jakości Full HD wygląda jak rozmyta plama, a jakość dźwięku Dolby Surround przypomina dźwięk z samochodowego odtwarzacza kasetowego.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Czy warto omijać blokadę nawigacji?

Autorem artykułu jest Marcin Osiński



Kupiłeś urządzenie PNA? A może właśnie planujesz taki zakup? Atrakcyjna cena nie zawsze idzie w parze z funkcjonalnością. Czym jest blokada systemu operacyjnego i czy warto się jej pozbywać aby instalować inne oprogramowanie?
Większość dostępnych na rynku urządzeń do nawigacji satelitarnej dostarczana jest w komplecie z mapami. Sprzęt kupowany promocyjnie za nieduże pieniądze wyposażony jest zazwyczaj w przestarzałe lub dość ubogie wersje programów nawigacyjnych i nie zawsze aktualne mapy. Przeważnie produkty promocyjne są zablokowane i pozwalają na obsługę jedynie oprogramowania które było dołączone do zestawu.
Rozwiązaniem może być np. sprzęt marki Navix, który nie posiada żadnych blokad oprogramowania. Niestety jest to raczej wyjątek potwierdzający regułę. Fora dyskusyjne pełne są jednak sposobów na ominięcie i usunięcie blokad z praktycznie każdego urządzenia.

Odblokowanie Larka, Akiry, GoClevera czy Navii nie jest problemem nawet dla osoby niedoświadczonej w tym temacie. Pozostaje jednak pytanie czy ma to sens? Pierwsza sprawa z którą należy się liczyć po zdjęciu blokady programowej z nawigacji to utrata gwarancji. Tak jak w przypadku simlocków w telefonach GSM tak samo w przypadku urządzeń PNA usunięcie blokady spowoduje duże problemy przy ewentualnych roszczeniach zgłoszeniach gwarancyjnych w przypadku serwisu producenta i prawie pewne odrzucenie reklamacji w przypadku zgłoszenia w sklepie. Ten problem dotyczy praktycznie wszystkich zabezpieczonych urządzeń, niezależnie od marki.

Pomimo zadowolenia użytkowników z odblokowania własnej nawigacji w trakcie użytkowania dośc często zaczynaja pojawiać się różne, niespotykane dotąd kłopoty. Czasami zanika sygnał GPS, w innych przypadkach czytelnośc wyświetlacza zaczyna spadać nie dając sie wyregulować. Zdarzają się tez przypadki przywieszania urządzeń a nawet całkowitej ich blokady która wymaga właściwie jedynie wizyty w serwisie (a przypominam, najprawdopodobniej utraciliśmy juz gwarancję dokonując odblokowania).

Kupić tanią nawigację, niezbyt funkcjonalną mapę, ominąć blokady i miec nadzieję że obejdzie się bez wymienionych wyżej problemów czy może jednak od razu kupić lepszy sprzęt (np. Navix) który nie ogranicza stosowania innego oprogramowania? Decyzję pozostawiamy Czytelnikom.
Warto jednak zwrócić dodatkowo uwagę na kwestię licencjonowania Sisvel. Dystrybutor marki Navix jasno i wyraźnie deklaruje zgodność z obowiązującymi w Europie licencjami. W przypadku innych produktów często no-name może być różnie.
---

--


Artykuł pochodzi z serwisu www.Artelis.pl

Jaki GPS wybrać? – o nawigacji i nie tylko …

Autorem artykułu jest Paweł Kuźma



Wybór najlepszej nawigacji samochodowej, nie jest wyborem łatwym. Na rynku zaroiło się ostatnimi czasy od tanich urządzeń mało znanych producentów z dalekiego wschodu. Czy oznacza to, że urządzenia te powinny być już na starcie poszukiwań odpowiedniego sprzętu odrzucane?

To, że nawigacja nie jest firmowana przez takich producentów jak Garmin, TomTom, czy Navigon, nie oznacza wcale, że sprzęt nie będzie się dobrze spisywał na drodze .Czym więc powinien kierować się potencjalny nabywca odbiornika GPS?

Należy mieć  świadomość, iż urządzenia nawigacyjne bazują na mapach dróg o różnej dokładności odwzorowania, dostarczanych przez różnych producentów, tak więc trzeba liczyć się z różną dokładnością map. Przy wyborze urządzenia, należy też odpowiedzieć sobie na pytanie czy potrzebujemy nawigacji samochodowej, czy może multimedialnego urządzenia z opcją nawigowania i funkcjonalnościami takimi jak np. odtwarzacz mp3, odtwarzacz video itp.

Przy wyborze GPS-a warto więc, kierować się wieloma czynnikami, z których najważniejsze to:

- szczegółowość map dołączanych do urządzenia dla mniejszych i większych miejscowości w kraju i zagranicą,

- koszt aktualizacji map,

- algorytm wyznaczania tras, objazdów oraz możliwość zaawansowanego planowania tras oraz modyfikowania ich w czasie podróży

- wielkość wbudowanej bazy danych punktów użyteczności (POI),

- szybkość reakcji na zmiany trasy w trakcie jazdy,

- funkcje dodatkowe.

Warto też  sprawdzić, czy urządzenie jest przystosowane do współpracy z różnymi mapami, na wypadek gdyby mapa dostarczona przez producenta niespełniała naszych oczekiwań.

Niektóre z urządzeń nawigacyjnych oferują także możliwość wyboru trybu pracy jako np. nawigacja piesza, czy nawigacja do samochodów ciężarowych. Tu jednak warto mieć na uwadze, że profesjonalne systemy do nawigacji dedykowane np. do samochodów ciężarowych, odznaczają się nie tylko wyższą ceną, ale i szeregiem funkcji, takich jak możliwość zaprogramowania urządzenia z uwzględnieniem gabarytów pojazdu, ciężaru, czy monitorowaniem zużycia paliwa, których to zwykła nawigacja samochodowa mieć nie będzie.

Decydując się na zakup nawigacji samochodowej warto pamiętać, że nie istnieją urządzenia idealne. Nie ma urządzeń, które potrafiłyby zastąpić za kierownicą człowieka, urządzenia te mają za zadanie jedynie ułatwić człowiekowi prowadzenie pojazdu i wybór właściwej drogi.

---

Xtrack.pl - GPS systemy monitorowania pojazdów


Artykuł pochodzi z serwisu www.Artelis.pl

Czy technologia LED jest najlepsza?

Autorem artykułu jest kadlubek



Obecnie na rynku można znaleźć trzy rodzaje telewizorów a mianowicie plazmowe, LCD i LED. Dlaczego warto zakupić telewizory LED a nie inne?

 

We wcześniejszych artykułach wspomniane jest, iż technologia LED opiera się na diodach emitujących światło. Sprawia to polepszenie jakości widzianego obrazu. Tak naprawdę telewizory LED należą do grupy telewizorów ciekłokrystalicznych LCD. Główna różnica miedzy LCD a LED polega na rodzaju podświetlenia zastosowanego w telewizorze. Technologia LCD zastosowała świetlówki typu CCFL, natomiast telewizory typu LED posiadają małe diody emitujące światło. Do ciekawostek należy fakt, iż pierwszy telewizor typu LED został zbudowany w 2004 roku i na tamtejsze czasy kosztował bagatela 25 tysięcy dolarów. Jak łatwo się domyśleć mało kto mógł sobie pozwolić na taki rarytas jakim był telewizor LED. Obecnie jednak nie ma czego się obawiać technologia LED, pomimo iż jest jeszcze drogą technologia to i tak bardzo duże grono osób może sobie pozwolić na telewizory LED. Można bowiem już zakupić tego typu telewizor zaczynając od ceny około 2000 złotych.

Należy nadmienić, iż telewizory LED można podzielić na „local dimming”, gdzie diody podświetlają ekran od spodu oraz „Edg LED” gdzie diody są umieszczone w listwach po obu stronach ekranu. Powoduje to zmniejszenie zużycia prądu nawet o 60%. Kolejnym efektem zastosowania tej technologii jest widoczna poprawa jakości obrazu.

Do zalet tych telewizorów należy, więc poprawa kontrastu w porównaniu z telewizorem LCD, dużo mniejsze zużycie energii oraz pogłębienie czerni obrazu co jest niemożliwe jak na razie w zwykłych telewizorach LCD. Dodatkową zaletą jest to, iż zajmuje mniej miejsc, gdyż należy do telewizorów super cienkich o szerokości 1,5 cm a nowsze telewizory mają szerokość kilku milimetrów. Do wad należy wciąż duży koszt zakupu tego typu telewizora w porównaniu do LCD. Telewizory LCD można bowiem zakupić już w cenie 1000 złotych ( mową o 32” telewizorach).

 

 

---

samosia


Artykuł pochodzi z serwisu www.Artelis.pl

niedziela, 9 stycznia 2011

Telewizory LCD – niekoniecznie tanie, koniecznie Full HD

Autorem artykułu jest Okazje



Producent, wielkość i rozdzielczość. Jak wynika z raportu internetowej porównywarki cen Okazje.info, nie cena, a właśnie te trzy parametry najbardziej interesują kupujących telewizory LCD Polaków.

Producent, wielkość i rozdzielczość. Jak wynika z raportu internetowej porównywarki cen Okazje.info, nie cena, a właśnie te trzy parametry najbardziej interesują kupujących telewizory LCD Polaków.

Z raportu wynika, że szukamy głównie telewizorów średniej wielkości (najczęściej wybierana przekątna ekranu to 30-39 cali) i w umiarkowanej cenie (najchętniej - do 2000 zł). Cena nie odgrywa jednak głównej roli w naszych wyborach - najtańszych modeli telewizorów szukało tylko 2 % przeglądających kategorię internautów.

- Użytkownicy byli szczególnie zainteresowani ofertą telewizorów Full HD, które wyprzedziły modele HD Ready o 82,5 %. Modelami o innego rodzaju rozdzielczości interesowało się zaledwie 4,5 % użytkowników – mówi Justyna Staszewska, PR&Marketing Assistant porównywarki Okazje.info. Jednak najczęstszym kryterium wyboru okazał się producent.

Największą popularnością wśród użytkowników Okazje.info cieszy się firma Sony, która przyciągnęła uwagę 27 % internautów. 25% użytkowników wybierało Samsunga, trzecią w kolejności lokatę zajęło LG z zainteresowaniem na poziomie 12 %.

- Niezdecydowani klienci szukają informacji u innych kupujących - mówi Justyna Staszewska. - Poza danymi dotyczącymi parametrów, internauci często szukali informacji o wyborach innych użytkowników. Ranking telewizorów LCD odwiedziło 4,5 % zainteresowanych telewizorami, a dział porad dotyczących wyboru sprzętu – 4 %.

Jak wynika z danych porównywarki, szukających pomocy jest dość dużo. Zarówno ranking jak i porady znalazły się w pierwszej dziesiątce najpopularniejszych stron związanych z kategorią: telewizory LCD.

---

Milena Bakalarz Okazje.info


Artykuł pochodzi z serwisu www.Artelis.pl

Cyfrowa telewizja naziemna w Europie - DVB-T2

Autorem artykułu jest Katarzyna G.



Cyfrowa telewizja naziemna w Europie DVB-T2 - w ubiegłym roku zatwierdzono finalny draft DVB-T2, ostateczne przyjęcie standardu zapowiadane jest na lipiec bieżącego roku.
Większość krajów europejskich pracuje nad wdrażaniem nadawania telewizji naziemnej w systemie cyfrowym. Czasu zostało niewiele, ponieważ na 2013 rok przewidziano ostateczne zakończenie analogowego nadawania telewizji naziemnej w Europie.
Obecny okres przejściowy charakteryzuje się dużą różnorodnością - nadawane są równocześnie sygnały TV w wersji analogowej i cyfrowej.
Również w samym zakresie transmisji cyfrowych panuje spore zamieszanie. Obecnie dostępne są następujące sposoby emisji sygnału cyfrowego:

* DVB-T MPEG-2 - najbardziej popularne w Europie
* DVB-T MPEG-4 (H.264) - stosowane obecnie w przekazach testowych
* DVB-T2 MPEG-2
* DVB-T2 MPEG-4 (H.264) - docelowy standard naziemnej telewizji cyfrowej w Europie

Obecnie w Europie dominuje DVB-T/MPEG-2. W niektórych krajach zdecydowano się na DVB-T MPEG-4 (H.264) - Francja, Litwa, Węgry, Polska.

Docelowo jednak w Europie standardem będzie DVB-T2 MPEG-4 (H.264). Pierwsze komercyjne nadawanie w nowym standardzie powinno się rozpocząć w Wielkiej Brytanii pod koniec roku - mają być nadawane 3 programy w wersji HD. Pierwszym jednak terytorium, które w całości przejdzie na nowy standard będzie Grenada (listopad 2009).
W ubiegłym roku zatwierdzono finalny draft DVB-T2, ostateczne przyjęcie standardu zapowiadane jest na lipiec bieżącego roku.

a147_

a148_

Czy w dobie przekazów satelitarnych nadawanie z dużymi mocami za pomocą nadajników naziemnych ma sens, to podstawowa kontrowersja związana z naziemnym nadawaniem cyfrowym.
Na zdjęciach najwyższa wieża telewizyjna świata Toronto - CN Tower.
---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

nawigacja

Mapy GPS – AutoMapa czy MapaMap?

Autorem artykułu jest Krystian Wójcik



Jak większość urządzeń cyfrowych tak i urządzenia GPS muszą posiadać oprogramowanie, które będzie koordynować poszczególne podzespoły (system operacyjny), a także zapewni dodatkową funkcjonalność (aplikacje). Tak więc, sam odbiornik na niewiele się przyda, jeżeli nie wyposażymy go w odpowiednie mapy cyfrowe.

Dobrej jakości mapy – oprócz rozmieszczenia dróg i miejscowości – posiadają również obszerną bazę adresową oraz bazę Punktów Użeteczności Publicznej (POI) – apteki, kluby fitness, bankomaty, stacje paliw itp. Jednak na rynku nie istnieje jedna, ale przynajmniej kilka map cyfrowych, więc którą wybrać? Czy każda mapa będzie pasować do mojego odbiornika GPS? Polski rynek należy w dużej mierze do AutoMapy oraz MapyMap.

Przy wyborze mapy powinniśmy głównie kierować się dokładnmością odwzorowania. W przypadku aktualnej AutoMapy w mieście dokładność ta wynosi nawet 1m. Natomiast poza miastem AutoMapa może pohwalić się dokładnością na poziomie 12m. Również istotnym parametrem każdej mapy cyfrowej jest ilość punktów adresowych. MapaMap posiada dokładnie 2 614 835 punktów adresowych. Automapa to 2 806 178 szt. Istotnym parametrem każdej mapy cyfrowej jest ilość naniesionych miejscowości. MapaMap posiada 7 767 planów miast i miejscowości. A jak wygląda to w przypadku AutoMapy? Tutaj możemy liczyć na 26 603 nawigacyjnych planów miast i miejscowości. Istotną kwestią jaką musimy rozważyć jest ilość POI. MapaMap posiada ich 211 794 szt. A co z AutoMapą? Tutaj możemy liczyć na 600 036 punktów użyteczności publicznej.

Jednak parametry map GPS, to nie wszytko. Musimy jeszcze zwrócić uwagę na system operacyjny w naszej nawigacji. Każdy system operacyjny współpracuje z określoną mapą. Trzy najpopularniejsze systemy operacyjne instalowane w nawigacji GPS, to Windows CE, system operacyjny firmy Garmin oraz system operacyjny firmy TomTom.

Windows CE: AutoMapa, MapaMap, Be-On-Road, MioMap

Garmin: CityNavigator, GPMapa, WorldMap

TomTom: TomTom Navigator

---

Krystian Wójcik > więcej na  AutoMapa - podstawowe parametry 


Artykuł pochodzi z serwisu www.Artelis.pl

nawigacje GPS

Moduł GPS - podstawowe informacje

Autorem artykułu jest Krystian Wójcik



Aby możliwe było korzystanie z nawigacji GPS, musimy wyposażyć się w odpowiednie urządznie, które będzie odbierało sygnał z satelitów. Tym urządzeniem musi być moduł do nawigacji GPS. Urządzenie to dostarcza dokładne informacje o położeniu obiektów na Ziemi, na podstawie informacji z satelitów.

Każdy z 24 satelitów nawigacyjnych wyposażonych w atomowy zegar rubidowy, komunikuje się z segmentem naziemnym (12 stacji), aby uzyskać informacje korygujące orbitę satelity, bądź informacje o poprawkach jonosfecznych. Informacje te uzyskiwane są dzięki temu, że stacje nadzoru ciągle zbierają dane o efemerydach i almanachach (rozmieszczenie satelitów na niebie). Korzystając z informacji o almanachach moduł GPS może określić czas potrzebny do transmisji sygnału z satelitów do odbiornika GPS. Ponieważ czas ten jest proporcjonalna do odległości pokonanej, moduły GPS mogą zmierzyć promień między nim, a satelitą.

Wybór urządzeń GPS, w tym modułów GPS, wymaga analizy parametrów, tj. rodzaj modułu, moc i sposób połączenia z innymi urządzeniami, np. telefonem. Obecnie najczęściej spotykanym sposobem połączenia modułu GPS z innym urządzeniem jest interfejs BlueTooth. Ważnym parametrem każdego modułu GPS decydujący w znaczącej mierze o jego jakości jest ilość kanałówł (iość kanałów równa się maksymalnej ilości satelitów, z którymi może mieć kontakt w tym samym czasie moduł GPS), pasmo przenoszenia, czułość, dokładność położenia i czas konieczny do pierwszej poprawki. Jeżeli weźmiemy pod uwgę moc modułu GPS musimy określić napięcie, pobór prądu oraz rodzaj anteny (niektóre anteny łączone są za pomocą złącza SMA). Istotnymi parametrami każdego modułu GPS są tzw. zimny start oraz ciepły start. Zimny start jest to czas, który musi upłynąć od pierwszego włączenia nawigacji do wyznaczenia pozycji. Ciepły start to czas, który musi upłynąć od powtórnego włączenia modułu GPS do wyznaczenia pozycji. 

---

Krystian Wójcik >  szukasz modułu GPS? Jeżeli tak to zapraszam - Moduł do GPS


Artykuł pochodzi z serwisu www.Artelis.pl

sobota, 8 stycznia 2011

Trzeci wymiar według firmy Panasonic

Autorem artykułu jest Katarzyna G.



Najwięksi producenci prześcigają się w przygotowaniu systemów wyświetlających obraz 3D. Panasonic angażuje się w opracowanie technologii do: przechwytywania obrazu (3D kamkorder), odtwarzania (odtwarzacz Blu-ray DMP-BDT350 debiut handlowy 06.10.2010) i wyświetlania...

Panasonic angażuje się w opracowanie technologii do: przechwytywania obrazu (3D kamkorder), odtwarzania (odtwarzacz Blu-ray DMP-BDT350 debiut handlowy 06.10.2010) i wyświetlania (seria telewizorów Viera TV z 3D), jednocześnie wspólnie z amerykańską platformą DirecTV planuje uruchomić w czerwcu nadawanie programów 3D.

Jednym z najciekawszych rozwiązań w zakresie 3D jest Full HD Plasma Home Theater System (3D FHD) przygotowany przez firmę Panasonic. Zestaw składa się z telewizora plazmowego serii Viera (dostępne odbiorniki - 50", 54", 58" oraz 65" i pokazany na CES w Las Vegas 152"), odtwarzacza Blu ray DMP-BDT350 i aktywnych okularów (Active Shutter 3D Glasses). Na dysku optycznym nagrane są obrazy w rozdzielczości 1080p - osobno dla lewego i prawego oka. Odtwarzacz wyposażony w wysokowydajny procesor odczytuje zapisane obrazy, które wyświetlane są naprzemiennie w telewizorze plazmowym o częstotliwości odświeżania 600 Hz (panele typu NeoPDP opracowane przez Panasonic).

Aby móc oglądać odpowiednio przygotowany materiał, widz zaopatrzyć się musi w tzw. aktywne okulary (Active Shutters Glasses), synchronizujące się z telewizorem dzięki bezprzewodowej transmisji Bluetooth. Okulary, które zamiast typowych szkieł posiadają ciekłe kryształy przysłaniają raz lewe raz prawe oko z niewykrywalną dla wzroku częstotliwością 120 lub 200Hz. Zastosowanie takiej technologii pozwala wyeliminować drgania obrazu i uzyskać obraz trójwymiarowy o rozdzielczości 1080p.

Trzeci wymiar według firmy Panasonic

 

Zasada działania systemu 3D FHD - firmy Panasonic
źródło www.panasonic.co.uk

 

SMPTE (Society of Motion Picture and Television Engineers) pracujący nad standardem 3D dla dysków Blu-ray od 2009 roku wydał rekomendację, że w standardzie docelowym obraz powinien być wyświetlany w rozdzielczości 1920 x 1080 przy 60 klatkach/s. Specyfikacja do standardu będzie wyszczególniała między innymi specjalny kodek - Multiview Video Coding (MVC), który ma być rozszerzeniem ITU-T H.264 Advanced Video Coding (AVC) stosowanego obecnie w odtwarzaczach Blu-ray.


Kodek MPEG4-MVC pozwoli na zapisanie jednego obrazu wraz z opisem różnicy pomiędzy obrazem dla lewego i prawego oka (metadane). Wykorzystując metadane będzie można odtwarzać dwie ramki (lewą i prawą) przy zmniejszonej znacznie wielkości plików danych.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

piątek, 7 stycznia 2011

Telewizory LCD przechodzą do lamusa

Autorem artykułu jest Kamil Guru



Nowa technologia podświetlenia obrazu w telewizorach wkracza do sklepów. Okres dominacji LCD dobiega końca. Czy warto jeszcze kupić model z takim panelem ? Zapraszam do lektury.

Telewizory LED dostępne są na rynku już od kilkunastu miesięcy, jednak dopiero o niedawna cieszą się zainteresowaniem klientów. Najnowsze badania wskazują, że odbiorniki z podświetleniem LED na koniec 2009 roku uzyskały 3 proc. udział w rynku. Prawdziwa ekspansja zapowiadana jest na 2010 rok, w którym udział zwiększy się do 40 proc. Zagrożone są przede wszystkim telewizory lcd, ponieważ LED jest ich następcą. Nowa technologia pobiera o ponad 60 proc. energii mniej, telewizory LED są cieńsze i oferują znacznie lepszą jakość obrazu. Aktualnie jedynie trzech producentów oferuje takie telewizory, jednak sytuacja zmienia się bardzo dynamicznie. Jeszcze w tym roku do wielkiej trójki dołączą mniejsi gracze, którzy zaoferują TV LED w konkurencyjnych cenach. Zdaniem analityków czeka nas kolejna wojna cenowa, która powinna ucieszyć klientów, ponieważ to wysoka cena była wymieniana jako główna przeszkoda w masowej popularyzacji LED TV. Z danych dostarczonych przez największe sieci sklepowe w Polsce wynika, że dziennie 400-500 telewizorów LED w kraju znajduje nowego właściciela. Sytuacja ulegnie znaczącej poprawia już za kilka miesięcy, kiedy ceny LCD i LED zrównają się. Musimy jednak pamiętać, że nowa technologia nadal wymaga dopracowania, dlatego wato szukać promocji cenowych dla telewizorów LCD. Oferowana jakość wyświetlanego obrazu jest porównywalna lub niewiele gorsza od LED, dlatego nie w każdym przypadku opłacalne jest inwestowanie w nowe rozwiązania. Zawsze warto porównać obraz z telewizorów w sklepie i dopiero wtedy podjąć decyzję.

---

Artykuł pochodzi z serwisu www.Artelis.pl

telewizja 3D

Trójwymiarowa telewizja bez okularów

Autorem artykułu jest Katarzyna G.



Idea przygotowania ekranu do wyświetlania obrazów 3D, pozwalająca na oglądanie bez specjalnych okularów, sprowadza się do zamontowania na ekranie specjalnej przesłony lub cylindrycznych soczewek.


 

W obu przypadkach efektem działania jest dostarczenie do lewego i prawego oka różnych obrazów.
Na rynku dominują dwie techniki autostereoskopowe ("bezokularowe"):

metoda bariery paralaksy,metoda soczewkowa (soczewek lentykularnych).

Trójwymiarowa telewizja bez okularów

Techniki "okularowe" dominują na rynku 3D,
ale przyszłość należy do autostereoskopii

 

Metoda bariery paralaksy polega na umieszczeniu przed ekranem telewizora specjalnie zaprojektowanej przesłony wykonanej z nieprzeźroczystego materiału. Przesłona posiada szczeliny, przez które przekazywany jest obraz dla prawego oraz lewego oka. Rozmieszczenie szczelin współgra z możliwymi pozycjami obu oczu względem ekranu telewizora. Aby możliwe było oglądanie trójwymiarowych efektów w tej technologii, konieczne jest odpowiednie przygotowanie materiału wideo. Klatka obrazu zwana stereogramem powstaje poprzez złożenie dwóch obrazów - dla prawego oraz lewego oka. Tak spreparowany obraz pozwala na ujrzenie efektu 3D tylko naprzeciwko ekranu telewizyjnego, dlatego też najnowsze technologie tworzenia obrazów pozwalają na tworzenie pojedynczych klatek (panoramagramów), w skład których wchodzi znacznie większa ilość obrazów bazowych. W efekcie zwiększa się ilość puntów, w których widz oglądać może czysty, ostry i trójwymiarowy obraz.

 

Trójwymiarowa telewizja bez okularów

Autostereoskopowe metody wyświetlania obrazu 3D.
Wygląda na to, że przyszłością jest metoda soczewek lentykularnych,
ze względu na lepsze odwzorowanie barw i janość obrazu.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Technologia LED

Technologia LED przyszłość czy marketing?

Autorem artykułu jest electroart



Na początek chciałbym przedstawić co to wogule jest technologia led.LED - czyli light emitting diode - są to małe diody, które zrewolucjonizowały przemysł elektroniczny do takiego stopnia, że dzisiaj nie sposób nie natknąć się na nie.

Zacznijmy m oże od wyświetlaczy led  o których ostatnimi czasy jest coraz głośniej. Przyjżyjmy się czy ta technologia w wyświetlaczch lcd to poprostu skuteczny marketing nażucony nam przez cpecjalistów od PR-u czy naprawdę w led jest przyszłość.

Wyświetlacze LED jeżeli by wierzyć zapewnieniom naukowców niewątpliwie już niebawem zastąpią LCD, nie dziwi więc fakt, że na rozwój tej technologii  przyznawane są coraz większe fundusze. Jednak większość wprowadzanych na rynek telewizorów wykorzystujących technologię  LED spotyka się z wieloma zarzutami. Jednym z najważniejszych jest to, że panelu nie tworzą diody, a jedynie służą one do podświetlania krawędzi (a więc, technicznie rzecz biorąc, nie są to prawdziwe Panele te, w odróżnieniu od tradycyjnych LCD charakteryzują się tym ,że:

    * uzyskiwany na nich obraz jest jaśniejszy,a odcień czerni jjest  głęboki i wyrazisty
    * są dużo cieńsze niż tradycyjnie podświetlane (obecne na rynku modele mają około 1,6 cm grubości)
    * zużywają dużo mniej energii (około 50 %)
    * oferują szerszą gamę kolorów (szczególnie przy podświetlaniu RBG-LED)

Obecnie są prowadzone prace nad otrzymaniem ultracienkich, nieorganicznych diod które świecą jaśniej i dłużej niż tradycyjne matryce LED, dzięki czemu możliwe będzie stworzenie elastycznego mikrowyświetlacza zawierającego sieć połączonych oczek, na których nadrukowane będą przyczepione do organicznego podłoża mikrodiody.

Czyli jeżeli chodzi o zastosowanie diód led w wyświetlaczach zyskujemy nie tylko na oszczędności energi ale także na jakości wyświetlanego obrazu, zatem na dzień dzisiejszy warto rozważyć zakup telewizora z podświetleniem Led

A zatem co ze zwykłym oświetleniem domu czy tu też led znajdzie zastosowanie ?

Zalety Podświetlenia LED

Przede wszystkim  czas eksploatacji żarówek opartych na diodach led jest znacznie dłuższy i wynosi nawet 100 tysięcy godzin przypomnijmy że zwykła żarówka posiada żywotność do 10 tys godz zatem różnica jest zauważalna. Ponadto źródła światła LED nie tracą pobieranej energii wydzielając niepotrzebne ciepło co u tradycyjnych żarówek niestety jest normą żę 70 % Energi którą pobierają zużywają nie na emitowanie światła ale na wydzielanie ciepła. Dzięki nowoczesnym rozwiązaniom technologicznym cała moc zużywana jest na produkcję światła - gdyby stworzono diody o tej samej mocy co żarówka, emitowałyby one nawet trzy razy więcej światła pobierając taką samą ilość energii. Przewiduje się jednak, że w niedalekiej przyszłości diody LED o takiej mocy emitować będą aż 16 razy więcej światła. Ważną zaletą LED jest także ich wytrzymałość na uszkodzenia mechaniczne (brak szklanych elementów sprawia, że diody są praktycznie niezniszczalne) oraz zmiany pogodowe, czyli wysokie i niskie temperatury. Z punktu widzenia zastosowania diod istotny jest tzw. kąt rozsyłu, który mieści się w ich przypadku w przedziale 1-150 stopni normalna żarówka świeci dookoła dzięki czemu oświetla całe pomieszczenie w technologi led to jest jedna z przeszkód którą napotkano przy zastosowaniach domowych, a także czas włączania, który jest 2 miliony razy krótszy od typowych żarówek.

Obsługa i zastosowanie 
Sposób obsługi diod stwarza niemal nieograniczone możliwości użytkowe. Mogą one być zasilane i sterowane, podobnie jak inne urządzenia elektroniczne, przy pomocy mikroprocesora, który steruje poziomem jasności i kolorem światła. Traktuje się je, jako punktowe źródło światła, co sprawia, że standardowe oprawy oświetleniowe nie nadają się do ich wykorzystania. Dlatego też dużym wyzwaniem stoją projektanci i konstruktorzy. To od  będzie zależeć zastosowanie diod LED w oświetleniu ogólnym, akcentującym, reklamowym czy dekoracyjnym. Obecnie najczęściej grupuje się kilka pojedynczych diod, by tworzyły układ możliwy do wykorzystania w tradycyjnych oprawach. Dzięki licznym zaletom stosowane są praktycznie wszędzie gdzie jest to możliwe - do oświetlenia domów, lokali użytkowych, budynków, ogrodów, pojazdów i tablic informacyjnych. Technologia LED wykorzystywana jest również w oświetleniu sygnalizacyjnym i ostrzegawczym. Wszystkie te elementy sprawiają, że dioda ma duże szanse zastąpić istniejące źródła światła.

Tak więć podsumowując

Warto się zastanowić nad zakupem alternatywnego podświetlenia np w naszych domach jeżeli chcemy zaoszczęzić na rachunku jest to zdecydowanie godne polecenia rozwiązanie, aczkolwiek nie jest wolne od wad i jeszcze długa droga do doskonałośći .Podśwetlenie Led bardzo dobrze się sprawdza w wyświetlaczach do telefonów komórkowych dzięki temu że taki wyświetlacz zużywa mniej prądu nasza bateria w telefonie wystarcza na dłużej i moim zdaniem ten rynek diody led podbijąnajszybciej. Akcesoria gsm zaczynają być oparte na diodach led gdyż jest to jedna z tych dziedzić w której oszczędność energi znaczącą wpływa na komfort użytkowania telefonów.

---

Artykuł pochodzi z serwisu www.Artelis.pl