View Łukasz Herman's LinkedIn profileView my profile

statystyki www stat.pl

czwartek, 31 sierpnia 2006

Microsoft przygotowuje się do udostępnienia wersji RC1 Visty na dużą skalę.

Jednym z kroków było udostępnienie w ostatnim czasie wersji Pre-RC1 Visty oznaczone numerem buildu 5536. Pierwsze 100 tysięcy osób mogło pobrać tą wersję, generując przy tym naprawdę spory ruch w sieci. Podobno celem było przetestowanie sieci AKAMAI, która jest jedną z najwydajniejszych i największych sieci łączących sieci szkieletowe w wielu państwach, w tym w Polsce.

Aktualnie już wyczerpał się limit osób, które mogły pobrać tą wersje Visty, nie będąc testerami Microsoftu.

Innym posunięciem giganta z Redmond będzie wysyłka wersji RC1 Visty, oraz Longhorna Server do testerów wersji beta. W ostatnim czasie Microsoft rozesłał maile w tej sprawie i jak dobrze pójdzie to za 3 do 5 tygodni testerzy będą mogli dostać pocztą wersje RC1 nowych systemów, bądź jednego, który sobie wybrali przy zgłoszeniu.

Tu szczególną uwagę powinno się zwrócić na wydanie Longhorn Servera. Wersja RC1 zapowiada się, że przyniesie bardzo duże zmiany, szczególnie z tego względu, że dawno nie był udostępniony żaden nowy build. Oczywiście zanim przyjdzie paczka z systemem, testerzy będą mogli po opublikowaniu wersji RC1, pobrać ją z serwerów Microsoftu.

Skoro przy wersji Pre-RC1 Microsoft zdecydował się na przetestowanie możliwości sieci AKAMAI, bardzo prawdopodobne jest to, że udostępni on ją dla dużo szerszej grupy testerów!

10:31, hermanluk , Windows
Link Dodaj komentarz »
sobota, 26 sierpnia 2006

Od dzisiaj na blogu dostępny jest TrackBack.

Jeżeli komentujesz na swoim blogu notkę napisaną przeze mnie, skorzystaj z tego aby poinformować o tym mnie, oraz innych użytkowników.

piątek, 25 sierpnia 2006

Mapa strony jest dosyć kluczowym (dzisiaj) elementem stron internetowych. Każdy deweloper i programista powinien wiedzieć co daje zaimplementowanie takiej funkcjonalności. Przede wszystkim jest to ułatwienie w nawigacji po serwisie internetowym. Jest to również sposób za pomocą którego możemy pomóc robotom przeszukującym internet w zaindeksowaniu wszystkich naszych stron. Jakiś czas temu pisałem o zmianie tytułu każdej strony na podstawie pliku web.sitemap: Tytuł strony rodem z web.sitemap

Czy na tym koniec? W zasadzie to co wymieniłem to są największe korzyści jakie możemy odczuć. Z drugiej strony jeżeli chcemy aby nasza strona była dostępna, spełniając twarde kryteria WAI AAA, powinna zawierać między innymi mapę strony. 

Budowanie mapy strony w ASP.NET może często pomóc nam w budowie menu, z którego korzystać będą użytkownicy. W celu ułatwienia tego zadania, Microsoft umożliwił budowanie pliku XML zawierającego całą strukturę menu w jednym miejscu - pliku web.sitemap. Wraz z dołączonymi kontrolkami pozwalającymi budowanie menu metodą przeciągnij i upuść, został zaprezentowany sposób na łatwą i szybką budowę całego menu i jeszcze paru innych rzeczy.

Format XML jest bardzo dobrze przemyślany i popularny przy przechowywaniu danych, oraz operowania na nich. Wielu osobom na pewno będzie się to podobało. Ale czy to jest naprawdę dobre rozwiązanie i nie można zrobić czegoś lepszego?

Dzisiaj chyba już nikt sobie nie wyobraża przechowywania danych, z których korzystać będą aplikacje internetowe, w plikach csv (oddzielonych przecinkami), czy w innych plikach na dysku fizycznym. Największym argumentem przeciwko nim jest ulotność danych. Należy zawsze je archiwizować i być pewnym, że w razie awarii nie stracimy naszej cennej pracy (dwuznaczność celowa). Plik XML również jest obarczony tą niedogodnością, utrudnieniem.

Bazy danych. To jest dzisiaj najpopularniejszy magazyn przechowywania danych wszelkiej maści. Możliwości dzisiaj są bardzo duże, przechowywanie danych w jednym miejscu jest również plusem i ułatwieniem przy archiwizacji. Więc może by tak przenieść mapę strony do relacyjnej bazy danych, ułatwiając sobie zarządzanie wszystkimi danymi wykorzystanymi w aplikacji?

Inna kwestia to budowanie dynamicznej strony. A strona dynamicznie generowana pociąga za sobą konieczność dynamicznego generowania mapy strony, menu, etc. Owszem, możemy to zrobić na wiele sposobów. Edycja plików XML nie jest bardzo skomplikowana, a edycję pliku web.sitemap możemy dokonać na sposób jaki został przedstawiony na MSDN, albo na ten opisany na blogu Danny'ego Chena.

Możemy również napisać własnego Providera, który na podstawie struktury fizycznych plików i katalogów będzie tworzył mapę strony, tak jak opisane to jest w artykule Scotta Mitchella (Examining ASP.NET 2.0's Site Navigation - Part 4). Polecam całą serię artykułów osobom pragnącym dowiedzieć się nieco więcej o budowie i wykorzystaniu pliku web.sitemap w ASP.NET. Takim sposobem możemy rozszerzyć funkcjonalność mapy strony, nie pozbawiając się integracji z kontrolkami korzystającymi z tego pliku (a dokładniej łącznika dającego dostęp do mapy strony).

Microsoft nie przewidział jednak przechowywania mapy strony w bazie danych, lecz tylko i wyłącznie w pliku XML - web.sitemap. Ale możemy uzupełniać plik web.sitemap na podstawie danych z bazy danych, jak zostało to opisane na CodeProject. Ten sposób jest już najbliższy mojego celu. Moim celem było znalezienie sposobu umieszczenia mapy strony w bazie danych, a dodatkowo nie tracąc dotychczasowej funkcjonalności idącej z wykorzystania ASP.NET. Ale czy to już szczyt marzeń? :)

Nie. Więc w czym problem, skoro jest tyle sposobów?

Czy nie lepiej byłoby mieć specjalnego providera, który czytałby bezpośrednio ze struktury w bazie, z pominięciem pliku w formacie XML? Na pewno tak. I nawet jest to już przedstawione w internecie. I to nawet u samego źródła, bo w MSDN Magazine, w numerze z początku tego roku.

Tak, o to mi dokładnie chodziło. Jest to najbardziej eleganckie rozwiązanie jakie udało mi się znaleźć. Ale ...

Rozwiązanie w większości przypadków zadowalające, ale zawsze musi być jakieś ale. Ten provider nie jest perfekcyjnie dopracowany, przydałoby się kilka zmian. Przede wszystkim problem możemy napotkać, jak zobaczymy z jaką strukturą tabeli w bazie danych on działa. Czy to problem stworzyć taką tabelkę? Nie, ale zapewne żaden administrator bazy danych nie powie, że duplikowanie tych samych danych w bazie jest dobrym rozwiązaniem, bo to nie jest dobre rozwiązanie. A takie niestety są ograniczenia w tej implementacji - potrzebna jest struktura tabeli o określonej budowie. Ja tworzę taką tabelę poprzez stored procedure w której korzystając z możliwości kursorów pobieram dane z innych tabeli. Uruchomianie takiej procedurki pewnie nie jest najlepszy z możliwych sposobów (bo to ciągłe odbudowywanie zawartości tabeli od zera, przy każdej zmianie), ale jest to przynajmniej jakiś sposób.

Przy wypełnianiu naszej tabelki danymi (najczęściej dynamicznymi, przy każdej zmianie) musimy zwracać baczną uwagę na to, by wszystkie komórki zostały wypełnione, bo inaczej... nie będą wyświetlane wszystkie dane z wierszy począwszy od tego z pustą zawartością!

Dużo się nasiedziałem zanim to wyśledziłem. Gdy tylko kawałek menu opierającego się na takiej mapie strony nie był uzupełniony, brakowało po prostu części menu. Każda komórka musi być wypełniona, a dodatkowo adresy URL, tytuły, czy opisy nie mogą się powtarzać, bo błędu nie zobaczymy, tak samo jak części menu ;)

Podsumowując. ASP.NET nie ma wbudowanego wygodnego mechanizmu umożliwiającego przechowywanie mapy strony w bazie SQL. Najbardziej eleganckim rozwiązaniem jest napisanie własnego providera, lub skorzystanie z tych dostępnych w internecie (codeproject, MSDN Magazine) i ich rozbudowanie bądź ulepszenie w miarę wymagań.

niedziela, 20 sierpnia 2006

Nowa technologia Novella zaprezentowana na konferencji LinuxWorld odbywającej się w San Francisco - AppArmor, zdobyła tytuł „Najlepszego rozwiązania bezpieczeństwa” („Best Security Solution”).

Dlaczego piszę o czymś takim na moim blogu? :)

Wyraźnie widać, że Microsoft uczy się od lepszych. Novell zawsze był o krok naprzód, lecz zaniedbanie w marketingu reklamującym jego markę i produkty spowodowało nieco inne skutki niż przewidywania, że dobra marka rozreklamuje się sama.

AppArmor jest to bardzo ciekawe rozwiązanie dostępne między innymi w SUSE Linux Enterprise Server (SLES), umożliwiające filtrowanie ruchu, nie sieciowego, ale pomiędzy aplikacjami. Bardzo interesujące rozwiązanie. Wiadomo, że serwer jest tak bezpieczny, jak najmniej bezpieczny jego składnik. A co by było gdyby odseparować potencjalnie słabiej zabezpieczone fragmenty od całości? To właśnie wykonuje AppArmor. Jest to taki firewall pomiędzy aplikacjami, gwarantujący, że żadna z aplikacji nie wpłynie niekorzystnie (nieprzewidzianie) na inne kluczowe składniki, programy, usługi.

Pod koniec wpisu Czy Vista będzie bezpieczna? pisałem o usługach ograniczonych (restricted services), listach ACL dla usług, itp.:

Już wcześniej pisałem o zmianach w modelu usług w Viście: Usługi systemowe w Longhornie. Jednak to nie wszystkie zmiany, jakie zostaną zaimplementowane w systemie.

Wprowadzone zostanie również koncepcja "restricted services", dzięki czemu większość uruchomianych usług będzie działać z jak najmniejszymi uprawnieniami, uniemożliwiając uszkodzenie systemu użytkownika przez skompromitowane, bądź źle działające usługi. Nowy firewall będzie blisko powiązany z platformą Windows Service Hardening, która umożliwia wprowadzenie restrykcji ruchu wychodzącego, przychodzącego i protokołów dla operacji sieciowych. W dodatku poszczególne usługi będą mogły być niezależnie identyfikowane, umożliwiając tworzenie list ACL per-service. W ten sposób będzie możliwe umożliwianie usłudze zapisywanie danych tylko w określonym miejscu na dysku, rejestrze, lub innym zasobie systemowym. Mechanizm ten ma zabezpieczyć przed zmienianiem ważnych ustawień konfiguracyjnych przez skompromitowane usługi. Standardowe usługi Visty będą pogrupowane w profilach usług, definiujących poziom przywilejów w systemie, reguł dostępu do zasobów systemu, oraz numery portów ruchu przychodzącego i wychodzącego z jakich będą mogły korzystać.

Jest to bardzo analogiczne rozwiązanie jak AppArmor, lecz mimo wszystko nieco uboższe (przynajmniej na dzień dzisiejszy). U Novella dotyczy ono wszystkich aplikacji, w Viscie/Longhornie na razie wiadomo tylko o zabezpieczaniu w ten sposób usług. 

Skoro Novell tak dobrze zaimplementował takie rozwiązanie, to czy Microsoft również dobrze to wykona, zwiększając możliwości zabezpieczania kluczowych elementów systemu?

Steven Smith na swoim blogu prosi o zabranie głosu w kwestii wyboru nowej nazwy dla produktu znanego dotychczas pod nazwą Atlas - będącego następcą już dzisiaj bardzo popularnej technologii Ajax (popularnej głównie dzięki Google).

Na początek proponuje on kilka przykładowych nazw:

Rich Web Programming Foundation - RWPF
Web Technology Framework - WTF (!)
AJAXX (aka let's just add an 'X' to the existing name to make it sound cooler)
Rich Language ASP Framework
Big ASP Rich Foundation - BARF
Active Client Pages - ACP

Prawda że bardzo ładne? Nie? Ja też myślę że to nie są nazwy łatwe do zapamiętania i łatwo wpadające w ucho. Za to Atlas byłby (i jest na razie) taką nazwą. Po co zmieniać coś takiego?

Pod wpisem na jego blogu wypowiedziało się już wiele osób. Może warto by wypowiedziało się więcej osób, również za propozycją pozostawienia dotychczasowej nazwy?

http://aspadvice.com/blogs/ssmith/archive/2006/08/16/Atlas_Naming_Game.aspx

czwartek, 17 sierpnia 2006

Czy firma Google robi dobre oprogramowanie? Ja jestem zdania, że ich oprogramowanie jest jednym z najlepszych w tej kategorii. Google Analytics jest to jeden z produktów udostępniający prowadzenie statystyk dla właścicieli/webmasterów stron internetowych.

Produkt dotychczas nie był szeroko rozpowszechniony z jedno ważnego powodu. Google decydowało o tym kto dostanie dostęp do serwisu statystyk. Najczęściej wiązało się to z okresem oczekiwania (ok. 2 tygodni).

Ale to już jest historia. Google Analytics dostępne jest już dla każdego, za darmo i bez żadnych reklam. Wszystko co potrzebne to umieszczenie kodu JS na swojej stronie i korzystanie ze statystyk. Na razie nie wiadomo czy powstanie jakaś wersja płatna.

The Official Google Analytics Blog: We're open! Instant access now available

Jest to bardzo niepokojące zagranie dla wszystkich firm prowadzących statystyki dla stron internetowych (często płatne). A bardzo ciekawe dla wszystkich prowadzących serwisy internetowe.

Od jakiegoś czasu posiadam na swojej stronie kod do dwóch systemów statystyk. Pierwszy to Stat.pl, co widać patrząc na bloga (logo będące wymogiem przy darmowych statystykach). Jednak ci którzy nie zaglądali do kodu strony pewnie nie wiedzą, że korzystam również z systemu statystyk właśnie Google Analytics . Więc na własnej skórze zaświadczam, że jest to niewidoczne dla użytkowników i nie ma reklam.

Statystyki założyłem mniej więcej w tym samym okresie czerwca (GA nieco później) więc postaram się w pewnym stopniu przedstawić dane zebrane przez te systemy. Na początek może statystyka przeglądarek, bo one najczęściej przyciągają ludzi:

Stat.pl: IE 43,686%, Firefox 39,952%, Opera 13,381%, Mozilla 1,556%

Google Analytics: Firefox 37.89%, IE 34.74%, Opera 25.26%, Mozilla 1.58%

Co można z tego wyczytać? Przede wszystkim należy nałożyć filtr na te wyniki. Blog jest w pewnym stopniu blogiem technicznym, więc i użytkownicy bardziej uświadomieni. To pewnie świadczy o tak małym prowadzeniu (w Stat.pl) przeglądarki IE. Trochę dziwnie prezentują się te wyniki. Szczególnie wynik Opery zaskakuje. Moim zdaniem Google wie dużo o sposobie działania przeglądarek, więc skłaniałbym się do przyjęcia ich danych. Jednak tak duża różnica w wynikach dwóch systemów statystyk budzi mój niepokój względem poprawności. Jak jest u innych użytkowników Google Analytics?

Tyle jeżeli chodzi o liczby. Innych danych chyba nie ma sensu przedstawiać, ponieważ są one albo mało ciekawe, lub niepraktyczne. Statystyka systemów przedstawia się w sposób bardzo logiczny. Dominuje system Windows (głównie XP), bo też i blog jest w tej tematyce. Co nie oznacza, że nie ma osób korzystających z systemów takich jak MacOSX, FreeBSD czy Linux ;)

Przedstawione przeglądarki również nie są jedynymi jakie przewinęły się przez EvolutiOn. Odwiedziły mnie również osoby korzystające z Safari, SeaMonkey, Flock, Konqueror, a nawet Netscape.

21:12, hermanluk , GNU/Free
Link Komentarze (2) »
środa, 16 sierpnia 2006

Dostępny już jest końcowy pierwszy numer magazynu Zine.NET poświęconemu technologii .NET

Jest to inicjatywa kilku użytkowników portalu developers.pl, która postawiła sobie za cel stworzenie gazetki tematycznej poświęconej technologii .NET. Dodatkowo robią to wszystko z pasji, udostępniając ją za darmo w internecie.

Wydanie pierwszego numeru było naprawdę duży wyzwaniem. Czas jaki został spędzony na organizację nie okazał się jednak czasem straconym, dzięki czemu dziś mamy już do obejrzenia pierwszy numer Zine.NET!

Warto wspomnieć że w planach są juz kolejne numery.

Pomysłodawca pomysłu powstania tak specyficznego na polskim rynku magazynu jest Michał Grzegorzewski, jeden z użytkowników, oraz bloggerów, portalu developers.pl

Pierwszy numer dostępny jest do pobrania na oficjalnej stronie Zine.NET

Autorem artykułów, które pojawią się w kolejnych numerach może być każdy. Więcej na stronie http://zine.aspnet.pl/

piątek, 11 sierpnia 2006

Na blogu Virtualization.info autor, Alessandro Perilli, przeprowadził wywiad z Anthony Liguori, Software Engineer at IBM Linux Technology Center (który jest hackerem od testowania technologii wirtualizacji Xen). Tematem przewodnim jest technologia Blue Pill zaprezentowana przez Joannę Rutkowską na ostatniej konferencji Black Hat.

W skrócie Blue Pill jest oprogramowaniem typu malware, które nie wykorzystuje żadnego błędu w systemie do działania! Wszystko jest możliwe dzięki technologii wirtualizacji od AMD - SVM. Pisałem o tym w notce: Czy system operacyjny może być bezpieczny?

Dzięki Blue Pill jest możliwe odseparowanie systemu od sprzętu fizycznego poprzez warstwę wirtualizacji. Systemowi wydaje się, że widzi maszynę fizyczną i się z nią normalnie komunikuje. Tymczasem tak naprawdę jest to tylko mechanizm wirtualizacji, który pełni funkcję dodatkowej warstwy pomiędzy systemem i sprzętem. Jeżeli ktoś ma kontrolę nad tą warstwą wirtualizacji, ma kontrolę nad wszystkim na poziomie sprzętowym! 

Zaprezentowana przez Joannę Rutkowską technika pozwala zrobić WSZYSTKO z KAŻDYM systemem operacyjnym. Musi tylko wprowadzić tam swojego rootkita. Co akurat jest malutkim problemem w skali tego co ten rootkit jest w stanie zrobić.

Platforma wirtualizacji to nie tylko podatność na różne ataki, ale również duża funkcjonalność. Na przykład uruchomienie kilku systemów operacyjnych.
Więcej o wirtualizacji w wykonaniu AMD zobaczyć można w prezentacji opisującej korzyści tej technologii: http://enterprise.amd.com/us-en/_/movies/en/Virtualization_web/start.html

AMD deklaruje przeznaczenie swojej technologii wirtualizacji Pacifica (SVN) natywnie do przyspieszenia działania systemów Windows, Linux i Solaria. Ale również każdy inny system który zostanie portowany na tą platformę będzie podatny na ten atak. Więc to również dotyczy takich systemów jak NetBSD, FreeBSD, i innych UNIXów.

Polecam przeczytanie wywiad, wart jest tego ;)

Anthony Liguori mówi między innymi dlaczego Blue Pill tak naprawdę jest oprogramowaniem które można wykryć (Rutkowska twierdzi że jest to oprogramowanie w 100% niewykrywalne), oraz dlaczego Blue Pill jest dużym zagrożeniem dla bezpieczeństwa korporacji.

Liguori podjął również temat o możliwości stworzenia oprogramowania anti-malware, oferującego wykrycie każdego niechcianego oprogramowania. Według niego jest to możliwe dzięki attestation.

Attestation jest to zdolność do sprawdzenia w systemie tego, że jest aktualnie uruchomione tylko to oprogramowanie, które ma być uruchomione.

Dzisiaj oprogramowanie anti-malware sprawdza tylko widoczne wątki w systemie. Attestation jest czymś dużo silniejszym, pozwalając na sprawdzenie czy w systemie nie ma ukrytych wątków. Dzięki temu jest możliwe stworzenie oprogramowania anti-malware które nie będzie musiało być uaktualniane.

08:51, hermanluk , Security
Link Komentarze (1) »
wtorek, 08 sierpnia 2006

Jeżeli chcesz potestować najnowszy build Windows Vista, a nie jesteś beta testerem tego systemu, masz na to teraz szansę.

Wystarczy wysłać maila z prośba na adres secswag@microsoft.com

Więcej szczegółów na blogu Windows Vista Security

Jest to oczywiście build 5472. Otrzyma go (wraz z kluczem produktu) pierwsze 75 osób które wyśle maila na podany adres.

12:23, hermanluk , Windows
Link Komentarze (2) »
niedziela, 06 sierpnia 2006

Jakby wyglądał świat, gdyby komputerem nie sterowało się za pomocą  myszki i klawiatury? Jak wyglądałby interfejs aplikacji, gdyby do sterowania system nie wykorzystywano żadnego urządzenia zewnętrznego, ale tylko i wyłącznie rąk człowieka? Jakby wyglądały aplikacje bez interfejsu użytkownika, lecz pełniące mimo wszystko swoje funkcje? Czy to jest możliwe?

To nie są tylko marzenia. To realny świat. Takie urządzenia istnieją!

Powstało już kilka prototypów takich urządzeń, z których niektóre nawet już dziś są dostępne w sprzedaży. Co prawda cena co najmniej szokująca, ale korzystanie z takiego rozwiązania musi być czymś wspaniałym.

Wszystko oczywiście chodzi o ekran dotykowy, ale nie taki jak widzimy w niektórych bankomatach. Te urządzenia mają dużo większe możliwości. Udało mi się znaleźć informacje o kilku z nich.

Diamond Touch Table (Multi User Multimodal Tabletop) - jest to wynik prac w laboratoriach Mitsubishi (MERL). Jest to ekran dotykowy na który obraz zostaje wyświetlony poprzez rzutnik umieszczony nad ekranem (i ten rzutnik tu jest największym minusem). Rozwiązanie bardzo ciekawe, w dodatku mające ogromne możliwości oraz funkcjonalność. Wideo prezentujące to urządzenie pobrać możemy pod adresem http://www.idelix.com/avi/PDT_DiamondTouch_DF.avi [21,4 MB] Jest to tylko mały skrawek możliwości. Dużo większą i bardziej interesująca funkcjonalność możemy zobaczyć tu:

Wykorzystanie Google Maps robi wrażenie, a na dodatek w Warcrafta III można na tym grać ;) Należy nadmienić jeszcze, że można bardzo łatwo oprogramować własne aplikacje do wykorzystania tego urządzenia.

Kolejny produktem nawiązującym do ekranów dotykowych jest Touch Table produkcji Northrop Grumman. Prezentacja możliwości:

Jest dostępne również oficjalne wideo prezentujące zakres przydatności Touch Table - http://www.ms.northropgrumman.com/DOCs/TouchTable.mpg [41 MB]

Zaletą tych wszystkich urządzeń to nie tylko wygodniejsze korzystanie z komputera poprzez wyłączenie z użycia myszki i klawiatury, ale również intuicyjne sterowanie. Touch Table nie ma ograniczeń takich jak wykorzystanie systemu przez kilka osób jednocześnie.

A co gdyby zupełnie zrezygnować z ekranu dotykowego. Nawet więcej, w ogóle zrezygnować z ekranu na rzecz wizualizacji?

sobota, 05 sierpnia 2006

Microsoft postanowił w końcu zmienić zapowiadane nazwy przeglądarki Internet Explorer w wersji 7. mające rozróżnić wersje dla systemu Windows XP i Windows Visty.

Początkowo wersja przeznaczona dla Visty miała być oznaczona znakiem "+", lecz po fali krytyki nazwa ta nie jest już aktualna.

Przeglądarka będzie się nazywać Internet Explorer 7, bez żadnych plusów, a do rozróżnienia o przeglądarkę w jakim systemie nam chodzi obowiązywać będą nazwy:

  • Windows XP: “Windows Internet Explorer 7 for Windows XP”
  • Windows Vista: “Windows Internet Explorer 7 in Windows Vista”

Przeglądarki te będą budowane na jednym silniku i nie będzie między nimi żadnych różnic w wyświetlaniu stron, poza dodatkowymi funkcjami wersji w Viście, wynikającymi z możliwości wykorzystania na przykład Protected Mode.

14:20, hermanluk , Windows
Link Dodaj komentarz »
piątek, 04 sierpnia 2006

Google Reader jest to po prostu czytnik feedów RSS, ale dostępny poprzez przeglądarkę internetową. Korzysta on również z technologii Ajax. 

Dużo osób już korzysta z RSS, wykorzystując przy tym czytniki instalowane w systemie. Zalety tego są duże - przede wszystkim szybkość gdy ma się do dyspozycji nie najszybsze łącze. Swego czasu chciałem wyszukać w internecie czego się aktualnie używa. Dotąd korzystałem (i korzystam) z RSS Bandit. Chciałem znaleźć coś lepszego, ale po poszukiwaniach i przetestowaniu kilku najpopularniejszym programów stwierdziłem jednak, że bandyta jest najlepszy. Niestety miewa on czasem problemy z niektórymi, bardzo odchudzonymi feedami.

Google od jakiegoś czasu już prezentuje coraz to nowe produkty dostępne poprzez przeglądarkę. Główną ich zaletą jest dostępność i brak opłat. Uważam, że strony tworzone przez google są jednymi z najlepszych dostępnych w internecie. Skąpa szata graficzna, ale przyjemna dla oka. Do tego wszystko najczęściej jest połączone poprzez technologię AJAX zapewniającą duży komfort wykorzystywania narzędzi google'a.

Wręcz zadziwiająca jest szybkość reagowania, oraz otwartość firmy Google na sugestie i błędy zgłaszane przez użytkowników. Żeby Microsoft tak szybko łatał błędy...

Prowadzony również jest oficjalny Google Reader Blog.

Przy okazji, na stronie www.strajk.pl możemy znaleźć bardzo dużo informacji o firmie i produktach Google.

11:38, hermanluk , GNU/Free
Link Komentarze (1) »
środa, 02 sierpnia 2006

W ostatniej notce napisałem o kilku nowych/zmodyfikowanych rzeczach w Viście, których zadaniem jest poprawa bezpieczeństwa systemu. Jeszcze wcześniej pisałem o rootkitach, czym są i dlaczego są groźne.

Czy system operacyjny może być bezpieczny, biorąc pod uwagę dostępne środki crackerów?

Po pierwsze należy zdefiniować, czym jest bezpieczeństwo? Czy bezpieczny system to taki, który ma zaimplementowane mnóstwo technik wykrywania niebezpieczeństw (1400 w Viście)? Czy bezpieczny system to taki, którego nikt nie używa, nie jest rozwijany, i nikt nie szuka w nim błędów? Czy bezpieczny system to taki, o którym nie słychać w raportach zabezpieczeń różnych instytucji? Nie.

Żaden system nie może być nazwany bezpiecznym, ponieważ nie jest możliwe napisanie kodu, który nie będzie posiadał jakiegokolwiek zagrożenia. To że w jakimś systemie nie znaleziono żadnego błędu krytycznego, nie oznacza że go nie odnajdzie się w przyszłości, a co za tym idzie nie można powiedzieć że jest to na 100% bezpieczny system.

A co będzie w przyszłości? Prawdopodobnie już niedługo pojawią się zagrożenia działające niezależne od zainstalowanego systemu operacyjnego. Niezależne od programistów. Niezależne od chęci i umiejętności użytkownika. Już niedługo mogą zacząć pojawiać się techniki takie jak Blue Pill. Nawet jeżeli będą publicznie znane i dostępne, nikt nie będzie w stanie ich powstrzymać.

Blue Pill jest to projekt Joanny Rutkowskiej, specjalistki od szkodliwego oprogramowania. Stworzyła ona coś, co zainstaluje się bez restartu systemu. Coś, co będzie mogło kontrolować cały system, bez jego wiedzy. Coś, co wykorzystując wirtualizację będzie w stanie operować ponad system, przezroczyście do wszystkiego. Coś, co być może będzie zagrożeniem z którym nikt nie będzie mógł sobie poradzić.

Kto zawinił? Jak to możliwe, że powstanie oprogramowanie w 100% niewykrywalne? Można powiedzieć że to rozwój techniki pociągnął za sobą te zagrożenia. Poprzez nową technologię AMD - SVM/Pacifica, możliwe jest stworzenie oprogramowania widmo. Lecz będącego bardzo dużym zagrożeniem.

Tym akcentem zachęcam wszystkich do wyłączenia komputera i odpoczęcia od kontaktu z jakąkolwiek formą techniki :)

14:59, hermanluk , Security
Link Komentarze (3) »