Benzyna czy olej napędowy

Kupując nowy (choć czasem używany) samochód stajemy przed wyborem – jakie paliwo będziemy lać do naszego nowego nabytku. Decyzja ta jest jedną z najważniejszych podczas wyboru pojazdu, gdyż przekłada się w przyszłości na koszta związane z jego eksploatacją. To na ile sposobów możemy patrzeć na silniki i pod iloma kątami je analizować powoduje, że wybór jest nietrywialny. Tym bardziej dla większości osób, którzy nie są z zawodu, czy też wykształcenia mechanikami samochodowymi.

Wpis ten jest kierowany dla osób, takich jak ja, czyli "lajkoników" w tematyce mechaniki samochodowej. Zatem nie będziemy tu rozważać szczegółów konstrukcyjnych poszczególnych jednostek napędowych, ani podatności na tunik, możliwości przeprogramowania komputera podkładowego itp zabaw. Te tematy na pewno bardzo dobrze i szczegółowo poruszane są na odpowiednich forach tematycznych. My zaś skupimy się na czysto ekonomicznym aspekcie zakupu samochodu.

Dzisiejszy rynek daje nam wybór z pośród czterech rodzajów silników.

  • benzynowy,
  • diesel,
  • benzynowy zmodyfikowany dla potrzeb LPG (czyli tzw gaz),
  • hybrydowy, czyli benzynowy w połączeniu z silnikiem elektrycznych.

Pomijam na tej liście silniki czysto elektryczne  (melexa nie kupujemy), czy też pomysłów przerobienia diesla na gaz, lub też silników zasilanych gazem ziemnym (CNG). Wybór konkretnego rodzaju silnika przekrada się na odzwierciedlenie w cenie samochodu. Czyli ten sam model samochodu, z tym samym wyposażeniem, ale innym silnikiem będzie miał inną cenę. Relacja cen wygląda mniej więcej tak: od najtańszego do najdroższego:

  • benzynowy,
  • benzynowy przerobiony na gaz,
  • diesel – potocznie ropniak,
  • hybrydowy.

Dziś w artykule zawężę temat do dwóch silników: benzynowego i diesla. Z jednej strony dlatego, że silniki hybrydowe to ciągle fanaberia, za którą trzeba słono zapłacić, a ich bycie "eko" nie jest takie do końca… W końcu prąd nie bierze się w silniku z powietrza. Rzadko kto wspomina, że może i samochód generuje mniej spalin, ale za to elektrownia trochę węgla musiała spalić aby wyprodukować ten prąd. Druga sprawa to żywotność akumulatorów i ich wpływ na środowisko w chwili gdy trzeba będzie je zutylizować. O użyciu LPG też nie będę dyskutował, bo w większości przypadków ten rodzaj paliwa wpływa na komfort korzystania z pojazdu (niemożliwość parkowania na parkingach podziemnych, zmniejszenie ładowności bagażnika, itp.)

Zatem na polu walki pozostaje nieśmiertelna benzyna i "oszczędny" diesel. Na pewno każdy z was spotkał się z opiniami wygłaszanymi przez znajomych:

  • diesel jest lepszy, bo jest oszczędniejszy,
  • diesel jest gorszy bo pracuje jak traktor,
  • diesla trudno uruchomić w zimie,
  • silniki diesla są lepszej jakości,
  • silniki diesla prawie nie zużywają ropy gdy stoi się w korku,
  • naprawa silnika diesla jest bardzo kosztowna,
  • nowoczesne diesle mają filtr cząstek stałych, którego wymiana kosztuje majątek,
  • ropa jest tańsza od benzyny, a silniki diesla znacznie mniej palą przez co można na nich dużo zaoszczędzić.

Nadużyciem by było powiedzieć, że te stwierdzenia są nieprawdziwe. W większości zawierają sporo prawdy, a gdyby jeszcze uwzględnić to, kto je wypowiada, nie było by podstaw aby je podważyć. Fakt, że ropa jest tańsza od benzyny przestaje powoli być prawdą. Było tak dawniej, ale nie było to w żaden sposób ekonomicznie wytłumaczalne. Produkcja ropy kosztuje tyle samo co benzyny. Natomiast prawdą jest, że silniki diesla palą mniej paliwa (przy tej samej mocy silnika) i są silnikami droższymi od silników benzynowych. Prawdą też jest, że im starszy pojazd, tym jego naprawa (w przypadku silnika diesla) staje się kosztowniejsza.

Ale czy kupując droższy silnik diesla, możemy z czasem ten "naddatek" zrekompensować sobie mniejszymi kosztami paliwa? Czy "oszczędniejszy silnik" da nam naprawdę zaoszczędzić? Na to pytanie spróbuje dziś odpowiedzieć.

Analizując koszty musimy uwzględnić kilka parametrów:

  • cena pojazdu z wybranym modelem silnika,
  • zużycie paliwa w trybie miejskim, mieszanym i pozamiejskim,
  • roczny przebieg,
  • czas użytkowania samochodu,
  • koszt litra paliwa danego rodzaju.

Mając 7 różnych parametrów, nasza funkcja optymalizacji kosztu eksploatacji pojazdu daje nam siedmio-wymiarową przestrzeń. Jest to zdecydowanie zbyt skomplikowane podejście. Dlatego do dalszych obliczeń przyjąłem kilka założeń, mających na celu uproszczenie równania. Założyłem, że szukamy maksimum opłacalności zakupu nowego pojazdu dla statystycznego Kowalskiego z wąsami. Statystyczny Kowalski kupuje Skodę. Skoda cechuje się jednym z najlepszych współczynników ceny do jakości. Skody z założenia kupuje się na wiele lat i gama oferowanych silników jest bardzo szeroka. Jest to więc idealny kandydat do naszych kalkulacji. Rozważymy przypadek, gdy Pan K. kupuje Skodę Octavie oraz gdy Pan K. jest bardziej dziany i postanowił zaszaleć i kupić Skodę SuperB. Ba, Pan Kowalski jest też filantropem i nie planuje kupić tylko samochodu dla siebie, ale też dla syna, żony i teściowej. Syn pracuje jako przedstawiciel handlowy i "robi" rocznie 30 000 km. Żona Kowalskiego jeździ do pracy samochodem i rocznie przejeżdża około 10 000 km. (ma 10 km do pracy – czyli 20km dziennie, przez 12 miesięcy po 20 dni w roku, czyli 4800km, do tego jakieś wyjazdy na wakacje). Teściowa, jak to teściowa jeździ tylko do kościoła. Rocznie zrobienie 5000 km graniczy w jej przypadku z cudem. Sam Kowalski przejeżdża rocznie niecałe 15 000 km.

Zacznijmy analizę od przypadku rocznego przebiegu 5000 km (teściowa).

Co przedstawia powyższe wyliczenie?

  • pierwsza kolumna zawiera informacje o silnikach dostępnych dla Skody Octavi,
  • druga kolumna to cena takiego pojazdu (to samo wyposażenie, inny silnik),
  • kolumna 4,5 i 6 to dane ze strony producenta i spalaniu poszczególnych jednostek napędowych,
  • kolejna kolumna zawiera informację o ile dany silnik jest droższy od najtańszego,
  • w następnej kolumnie założyłem koszt litra benzyny i oleju napędowego na 6zł,
  • następnie mamy wyliczone zużycie paliwa w ciągu roku dla spalania w trybie mieszanym,
  • kolejna kolumna- wyliczony roczny koszt paliwa,
  • kolumna: "Po 5 latach" mówi o 5letnim całkowitym koszcie paliwa,
  • następna kolumna mówi nam ile zaoszczędzimy (kolor czerwony) lub ile stracimy na kosztach paliwa, wybierając inny silnik niż najtańszy,
  • "Bilans dopłaty (5lat)" oraz kolumna ostatnia przedstawiająca bilans po 10 latach to najważniejsze kolumny.

O czym mówią najważniejsze kolumny? Pokazują ile tak naprawdę wynosiła dopłata do droższego silnika, gdyby tak naprawdę ich spalanie się nie różniło. Albo innymi słowy: ile można było oszczędzić po 5 lub 10 latach na użytkowaniu oszczędniejszego silnika. Przeanalizujmy więc przypadek drugiego silnika na liście.

  • jest on o 5 000zł droższy od najsłabszej jednostki,
  • jego średnie spalanie to 7,1l, a więc jest silnikiem mniej ekonomicznym niż najtańsza jednostka napędowa,
  • po 5 latach użytkowania za benzynę zapłacimy o 1050zł więcej, niż w przypadku tańszego silnika, a po 10 latach o 2010zł (zakładając oczywiście, że cena paliwa się nie zmieni),
  • jeżeli silnik był o 5 000zł droższy i za paliwo po 10 latach zapłacimy o 2 100zł więcej, to sumarycznie EKSPLOATACJA tego pojazdu po 10 latach będzie nas kosztowała 7 100zł więcej niż najtańszej jednostki.

Z ekonomicznego punktu widzenia, zakup tego silnika jest nieopłacalny. No tak, tyle że pierwszy silnik to silnik o mocy 80KM, a drugi o mocy 102KM. Czy ten słabszy w ogóle ruszy z miejsca ten samochód i czy nie będą na nas trąbili za każdym razem gdy ruszamy ze świateł? To jest kolejny element układami, którego prosta matematyka nie rozwiąże. Ale nasze wyliczenia pokazują coś więcej niż tylko porównanie do najtańszego i najsłabszego silnika. Pokazują nam też relacje pomiędzy poszczególnymi jednostkami, a także wskazują kierunek optymalizacji.

Jak znaleźć kierunek optymalizacji? Popatrzmy na ostatnią kolumnę. Najniższa kwota bilansu po 10 latach znajduje się w trzecim wierszu. Jest to silnik o mocy 105KM. Bilans w tym przypadku to 4 000zł. Zatem możemy stwierdzić:

  • ten silnik jest bardziej opłacalny niż 1.6MPI (o 3 100zł po 10 latach),
  • jest bardziej opłacalny niż 1.6 TDI  (o 8 300 po 10 latach),
  • jest bardziej opłacalny od 2.0 TDI (o 11 300 po 10 latach),
  • porównanie z innymi silnikami nie będzie dokładne, gdyż pozostałe silniki mają większą moc i nie można ich od tak porównywać.

Kolejny wniosek to fakt, że w przypadku rocznego przebiegu na poziomie 5000 km silniki diesla są nieopłacalne i różnica w ich cenie nigdy się nie zwróci. A dla przyjemności spójrzmy jakby to wyglądało w przypadku Skody Superb i teściowej Kowalskiego.

 




 

Patrząc na wynik funkcji celu widzimy, że silnik 1.6 TDI po 10 latach prawie się bilansuje (pozostaje o około 1 200zł droższy) w porównaniu z najtańszą jednostką. Zatem czy jest opłacalny? Niestety nie. Niedawno przestawiony wniosek, że silników diesla nie opłata się kupować dla małych przebiegów pozostaje w mocy. Najtańsza jednostka jest jednostką benzynową i w dodatku jednostką mocniejszą od najsłabszego diesla o dobre 20KM (czyli jeden fiat 126p). Gdy dodamy jeszcze fakt, że konserwacja i ewentualne naprawy jednostek diesla są droższe od takich samych czynności przy silnikach benzynowych, to jeszcze mocniej poprzemy tezę, że na małe przebiegi tylko i wyłącznie silniki benzynowe.

Tą analizą zakończę pierwszą część rozważań o wyborze jednostki napędowej. Zachęcam wszystkich do oszacowania swojego rocznego aktualnego lub planowanego przebiegu rocznego. Ta informacja jak już zobaczyliście jest kluczowym czynnikiem przy wyborze silnika. Ale od kiedy opłaca się już diesel? O tym w następnej części.

MTS 2012, czyli moja krótka, subiektywna relacja (cz. 3)

Od konferencji minęło już trochę czasu. Emocje opadły, piach opadł i pot wysechł. Właściwie to o czym to było? Pewnie niewielu pamięta. A ja jak obiecałem dokończyć relację, tak słowa dotrzymuje.

Obiecałem przekazać kilka słów o "merytoryce" prezentacji odbywających się drugiego dnia, na które miałem chybny lub niechybny zaszczyt być zaproszonym :).

Dzień drugi rozpoczął się lekko i łagodnie od prezentacji: Windows 8 UI, czyli jak zrobić z programisty designera i ocalić świat. Niestety zawiodłem się niczym elektorat Tuska na przedwyborczych obietnicach. Prezentujący ani jednym słowem nie powiedział jak ocalić świat! Nie podał nawet przepisu na to, aby choć trochę go ochronić. Tu dygresja: właściwie nie wiem przed czym mieliśmy chronić i ocalać świat. Czyżby przed niechybną klapą systemu Windows 8? No dobra, nadal nie wiem jak świat ocalić. Poczułem się poniekąd oszukany. Zatem czy wiem jak zrobić z programisty designera? A gdzieżby ! No bo jak z drwala zrobić rzeźbiarza? Za to jednego się dowiedziałem (ciiii…. wiedziałem już wcześniej, ale udam, że nie wiedziałem). Żeby stworzyć aplikację na Windows 8 trzeba będzie dwóch osób – programisty i designera. To taki ukłon w kierunku domorosłych programistów i sygnał dla nich – samemu nie powalczycie już na rynku, dobierajcie się w pary. Reasumując – z prezentacji wyszedłem przygnębiony.

Na drugą prezentację skierowałem się już mniej żwawym krokiem, wręcz powłóczyłem nogami w dalszym ciągu kontemplując kierunek jaki obiera Microsoft swoim systemem operacyjnych dla urządzeń z ekranem dotykowym. Los rzucił mnie na wykład: Azure: co i kiedy użyć (IaaS vs PaaS vs Hybrid Cloud vs Websites vs …). Prowadzący może być dla wielu osób znany – Pan Tomasz Kopacz. Szybko zostałem wyrwany z zadumy i zacząłem wsłuchiwać się w nowości w Azure. Po 5 minutach, po 10 minutach, a właściwie po 15 minutach przekonałem się, że z chaosu może powstać… co najwyżej zamęt. Prowadzący przedstawił tzw. pierdylion pomysłów, przy czym niektóre niestety nie zostały przeze mnie ogarnięte – jak np.: własnoręczne pisanie NLB dla serwisów hostowanych w Azure. Musiałem coś przeoczyć, bo przecież ta technologia nie może być tak toporna aby zmuszać nas do pisania  komponentów zarządzających rozłożeniem obciążenia. Na zakończenie prezentacji, ku mojemu zdziwieniu, prowadzący dał jasną odpowiedź na to, kiedy użyć jakiej technologii… No dobra, żartowałem (znów!). Jak zwykle nasz wykładowca musiał być słaby z pisania rozprawek w podstawówce, bo nie ustosunkował się do pytania postawionego w tytule własnej prezentacji. Poprowadził jednak prezentację na temat: Szybki przegląd możliwości Azure.

Szybko ulotniłem się z sali wykładowej i wręcz energicznym truchtem udałem się na kolejną sesję, tym razem poświęconą tematom bliskim mojemu sercu – programowaniu aplikacji Web'owych. Temat prezentacji: MVVM w JavaScript dla developerów .NET. Po doświadczeniach z tym co widziałem i słyszałem przez ostatnie półtora dnia, właściwie bałem się myśleć co przyniesie mi los tym razem. Co zastałem na miejscu? Ano prowadzącego, mocno stremowanego i już po pierwszych kilku zdaniach dającego się rozpoznać jako zwykły inżynier – żaden tam pseudo manadżer czy innych ewangelista. Nie ukrywam, że temat był mi znany i, że nie nastawiałem się na poznanie prawdy objawionej. Ale muszę przyznać, że była to najlepsza prezentacja z całej 2 dniowej konferencji. Żadnego marketingowego bełkotu, żadnego owijania w bawełnę, proste i czytelne przykłady. Wszystko tak ładnie zebrane do kupy, że pozwoliło mi pewne rzeczy sobie przypomnieć i lepiej poukładać.

Kolejna prezentacja: Jak bolesny był twój ostatni release? Ciągła integracja w .NET. Jeśli nie byliście na niej, to nie żałujcie. Szybko powiem wam o czym było:

  • definicja continuous integration (dla tych, co byli zbyt leniwi aby przeczytać definicję na WIKI) ,
  • użycie Hudsona i Jenkins'a do uruchomienia buildów automatycznych.

To by było na tyle. Powtórzę się, ale nie rozumiem idei prezentacji eksperckich. Znaczy, że były one prowadzone dla ekspertów, czyli dla ludzi kompletnie zielonych w temacie? Czy przez ekspertów, czyli ludzi kompletnie zielonych w temacie. Czy może chodziło o to, że temat będzie omówiony całkowicie powierzchownie? I dlaczego ciągła integracja w .NET na Microsoft Summit to nie TFS tylko rozwiązania firm trzecich?

Ostatnia prezentacja to przysłowiowa wisienka na torcie, konsensus tegorocznego Microsoft Summit. Temat: Diabeł tkwi w szczegółach – tworzenie wysokowydajnych aplikacji dla Windows Phone. Będę walił prosto z mostu – Matrix. Czytając agendę, czytając temat, każdy szanujący się starszak w przedszkolu uznałby, że usłyszy conieco o:

  • programowaniu Windows Phone,
  • technikach sprytnego używania API dedykowanego dla Windows Phone.

W końcu słowo wysokowydajnych zobowiązuje. Co na pewno nie było poruszone na sesji:

  • programowanie Windows Phone,
  • techniki sprytnego używania API dla Windows Phone.

Tu mógłbym zakończyć swój wywód, ale ominęło by was wiele ważnych szczegółów. Co zrobili prowadzący i za co powinno się ich przykładnie wychłostać kablami USB? Otóż, dzielnie zgromadzonej rzeszy programistów pokazali kawałek zwykłego algorytmu do przetwarzania obrazu z koloru na odcienie szarości. Przy lekkich prześmiewczych komentarzach prowadzących, przedstawili fragment kodu (notabene nie wydajnego) napisanego przez dewelopera z wieloletnim stażem. Kod jak to kod, operował na obiektach, arytmetyce i klasie WritableBitmap. To właśnie jedynie ta klasa jest nawiązaniem do WindowsPhone. Przedstawiony przykład, miętolony przez godzinę mógł równie dobrze używać klasy Bitmap i w miejsce WindowsPhone moglibyśmy dać: Web application albo Windows Application, albo cokolwiek sobie zażyczycie. I po co ten godzinny onanizm nad optymalizacją kodu? Przecież to, jak pisać kod, to uczą na 3 roku studiów, na algorytmach, ewentualnie na przetwarzaniu obrazów. A to, że ktoś napisał im kod niewydajny, to ja się zapytuje – a czy PM dostarczył wymagania niefunkcjonalne? Czy zamówił algorytm przetworzenia obrazu kolorowego na odcienie szarości, czy algorytm i jego optymalizacje? I co do stu tysięcy fur beczek oznacza "wysokowydajnych" w tytule prezentacji? Bo jak dla mnie wysoko wydajne przetwarzanie obrazu to może być na GPU, a to co pokazali Panowie podczas prezentacji to zwykła optymalizacja kodu. No ale jak tu inaczej przedstawić się i firmę na takiej imprezie jak nie pod szyldem produktu Microsoft i to jeszcze takiego, na którego kładzie się nacisk marketingowy?

Na koniec zadać można sobie pytanie, dlaczego cały Microsoft Summit nie był wypełniony tak dobrze przeprowadzonymi sesjami jak sesja o MVVM? Czy niski poziom merytoryki sesji wynika ze słabych prowadzących czy z czegoś innego? Wg mnie, problemem nie jest to, kto prowadzi prezentacje. Najlepszą (moim zdaniem) prowadził młody człowiek – po prostu specjalista w swojej dziedzinie. Zatem co? Być może na odpowiedź naprowadzi was fakt, że prezentacja o MVVM dotyczyła biblioteki kNockout, która w żaden sposób nie jest dziełem Microsoftu. Inny fakt, to jak wyliczył jeden z czytelników bloga – Microsoft Polska mógł zarobić na tej imprezie do 2,5mln PLN (nie licząc kosztów). Zatem jeśli nie wiadomo dlaczego merytoryka kuleje i właściwie nie wiadomo o co chodzi, to zawsze chodzi o to samo 🙂

MTS 2012, czyli moja krótka, subiektywna relacja (cz. 2)

MTS2012Dziś druga część mojej relacji z tegorocznego Microsoft Technology Summit. W poprzedniej części opisałem jak słabo i nieciekawie została zorganizowana cała nie „informacyjna” otoczka konferencji. Ci, którzy nie czytali jeszcze, powinni czym prędzej zapoznać się z tym wpisem. A ja tymczasem przechodzę do sedna sprawy.

Konferencja składała się z serii równolegle prowadzonych wykładów. Standardowy czas wykładu to godzina. O danej godzinie odbywały się jednoczenie wykłady w 7 salach. Aby wziąć udział w danym wykładzie, należało wcześniej się na takowy zapisać. I tu pojawia się pierwszy problem – tym razem tylko częściowo z winy organizatorów, a częściowo z winy niezdecydowania mojego ‘sponsora’. Otóż, liczba miejsc na daną prezentację jest ograniczona przez wielkość sali. Zatem, kto pierwszy, ten lepszy i może zapisać się na prezentacje, która mu przypadnie do gustu. Nietrudno domyśleć się, że jeżeli zapisy trwają już od tygodnia, to dostać się na najciekawszą prezentację może być już niemożliwe. Czemu po części jest to także wina organizatorów? Ano nie trudno przygotować system, który by rozlokowywał sesje tak, aby te, które cieszą się największą popularnością trafiły do największych sal.

Ale dość narzekania. Mając mniejszy lub większy wybór, postanowiłem kierować się tematami i streszczeniami prezentacji, aby ułożyć własny harmonogram. Oto co mi się trafiło 🙂

Dzień pierwszy Dzień drugi
  1. 1. Czym zaskoczy Cię Visual Studio 2012
  1. 1. Windows 8 UI, czyli jak zrobić z programisty designera i ocalić świat
  1. 2. ERP w architekturze SaaS przy wykorzystaniu HTML5/Windows 8
  1. 2. Azure: co i kiedy użyć (IaaS vs PaaS vs Hybrid Cloud vs Websites vs …)
  1. 3. Wirtualizacja Aplikacji – To się opłaca
  1. 3. MVVM w JavaScript dla developerów .NET
  1. 4. Await What_Is_New_In_async(.NET 4.5)
  1. 4. Jak bolesny był twój ostatni release? Ciągła integracja w .NET
  1. 5. Crouching Admin, Hidden Hacker: Techniques for Hiding and Detecting Traces
  1. 5. Diabeł tkwi w szczegółach – tworzenie wysokowydajnych aplikacji dla Windows Phone

 Zaopatrzony w tak przygotowany plan „szkoleń” entuzjastycznie udałem się na pierwszą prezentację.

 

Czym zaskoczy Cię Visual Studio 2012

Hmmmm… Fajnie byłoby dowiedzieć się czegoś interesującego o nowym narzędziu pracy. Przecież jak zwykle ma być przełomowe. Zdradzę wam jednak tą tajemnicę – nie jest. Oczywiście teraz ma działać InteliSense w JavaScript (OMG – to samo MS powtarzał przy VS 2008 i VS2010). Ma działać znacznie szybciej, np. dzięki temu, że ładuje projekty asynchronicznie. A edytując CSSy mamy colour picker’y. Eh… to wszystko dają nam wtyczki do VS 2010. No i wisienka na torcie. Nie trzeba konwertować projektu aby pracować na nim w VS2010 i VS2012. Więc teoretycznie, ktoś kto ma nowsze studio może od razu się na niego przesiąść, tyle że… co z tego jak z .NET 4.5 nie skorzysta. No cóż. Najważniejsze, że prowadzący był mimochodem dowcipną postacią. Dwa pytania z tłumu, na które odpowiedzi prelegenta były zabawne:

– Nie wiem, czy to było w VS 2010, ale mi się podoba tutaj, więc pokazuje.
– Działa bardzo szybko, sami popatrzcie, a ten komputer to jakiś staruszek…. No tak, ma już ponad rok, jakiś i5 8GB RAM. A tak… ma dysk SSD.

 

ERP w architekturze SaaS przy wykorzystaniu HTML5/Windows 8

Drugi wykład, to tak zwany wykład ekspercki. Do dziś nie wiem co to znaczy „ekspercki”. Może to, że trwał 30minut zamiast 60? Przyznam się, że z braku ciekawszych dostępnych pozycji na tę godzinę, wybrałem prezentację, która kusiła słowami HTML5/Windows 8. I pożałowałem chytrości na wiedzę o tych technologiach. O czym była prezentacja? Nie potrzeba 30 minut abym ją wam streścił. Przyszedł jakiś panocek i powiedział:

– W naszej firmie mieliśmy aplikację ERP w WPF no i postanowiliśmy ją przenieść do Azure. A ponieważ logikę biznesową mieliśmy w dll’ce to też tę dllkę wrzuciliśmy do Azura a UI wygenerowali z meta opisu przechowywanego w XMLu. No i wygenerowaliśmy UI w WPF i HTML5 i na Windowsa 8. No to by było na tyle. Nam się udało, to znaczy, że się da. Dowidzenia.

Plusem tego wszystkiego było to, że prezentacja trwała tylko 30 minut. Nic się nie dowiedziałem, a z mojego życia bezpowrotnie zniknęło bezcenne 30 minut.

 

Wirtualizacja Aplikacji – To się opłaca

Trzecia prezentacja, to prezentacja z kategorii dla „managerów”. I niech mnie kule biją, ale poziom tej prezentacji nijak nie miał się do tego co widziałem poprzednio. Prowadzący byli wyśmienicie przygotowani, mówili interesująco, potrafili zając i zaciekawić publiczność. Przyznam, że idei AppV nie znałem wcześniej i podejrzewam, że dopóki nie będę szukał informacji ile to kosztuje, to będę gorącym zwolennikiem tego rozwiązania. Nie będę tu i teraz opisywał na czym polega koncept wirtualizacji nie systemów, a samych, pojedynczych aplikacji, niemniej polecam każdemu „pogooglać” za tym tematem.

 

Await What_Is_New_In_async(.NET 4.5)

Kolejna prezentacja była klasyczną prezentacją dla developerów. Szkoda tylko, że tytuł nijak miał się do przedstawionych treści. Można by się spodziewać dogłębnej analizy podejścia do asynchroniczności jaką daje nam z różnych stron .NET. Zamiast tego dostaliśmy luźny zbiór „ficzersów” dostępnych w nowym framework’u. Prezentacja była pouczająca, choć w godzinie czasu można była zmieścić więcej i dogłębniej. Ogólnie odniosłem wrażenie, że prowadzący prześlizną się po bardzo ciekawym temacie i jakoś go tak ominął. Ostatecznie – mogło być gorzej.

 

Crouching Admin, Hidden Hacker: Techniques for Hiding and Detecting Traces

Jak wspominałem wcześniej, nie rozumiem idei prezentacji eksperckiej, tak samo tego dlaczego niektóre tematy prelekcji były po angielsku. Mogło by to wskazywać na fakt, że sama prezentacja będzie w języku braci Angoli i Brytów, ale jednak nie. Mowa Lecha brzmiała podczas wszystkich prezentacji (za wyjątkiem części prezentacji otwierającej). Ale wracając do tematu. Prelegent (dla odmiany płci żeńskiej) w bardzo przystępny sposób przedstawił kilka sztuczek dotyczących wykrywania anomalii w systemie, a następnie prób dojścia do ich źródła. O ile dla osoby interesującej się tą tematyką, nie było nic odkrywczego, to wydaje się, że tego rodzaju uzmysłowienie zagrożeń jest bardzo przydatne. Chyba jeszcze bardziej przydatne było pokazanie, że wyśledzenie „intruza” jest możliwe, bez skomplikowanych narzędzi i tajemnej wiedzy mnichów w klasztoru Shaolin. Dla mnie, tak na zakończenie dnia ta prezentacja przyniosła jedną inspirację – debugowanie jądra systemu nie jest czymś, czego samemu nie można zrobić i może warto się temu przyjrzeć.

I tym miłym akcentem zakończył się pierwszy dzień prezentacji. O drugim, przeczytacie (mam nadzieję) za kilka dni… A że było śmiesznie, to za mało powiedziane.

Jak zaoszczędzić 245zł na biletach ZTM

  W niedługim czasie czeka mieszkańców Warszawy (i okolic oczywiście) kolejna podwyżka cen biletów. Nowy cennik wchodzi w życie już 1 stycznia 2013. Nie będę się tu rozpisywał o powodach podwyższenia cen, bo są one dla ZTMu oczywiste – podnosimy ceny, bo mamy i tak najniższe w porównaniu do innych europejskich stolic. A przecież do Europy dążymy 🙂

Ponieważ jedyne co może uchronić nas przed podwyżką, to zapowiadany na grudzień koniec świata, to jednak gdyby on nie nastąpił, możemy w prosty sposób zmniejszyć nasz ból związany z podwyżką, a jednocześnie w naszej kieszeni pozostanie aż 245zł !

Jak to zrobić i czy każdy może tyle zaoszczędzić? Otóż każdy może coś ugrać, a najwięcej osoby kupujące bilety na drugą strefę. W ich przypadku oszczędność może być większa, niż oszczędności "pierwszo-strefowców". W przypadku osoby poruszającej się w 1 strefie, oszczędność może sięgnąć 82zł. Zakładam, że 99% mieszkańców kupuje bilety 90dniowe, gdyż wychodzą one znacznie taniej niż 30 dniowe (różnica w cenie to około 40%). Niemniej, jeżeli jeszcze nie kupujesz biletów 90-cio dniowych tylko 30-to, to szybko zmień swoje nawyki :). W dalszej części zajmę się tylko biletami długookresowymi. Poniżej wyciąg z cenników dotyczący interesujących nas biletów:

  Cena do 31 grudnia 2012 Cena od 1 stycznia 2013
Bilet 90 dniowy I strefa 220 zł 250 zł
Bilet 90 dniowy II strefa 370 zł 474 zł

Ważnym dla nas faktem jest to, że na Karcie Miejskiej można przechowywać jednocześnie dwa bilety tego samego rodzaju. Drugim faktem, który tu wykorzystamy jest możliwość zakupienia biletu przez Internet. A jak nietrudno się domyśleć, kupując przez Internet możemy skorzystać z płatności kartą i ofercie Alior Sync, czyli zwrotu 5% za zakupy w Internecie. Przepis jest dziecinnie prosty i wygląda tak:

  •  w chwili gdy kończy nam się aktualny bilet (ale jeszcze w tym roku 2012)  kupujemy za pomocą karty Alior Sync poprzez stronę ZTM bilet 90 dniowy (na I lub II strefę) w cenie 220zł lub odpowiednio 370zł (możemy to zrobić na kilka dni wcześniej niż bilet wygaśnie),
  • tak zakupiony bilet aktywujemy w na stacji metra (dobrze, że poprzedni bilet jeszcze nie wygasł, bo jakbyśmy dojechali na to metro ;p),
  • gdy upłynie ważność poprzedniego biletu (tego, którego zostało nam kilka dni), ponownie kupujemy bilet 90 dniowy (nadal w roku 2012) po starej cenie 220zł lub 370zł,
  • aktywujemy ten bilet na stacji metra (pamiętając aby to zrobić nadal w roku kalendarzowym 2012),
  • w ten sposób zakodowaliśmy i aktywowali na karcie miejskiej dwa bilety 90-cio dniowe po starej cenie wraz z rabatem 5%.

Podsumujmy aktualny stan: wydaliśmy na bilety 440zł (lub 740zł) i otrzymamy zwrot 5% za płatność kartą, czyli odpowiednio 22zł lub 37zł. Gdybyśmy jednak zakupili te same bilety ale po 31 grudnia i nie skorzystali z notabene, kończącej się dla wielu promocji Alior Sync, zapłacilibyśmy za bilety: 500zł lub 948zł. Zatem nasze oszczędności to dla osób poruszających się w pierwszej strefie wynoszą 82 zł, a dla osób korzystających z biletów w II strefie: 245 zł.

Jedyna trudność w tej metodzie, to tzw. timing. Należy pamiętać, że zakupy trzeba wykonać jeszcze w tym roku, a co ważniejsze, zakupione bilety muszą być aktywowane także w tym roku. I na koniec ostatnia podpowiedź. Jeżeli aktualny bilet kończy czy się dopiero w styczniu, to być może warto go będzie zwrócić w okienku ZTM (otrzymuje się w większości refundacje biletu) i następnie przystąpić do działania opisanego powyżej.