Kliknij tutaj --> 🐕🦺 właśnie udało ci się sprzedać jakiś przedmiot przez internet
"Właśnie udało Ci się sprzedać jakiś przedmiot przez internet, napisz list do znajomego z Anglii: - wyjaśnij co postanowiłeś sprzedać i dlaczego się na to zdecydowałeś - wspomnij jak zachęciłeś do kupna tego przedmiotu, o co pytały osoby zainteresowane kupnem - wyraź zadowolenie z uzyskanej ceny i napisz na co przeznaczysz
Właśnie udało Ci się sprzedać jakiś przedmiot przez Internet. Napisz list do znajomego z Anglii. • Wyjaśnij, co postanowiłeś(-aś) sprzedać i dlaczego się na to zdecydowałeś(-aś). • Wspomnij, jak zachęciłeś(-aś) do kupna tego przedmiotu i o co pytały osoby zainteresowane kupnem.
Prowadzisz sklep internetowy? Przeczytaj artykuł i poznaj rozwiązania na najpopularniejsze problemy przedsiębiorców świadczących sprzedaż przez internet!
Właśnie udało Ci się sprzedać jakiś przedmiot przez Internet. Napisz email do znajomego z Anglii. Wyjaśnij, co postanowiłeś(-aś) sprzedać i dlaczego s … ię na to zdecydowałeś(-aś). Wspomnij, jak zachęciłeś(-aś) do kupna tego przedmiotu i o co pytały osoby zainteresowane kupnem.
rozwiązane. 130-140 słów: Właśnie udało Ci się sprzedać jakiś przedmiot przez Internet. Napisz list do znajomego. z Anglii. Wyjaśnij, co postanowiłeś (-aś) sprzedać i dlaczego się na to zdecydowałeś (-aś). Wspomnij, jak zachęciłeś (-aś) do kupna tego przedmiotu i o co pytały osoby. zainteresowane kupnem.
Les Sites De Rencontre En Ligne. Przygotowałem dla Ciebie 10 przykładów, jak uczenie maszynowe może zmienić świat e-commerce. Z tego odcinka dowiesz się: Jakie znaczenie ma zbliżająca się rewolucja przemysłowa? Czy technologia diametralnie odmieni nasz sposób życia w przyszłości? Czy komputer może mieć wyobraźnię? Na jakich płaszczyznach wykorzystuje się uczenie maszynowe? Czy sztuczna inteligencja zastąpi człowieka w przyszłości w aspekcie kontaktu firma – klient? Jak zaawansowane systemy rekomendacyjne dopasowują się do swoich odbiorców/klientów? Jak bardzo sprawny oraz efektywny system rekomendacyjny może wpłynąć na sprzedaż? jak efektywnie zwiększyć swój open rate przy pomocy uczenia maszynowego? czy uczenie maszynowe jest w stanie zapobiec oszustwom podczas zakupów internetowych? jak odpowiednio zarządzać katalogiem (strukturami drzewiastymi) wykorzystując potencjał uczenia maszynowego? czy sztuczna inteligencja może stać się Twoim potencjalnym konsultantem? który z obecnych asystentów głosowych jest najbardziej inteligentny? czy w przyszłości będziemy robić zakupy przez Internet wyłącznie za pomocą komend głosowych? Przed wstępem do tej rozmowy, chcę zrobić zapowiedź konferencji, którą organizuję – DataWorkshop Club Conf. Odbędzie się ona 13 października w Warszawie. Dzięki inspirującym historiom, zaoszczędzisz kilka lat ciągłego błądzenia i gromadzenia nadmiaru zbędnej wiedzy. Nawiążesz wartościowe kontakty i poznasz właściwe osoby, z którymi na pewno znajdziesz wspólne cele oraz motywację do działania. Ugryź kawałek Machine Learning Obecnych będzie osiemnastu prelegentów, którzy opowiedzą o swoich doświadczeniach. Jak to się stało, że są tam gdzie są, jakie porażki popełnili, jakie wyciągnęli z nich wnioski, z jakich ‘life-hacków’ korzystają, które pomagają im w życiu. Dzięki temu będziesz mógł poznać różne ścieżki rozwoju Machine Learning, jak i również odnaleźć swoją własną. To będzie dobra okazja zarówno dla początkujących, jak i również dla osób, które już działają w tym temacie i chciałyby go poszerzyć. Nie trać czasu! Podobnie było z DataWorkshop Tour. Bilety wyprzedały się w mgnieniu oka i potem było wiele próśb, aby zwiększyć ich liczbę, lecz ze względu na limity “fizyczne”, nie jest to takie proste. Sprzedaż dopiero ruszyła i w momencie jak nagrywam, wyprzedane jest już 40% biletów. Koszt biletu, jak na wysiłek który jest włożony, jest mocno zaniżony. Dlatego schodzi dość szybko. Robię to z kilku powodów, np. dlatego, że chcę udostępnić tę wiedzę szerszemu gronu. Są też jeszcze inne powody. Kolejną wyróżniającą nas rzeczą jest to, że postanowiliśmy to zrobić własnymi siłami, bez sponsorów, dzięki czemu, jak łatwo się domyślić, udało nam się wyeliminować prezentacje sponsorskie. Wszystkie prezentacje które się pojawią, będą wnosiły tylko i wyłącznie praktyczną wartość. Zobacz na program :). Natomiast jeśli jednak ten dzień masz już zajęty (będzie to sobota), lub nawet jesteś zagranicą, czy zabrakło biletów, też o tym pomyśleliśmy. Możesz kupić dostęp do transmisji online i zobaczyć prezentację 18 prelegentów, przy czym wszystkie nagrania będą dostępne co najmniej przez rok, więc możesz je obejrzeć w dogodnym dla Ciebie czasie. Co ważne, dostaniesz również dostęp do slack’a, gdzie będziesz mógł poznać uczestników, jak i zadać pytania prelegentom. Koszt dostępu do transmisji to jedynie 150 zł. (netto). Specjalista Machine Learning to jeden z najbardziej opłacalnych zawodów przyszłości, dlatego warto tam być. Jestem pewien, że robimy coś unikalnego nawet w skali europejskiej. Teraz wracamy już do dzisiejszego tematu. Świat zmienia się szybciej, niż myślisz. Średnio co 100-150 lat odbywa się rewolucja przemysłowa, teraz mamy kolejną, już czwartą. Uczenie maszynowe, tak zwana sztuczna inteligencja lub AI przyczyni się do zmian w czwartej rewolucji. Czasy w których żyjemy są unikalne (swoją drogą, tak pisali ludzie 100 i nawet 200 lat temu). Dlaczego znów to powtarzam? Jeśli zaobserwujemy jak wygląda rozwój, to faktycznie te zmiany zawsze następowały. Zarówno 100, 200, jak i nawet 500 lat temu. Jednak z biegiem czasu, okres potrzebny na wprowadzenie tej zmiany staje się coraz mniejszy. Jeszcze 300 czy nawet 500 lat temu, dziadek przekazując swój fach wnukom, mógł być pewien, że wnuk i jego rodzina przeżyją dzięki tej wiedzy. Jak jest dzisiaj? Już w jednym pokoleniu pojawią się nowe zawody i zanikają stare. Wyobraź sobie dwa wykresy, jeden z nich pokazuje czas, jaki mija od momentu urodzenia się dziecka, do stania się rodzicem (zwykle ok. 25 lat), drugi wykres pokazuje, ile potrzeba czasu na wdrożenie zmian w społeczeństwie. Wcześniej to zajmowało stulecia, potem dziesięciolecia teraz już tylko lata… Przyjrzymy się tym zmianom i pewnym trendom. Mówi się, że początki internetu (ARPANET) miały miejsce pod koniec lat 60-tych ubiegłego stulecia (przynajmniej taka jest wersja oficjalna). Musiało minąć jeszcze trochę czasu, aby on zyskał na popularności. Już na początku roku 2000 internet zaczął przenikać życie codzienne, na skutek czego wszystko dookoła zaczęło się zmieniać. Między innymi, wtedy zaczął pojawiać się potencjał w obszarze e-commerce. Wtedy, np. Bill Gates zasłynął z powiedzenia: “Jeśli Twojego biznesu nie ma w Internecie, to już jest po nim”. Faktycznie, branże zaczęły się zmieniać. Trochę później, pojawiły się telefony komórkowe (w szczególności smartfony), które po raz kolejny wpłynęły na nasz sposób życia. Można dzięki nim budować relacje, komunikować się, czy robić zakupy. Zaczęło się mówić o podejściu “mobile-first”. Przez ostatnie kilka dobrych lat faktycznie tak było. Wiele firm (również tych dużych, np. Google czy Microsoft) zastosowali tę strategię: Mobile First. Teraz mamy kolejną falę, i to znacznie potężniejszą niż Internet czy telefony komórkowe! Jest to uczenie maszynowe, które bardzo zmieni nasz świat. Tak naprawdę, te zmiany już się rozpoczęły i nie ma przed nimi odwrotu. Co to oznacza dla nas, ludzi, jak i dla obszaru e-commerce? Kiedy mówimy o sztucznej inteligencji, zwykle nam się to kojarzy z książkami czy filmami science fiction. Wtedy wydaje się, że to raczej nastąpi w dalekiej przyszłości i zbytnio się tym nie przejmujemy (i częściowo to jest prawda). Natomiast chciałbym dzisiaj skupić się na innych tematach, bardziej pragmatycznych, które można wdrożyć w życie i dzięki nim mieć pewne korzyści, zarówno biznesowe, jak i inne. Dodam jeszcze jeden argument w którym przedstawię ważność czasu w którym aktualnie żyjemy. Pamiętam, że kiedyś bardzo mnie zaskoczyło odkrycie, że już w latach 60-tych ubiegłego stulecia mówiło się o uczeniu maszynowym (w szczególności o sieciach neuronowych. Złożone sieci neuronowe to jest ten słynny Deep Learning). Później odkryłem, że Alan Turing w swojej publikacji w 1950 rozważał i próbował znaleźć odpowiedź na pytanie “czy maszyny potrafią myśleć?”. To, że już ok. 70 lat temu poruszano ten temat bardzo mnie zaskoczyło. Następnie dowiedziałem się, że Ada Lovelace (która dość często jest nazywana pierwszym programistą, dokładnie to pierwsza osoba, która opublikowało swój algorytm) jeszcze w roku 1842 w swojej notatce rozważała temat, czy komputer może mieć wyobraźnię i sama odpowiedziała na to pytanie – “nie”. Już prawie 200 lat temu poruszano dzisiejsze tematy. Dlatego ciężko to nazwać wynalazkiem naszego czasu. Natomiast, jaka jest istotna różnica pomiędzy tamtym czasem a teraźniejszością? Dlaczego teraz (od 2017) duże firmy i państwa (np. USA, Chiny, UK, Francja, ale również i wiele innych) inwestują miliardy dolarów w rozwój AI/ML? Co zmieniło się przez ostatnie 200 lat? Odpowiedź jest prosta, uczenie maszynowe (ML) dojrzało na tyle, że zaczęło przynosić konkretne pieniądze. Mało tego, ML jest elementem, który może stać się decyzyjnym czynnikiem kto pozostanie na rynku. Gartner (amerykańska agencja badawczo – rozwojowa) przewiduje, że w roku 2020 ok. 85% interakcji z klientem będzie wykonywane bez udziału człowieka. Będą zautomatyzowane, ale w taki sposób, że klient będzie czuł się zadbany. W roku 2016, Sundar Pichai powiedział, że Google przyjmuje strategię AI First. Później podobną strategię objął Satya Nadella (CEO Microsoft). Wiele innych firm też zaczęło wdrażać te strategie. Chociaż warto powiedzieć wprost, że jest to pewna pułapka dla początkujących. Popatrzmy na przykłady, gdzie uczenie maszynowe może być przydatne w obszarze e-commerce. To jest tylko część obszarów, aby przedstawić ogólny zarys. Również w wielu przypadkach odwołuje się na rynek zachodni (głównie USA), dlatego, że w ten sposób można obserwować trendy. W Polsce podobne trendy też się pojawiają, jednak przeważnie z kilkuletnim opóźnieniem. 1. Inteligentna wyszukiwarka Myślę, że każdy przystępny sklep posiada wyszukiwarkę. Jest ona rzeczą dość oczywistą. Natomiast obecność wyszukiwarki to jedynie część sukcesu. Klient ma różne oczekiwania. Na przykład, jak wpisuje “adidasy” to może mu chodzić o buty marki “Adidas”, ale równie dobrze o “Nike”, być może nawet bardziej o te drugie. Zwykła wyszukiwarka bardziej operuje wyrazami (lub ich kawałkami), niż szerszym kontekstem. Taki kontekst może bardzo usprawnić skuteczność wyszukiwania. Kolejną funkcją wyszukiwarek to użycie zdjęcia do wyszukania pożądanego produktu zamiast słów. Na przykład, ktoś znalazł w internecie interesujący go przedmiot i chce go kupić. Nie ma zielonego pojęcia jaki to jest brand. Podam nawet coś prostszego, mamy rodzaj ubrania, który bardzo się nam podoba i chcemy znaleźć coś podobnego, tylko do tego ubrania, np. dobrać buty czy torebkę do sukienki. Takie działania mogą być pomocne i zwiększyć skuteczność. Jeszcze jeden wymiar, już mniej oczekiwany, to wyszukiwanie głosem. Jest to nieco szerszy temat, dlatego zdecydowałem się o tym napisać osobny punkt. Jaki z tego wniosek? Uczenie maszynowe może wprowadzić znacznie szerszy kontekst do Twojej wyszukiwarki, dzięki czemu możesz zwiększysz skuteczność i podnieść konwersję. Jak się do tego zabrać? Kluczowym elementem będą dane. Ważne jest umieć zbierać informację (dlatego potrzebna jest odpowiednia architektura), dzięki czemu, nie tłumacząc maszynie wprost, a jedynie obserwując zachowania ludzi, potrafi ona zrozumieć korelacje (ale co ważne, również te, które są zdecydowanie mniej oczywiste). 2. Prognozowanie podażu i popytu Klient, kupując produkt, chce go natychmiast otrzymać. Oczywiście, może trochę poczekać, ale im dłużej czeka, tym bardziej chce zrezygnować ze swojego zamówienia. Podaję przykład, o którym już wspomniałem, i mało firm dzieli się publicznie tą informacją. Otto Group jest jednym z największym e-commerce na świecie, który istnieje w ponad 20 krajach. Analizując zwroty klientów, czyli wtedy kiedy klient chciał coś kupić i już wpłacił pieniądze, po czym zażądał zwrotu, doszli do pewnych wniosków. Ich wnioskiem było, że wystarczy zmniejszyć czas dostawy towarów do 2 dni zamiast, 3-4, przez co ilość zwrotów zauważalnie się zmniejszyła. Otto Group zdołało (na rok 2017) osiągnąć 90% dokładności, że konkretne produkty kupione z wyprzedzeniem, zostaną wykupione przez klientów w ciągu najbliższych 30 dni. Mało tego, robią to na dość dużą skalę, w ten sposób kupują ok. 200 tysięcy produktów z wyprzedzeniem. Innymi słowami Otto Group już wie, kto chce kupić określony produkt, chociaż klient może nie być jeszcze tego świadom. Dzięki temu rozwiązaniu udaje się uniknąć dwóch milionów zwróconych przedmiotów rocznie. Jaki z tego wniosek? ML może usprawnić podejmowanie bardziej trafnych decyzji biznesowych. Jak do tego zabrać się? W tym zadaniu chodzi o szeregi czasowe. Polecam zapisać się na mój autorski kurs, gdzie prostym i przystępnym językiem tłumaczę te zagadnienia. Kurs startuje 12 listopada. Jeśli posiadasz historię sprzedaży, prawdopodobnie już teraz stosunkowo małym nakładem możesz uzyskać rozwiązanie, które pomoże Ci w podejmowaniu bardziej trafnych decyzji. 3. Obsługa klientów Jedną z zalet e-commerce jest skalowalność. Natomiast im więcej klientów, tym więcej opinii o produkcie lub usłudze. Mało tego, można to zrobić na wiele różnych sposobów (np. Facebook, Instagram, LinkedIn, Twitter, własny blog itd). Kontrolowanie tego manualnie, staje się dużym wyzwaniem. Są firmy (również w Polsce), które próbowały ten problem rozwiązać zwiększając ilość pracowników, ale jednak wtedy pojawił się inny problem. W takim zespole, była dość duża rotacja… Dlatego trzeba było wymyślić coś innego. Uczenie maszynowe jest tutaj pomocne na kilku płaszczyznach. Po pierwsze, można przypisać wypowiedź do konkretnej kategorii (kategorie mogą mieć strukturę drzewiastą). Po drugie, można wyczuć jaki wydźwięk (sentyment) miała wiadomość. Wtedy można skupić się na negatywnych (które są bolączkami dla firmy), jak również na wykrywaniu anomalii. Sytuacja, gdzie negatywnych wiadomości jest coraz więcej, musi mieć swój konkretny powód. Wiem, że czasem to brzmi bardziej skomplikowanie, niż jest w rzeczywistości. Natomiast to sprowadza się do problemu zwykłej klasyfikacji, z którym poradzi sobie, jak myślę większość moich absolwentów. Po trzecie, jeśli dzwoniąc do Ciebie zmuszasz klienta do wybrania z menu 2,3 czy nawet 10 cyfr, to jest to bardzo słaba strategia. Znacznie lepiej będzie, jeśli będziesz go pytać i analizować odpowiedź głosową. Podobne projekty już występują na zachodzie, ale Polska nie pozostaje z tyłu. Co prawda, ciągle jest to w fazie testowej, ale Orange zaczęło już wprowadzać takie rozwiązania. Wiem z jakim skutkiem, ale nie mogę tego zdradzić, natomiast można się łatwo domyślić używając zwykłej logiki… Po czwarte, już bardziej złożone, to zbudowanie chatbota, w szczególności w języku polskim. Chociaż zrobienie prostego drzewka, jest w miarę prostą czynnością, i czasem wystarczy, aby przeprowadzić większość prostych rozmów. Jaki z tego wniosek? ML może pomóc utrzymać tempo wzrostu, lub jego obecną skalę, zachowująć przy tym dobry poziom obsługi. 4. System rekomendacyjny Jeszcze w czasach starożytnych sprzedawca, który potrafił być empatyczny w stosunku do klienta i doradzić mu w prosty, zrozumiały sposób, wygrywał z konkurencją. W e-commerce posiada wiele zalet z punktu widzenia biznesu, np. znacznie łatwiej się skaluje, niż zwykły sklep/rynek fizyczny. Natomiast, w klasycznej wersji traci się dość dużo na personalizacji i trafności przekazu. Dlatego klient czuje się zagubiony, albo jest za dużo do wyboru, albo to co jest, wykracza poza obszar jego zainteresowań. Nie ma możliwości też nikogo zapytać, bo komunikacja w tym przypadku jest jednostronna (w kierunku klienta). Ludzie nie potrafią odnaleźć się w sytuacji, kiedy jest zbyt wiele opcji do wyboru. Po krótkim czasie człowiek czuje dyskomfort i nie wybiera nic, albo podejmuje losową decyzję, w wyniku czego statystycznie rzecz biorąc wybiera (naj)gorszą opcje. Więcej o tym można znaleźć w pracach amerykańskiego psychologa Barry’ego Schwartz’a. Dlatego ludzie potrzebują wsparcia w Internecie. Zamiast przedstawiać wszystkie dostępne produkty, pokazać tylko te, które mogą klienta najbardziej zainteresować. (Też w małej ilości, najlepiej mniej niż 5 propozycji w tym samym czasie). Dlatego to jest sztuką. Bo z jednej strony, ilość klientów może wynieść tysiące lub miliony, a z drugiej ilość produktów to również tyle samo. W jaki sposób to wszystko spersonalizować? Używając zwykłych reguł programistycznych. (Np. Jeśli klient X, lub nawet segment X to przedstawić produkty A, B, i C)? Jest to zbyt czasochłonny proces. Mało tego, utrzymywanie tych reguł byłoby zbyt kosztowne. Dlatego potrzebne jest inne podejście. Systemy rekomendacyjne próbują rozwiązać ten problem, dobierając do konkretnego klienta kilka najciekawszych dla niego produktów w tym momencie (kontekście). Jednym z klasycznych i wzorcowych przykładów systemów rekomendacyjnych jest Netflix. Neil Hunt (ang. Chief Product Officer Netflixu) powiedział, że w ostatnich latach udało im się zredukować o kilka procent odejścia klientów (czyli rezygnacji z subskrypcji). Zgodnie z ich kalkulacją, w ten sposób udało się zaoszczędzić więcej niż 1 mld. dolarów rocznie. Więcej o tym można poczytać w publikacji. Podobnie Amazon zwiększył swoją sprzedaż o ok. 30%, tylko dzięki systemowi rekomendacji. Oczywiście to bardzo zależy od skali, natomiast ta liczba robi ogromne wrażenie. Jaki można zrobić wniosek? System rekomendacyjny może bardzo wpłynąć na sprzedaż (up-selling & cross-selling). W dodatku wzrasta lojalność klientów, gdyż wiedzą, że system im efektywnie podpowiada (włączając nieznane produkty). 5. Porzucone koszyki Zgodnie ze statystyką (pierwszy kwartał 2018) ok. 70% (w zależności od branży od 69% do 81%) klientów porzucają koszyki. Porzucone koszyki: źródło Istnieje wiele przyczyn, dlaczego tak się dzieje, ale ważne jest to, że istnieje duży obszar, gdzie można podjąć próby optymalizacji i ostatecznie wiele zyskać. Klasycznym rozwiązaniem jest re-target marketing. Jednak powinniśmy jej używać jako broni ostatecznej. Uczenie maszynowe, może być dobrym narzędziem, które podejmuje bardziej dokładne działania. Może opłacać się dać większą zniżkę (np. 15%, 20% czy nawet 25%) niż przepalać budżety na reklamę (którą dość często “oglądają” boty). Jest wiele sposobów, ale jednym ze skuteczniejszych jest wysłanie spersonalizowanego maila. Już wcześniej wspomniałem o systemach rekomendacyjnych, więc taki system może być również zastosowany w formie mailowej. Przypomnienie klientowi co chciał kupić + zniżka, oraz dodatkowe rzeczy, które mogą klienta zaciekawić. Miło będzie klienta zaskoczyć, czyli wspomnieć o produkcie, o którym nie wiedział. Co prawda tutaj trzeba posiadać większą bazę historycznych wydarzeń i wiedzieć troszkę więcej o swoich klientach. Podam Ci namacalny przykład. Microsoft wysyła miliony newsletterów. Dzięki BrainMaker (za którym stoi uczenie maszynowe, w tym przypadku sieci neuronowe) udało się zwiększyć open rate z do W ten sposób małym wysiłkiem udało się zwiększyć przychody. Swoją drogą, jaki masz open rate? Jeśli mniej niż 5% to coś jest nie tak, i Twój marketing bardziej przypomina spamowanie, niż informowanie po koleżeńsku o czymś interesującym. Pomyśl o tym. Jaki z tego wniosek? Istnieje ogromny potencjał w optymalizacji porzuconych koszyków. Jak do tego podejść? Ciężko generalizować i brać pod uwagę wszystkie branże, natomiast na pewno warto zrozumieć, dlaczego ten koszyk jest porzucany i co ważniejsze, po której stronie występuje problem. Być może do naszego sklepu dociera zła grupa docelowa. Być może opis jest mylący. Być może problemem jest cena. Być może klient ma zasadę, że kupuje tylko po zniżkach (nie ważna jaka jest cena). Powodów może być dziesiątki. Uczenie maszynowe może pomóc podejść do tego tematu jako procesu optymalizacyjnego. 6. Wykrywanie oszustw Internet rządzi się swoimi prawami. Z jednej strony potrafi bardzo ułatwić życie, a z drugiej strony są ludzie, którzy chcą wykorzystać naiwność drugiej osoby. Na przykład, zakupy z użyciem kradzionych kart kredytowych stawiają wszystkich w problematycznej sytuacji: klienta, banku jak i również sklepu. Są historie, kiedy sklep myślał, że jego sprzedaż zwiększa się i poszerzają skalę, aż w końcu okazało się, że większa część transakcji zrobionych była z użyciem kradzionych kart kredytowych i sklep był zmuszony zwrócić te pieniądze. Prawo zwykle stoi bardziej po stronie konsumenta niż biznesu. Oszustwa stają się coraz większym problemem dla biznesu i trzeba jakoś sobie z tym radzić. Uczenie maszynowe może w tym pomóc… Tylko uwaga! Z drugiej strony oszuści są sprytni i równie dobrze też mogą zastosować uczenie maszynowe. Temat ten jest dość skomplikowany. Jaki można wyciągnąć wniosek? Przede wszystkim warto sobie zdawać sprawę z ryzyka, które wiąże się chociażby z kartami kredytowymi i gdzie doszukiwać się potencjalnego rozwiązania. Jak do tego podejść? To zależy od Twojej skali. Jeśli dotychczas zdarzyło się to raz (to jest dobra wiadomość dla Ciebie), ale już nie dla uczenia maszynowego. W tym przypadku lepiej wdrożyć rozwiązanie którejś z firm (które już mają swoje własne know-how). Jeśli jednak Twoja skala jest duża i fraudów niestety też jest dużo (w tysiącach), to wtedy możesz skusić się na przygotowanie własnego rozwiązania, tylko musisz zdawać sobie sprawę, że ten model ciągle trzeba aktualizować (gdyż po drugiej stronie też jest żywy organizm, który jest ambitny oraz sprytny, i cały czas szuka dziury w systemie). 7. Katalog produktów Dla firm, które współpracują z różnymi dostawcami, może się okazać, że utrzymywanie katalogu produktów staje się zbyt dużym wyzwaniem. Mało tego, w pewnym momencie jest to niewykonywalne manualnie, bo każdy producent (czasem też dostawca) ma własny standard. Ostatecznie te same rzeczy są nazywane na różne sposoby, lub w drugą stronę. Przykład, który ostatnio trafił mi do rąk. Sklep z hamulcami dla samochodów. Poukładanie wszystkich hamulców w drzewo (różnych producentów) w sposób manualny okazał się zbyt trudnym (mało opłacalnym) zadaniem. Właściciel sklepu, który się za to zabrał, ostatecznie się poddał. Z drugiej strony, posiadanie takiego katalogu bardzo upraszcza życie klienta. Informacja staje się bardziej wiarygodna i jednoznaczna. Przerobiałem również inny przykład. Dla dużej firmy, która również miała problem z katalogowaniem rzeczy. Zrobienie tego manualnie wymagałoby niewiarygodnych nakładów czasowych i pieniężnych. Natomiast używając pewnych technik uczenia maszynowego oraz kilku iteracji (czyli możliwości popełnienia błędów i wyciąganie z tego wniosków – przyniosło to swoje owoce). Jaki wniosek można z tego zrobić? Uczenie maszynowe może pomóc Ci zarządzać katalogiem (mówiąc ogólniej, strukturami drzewiastymi), dzięki czemu zyskasz kontrolę nad logistyką, ale też wzbudzisz większe zaufanie klienta. 8. Personalny doradca Sklep Zalando, który wykorzystuje uczenie maszynowe na różnych poziomach, w swoim czasie wyróżnił się na rynku, tak zwaną wirtualną przymierzalnią. Klient mógł zamówić ubrania, następnie przymierzyć w domu, jeśli coś mu nie odpowiadało – wrócić. Było to swoim czasie dość ryzykowne, ale ostatecznie dzięki temu udało się zdobyć kawałek rynku. Stitch Fix założona w 2011 roku w San Francisco, idzie o krok dalej i próbuje rozwiązać problem inaczej. Przed zamówieniem, klient wypełnia ankietę, dzięki której jest łatwiej zidentyfikować, co lubi, itd. Następnie próbuje zgadnąć, które rzeczy będą najlepiej pasować dla tej osoby. W ten sposób, dzięki uczeniu maszynowymu staje się personalnym stylistą. Rzeczy, które były dobrane źle, klient może zwrócić, dzięki czemu algorytm uczy się lepiej poznawać potrzeby danego klienta. Warto wziąć pod uwagę skalę tego rozwiązania. Na czerwiec 2018 roku mieli ok. mln. klientów (o 30% więcej niż w zeszłym roku). W roku 2017 dochód firmy wyniósł ok. 1 mld. dolarów (977 mln) i nadal mają ambitne plany. Swoją drogą, CEO firmy, Katrina Lake, zawsze podkreśla, że ich przewaga to technologia – czyli uczenie maszynowe (było ich ponad 85 osób na czerwiec 2018). Ostatnio również uruchomili podobny serwis tylko dla dzieci – Stitch Fix Kids. Jaki można zrobić wniosek? Personalny doradca to krok dalej w porównaniu ze zwykłym systemem rekomendacyjnym, który pomoże Ci uzyskać przewagę nad konkurencją. Jak do tego zabrać się? Zastanów się, na ile możesz zmienić swój biznes, jeśli zatrudniłbyś personalnych doradców dla klientów? Jeśli bardzo, to pomyśl na ile Twój biznes fundamentalnie różni się od Stitch? Być może, masz już wystarczająco danych, aby zacząć działać! 9. Voice Shopping Inteligentni asystenci stają się coraz bardziej inteligentniejsi. Na dzień dzisiejszy istnieje ich kilka: Google Assistant, Siri (Apple), Cortana (Microsoft) i Amazon Alexa. W lipcu 2018 zostały opublikowane wyniki, gdzie asystentów sprawdza się w dwóch wymiarach. Czy rozumieją, o co są pytani, oraz poprawność ich odpowiedzi. Swoją drogą, ciekawy jestem jakie wyniki uzyskali by ludzie na tym teście. Mam wrażenie, że nasze społeczeństwo coraz gorzej sobie z tym radzi. Co o tym myślisz? Wracając do asystentów. Google Asystent pokazał najlepszy wynik. 100% zrozumienia i prawidłowych odpowiedzi (poprawiając swój zeszłoroczny, też najlepszy wynik o ponad 10%). Query results: źródło Siri też poprawiło o 12% zeszłoroczny wynik, tym samym zajęło drugie miejsce i osiągnęło zeszłoroczny wynik Google Assistant. Zastanówmy się nad tym. Jak głosowy asystent może zrewolucjonizować branżę e-commerce. Klawiatura jest interfejsem umożliwiającym wprowadzanie danych do komputera lub komórki, ale jest to rozwiązanie mało naturalne dla człowieka. Owszem, człowiek może się przyzwyczaić do różnych rzeczy, ale jeśli będzie miał do wyboru wprowadzanie informacji w łatwiejszy sposób, to na pewno to wybierze. Używanie komend głosowych jest o wiele wygodniejsze. Dlatego w bliskiej przyszłości warto pomyśleć o tym, że klienci będą zamawiać głosem. Przykładem może być Google Express, dostępny jak na razie tylko na terenie Stanów Zjednoczonych (pomijając Alaskę i Hawaje). Na sierpień 2018 zintegrowani są z ponad 150 sklepami, również z tymi największymi, jak: Walmart, Target itd. To jest przyszłość, która już się dzieje… Jaki można zrobić wniosek? Uczenie maszynowe już zaczyna sobie radzić z rozpoznawaniem głosu, dlatego ważne jest zacząć myśleć przyszłościowo, bo być może zwykły sklep w Internecie może przestać istnieć, lub może działać na zupełnie innych zasadach. 10. Design Okazuje się, że maszyny stają się coraz bardziej twórcze. Potrafią tworzyć muzykę, obrazy, kopiować style. Dość często jest to bardziej trywialny przykład, który jednak przedstawia możliwy potencjał. Prawda jest taka, że obecne algorytmy są na tyle ciekawe, że są w stanie wykonać całkiem interesujące zadania. W poprzednim odcinku podcastu było wspomniane, jak na podstawie zdjęcia z ubraniem, została podjęta próba wygenerowania go na modelce czy modelu (w tym przypadku chodzi o człowieka). Podam Ci jeszcze jeden przykład, na razie mało znany, ale skłania do przemyśleń. W jednym z e-commerce w Indii – Myntra, postanowili zoptymalizować proces tworzenia najlepiej sprzedających się koszulek w kolorze: oliwkowym, niebieskim i żółtym. Wcześniej wzory były tworzone przez ludzi, teraz ten cały proces jest zautomatyzowany dzięki uczeniu maszynowemu. Jaki można zrobić wniosek? Warto być otwartym na zmiany. To co wydaje się zbyt trudne dla algorytmu i jest w stanie zrobić tylko człowiek, w przyszłości może nas bardzo zadziwić :). Można wymieniać jeszcze wiele innych przykładów. Natomiast celem było przedstawienie idei. Na koniec bardzo chcę powiedzieć, że uczenie maszynowe nie jest tylko domeną dużych graczy. Mniejsze firmy też mogą zacząć wdrażać uczenie maszynowe. Modele AI nie są inteligentne z definicji (przynajmniej teraz :). Modele potrzebują danych (dobrej jakości, jak i ilości), żeby móc się uczyć. Pomijając różne zawiłe wzory matematyczne, zapamiętaj, proszę jedną prostą regułę: jeśli nie masz danych, to skup się najpierw na nich. To umożliwi Ci wdrożenie ML w praktyce. Teraz zapraszam Cię do wysłuchania opinii absolwentki drugiej edycji kursu online “Praktyczne uczenie maszynowe”. Przypominam, że trzecia edycja rusza 29 października. Gdzie nauczysz się kilku fundamentalnych technik, które można będzie zaadaptować do Twojego biznesu. Kolejną dobrą wiadomością dla Ciebie może być 20% zniżka, dostępna do końca września na promokod: PRACTICAL_ML_BM20. Basia Cześć Basiu. Przedstaw się, kim jesteś, czym się zajmujesz, gdzie mieszkasz. Cześć Vladimir. Nazywam się Basia Sobkowiak, jestem Poznanianką. Pracuję w firmie to jest firma IT, a ja pracuję w dziale Business Intelligence. Jestem analitykiem BI oraz osobą odpowiedzialną za wdrożenie i utworzenie zespołu Data Science. Tak naprawdę, na co dzień zajmuję się zbieraniem wymagań od klientów do naszych biurowych projektów oraz tworzeniem raportów i analityki wizualnej danych. Dodatkowo też działam w społeczności „Women in Machine Learning & Data Science” w poznańskim oddziale. Jest to społeczność, która chce skupiać ludzi wokół obszaru data science, promować ten obszar wśród kobiet i ośmielać je do działania w tym obszarze, aby nie bały się, aby nie uważały, że nie dadzą rady, tylko żeby je zachęcać do tego, żeby rozwijały się w analityce i żeby było nas więcej. A tę grupę „Women in Machine Learning & Data Science” robicie wspólnie z Moniką? Tak, Monika jest jedną z organizatorek. Pozdrawiam Monikę, to też absolwentka pierwszej edycji, bardzo trzymam kciuki za jej rozwój widzę, że ma całkiem fajne postępy. No dobra, przejdźmy dalej do naszego tematu. Powiedz jeszcze, co ostatnio czytałaś? Aktualnie jestem w trakcie czytania książki „Analiza danych w biznesie. Sztuka podejmowania skutecznych decyzji” autorstwa Provosta i Fawcetta. Są to amerykańscy specjaliści od data science i machine learning. Książka jest bardzo dobra, jeśli chodzi o wprowadzenie i uzupełnienie wiedzy z analityki danych. Osobiście uważam, że każda osoba, która chciałaby u siebie w firmie wprowadzić trochę bardziej zaawansowaną analitykę danych, chciałaby mieć swój biznes, budować swoją przewagę biznesową dzięki analityce danych, powinna ją przeczytać. Ponieważ ona dosyć dobrze tłumaczy zagadnienia, w bardzo prosty i zrozumiały sposób, dosyć przekrojowo, są tam też poruszane elementy przetwarzania języka naturalnego, wydaje mi się, że dzięki tej książce lepiej rozumie się co data scientists czy analitycy danych z nimi robią, dlaczego i jak to się dzieje, że można wyciągać różne wnioski z danych. No i potem na podstawie tego podejmować jakieś decyzje, czy budować jakieś rozwiązania. Moim zdaniem to jest naprawdę bardzo fajna książka i bardzo przystępnie napisana, to jest jej bardzo duży plus. Powiedziałaś, że zajmujesz się też Business Intelligence, że budujesz zespół. Zacznijmy od początku, jak to się stało, że zainteresowałaś się uczeniem maszynowym, co Cię zainspirowało? Opowiedz nam swoją historię. Jeśli chodzi o samo machine learning i sztuczną inteligencję, to tak naprawdę zaczęłam się nią interesować gdzieś pod koniec zeszłego roku, ale zawsze byłam związana z analityką danych. Nie kończyłam studiów informatycznych czy matematycznych, tylko trochę inne i zawsze byłam związana z analizą danych przestrzennych, zawodowo również. Tak się potoczyły moje ścieżki, chciałam też poszerzyć swoje horyzonty i trochę bardziej działać w takiej analityce dla biznesu, dla firm, więc tutaj się pojawił ten BI i analityka BI. Jeśli chodzi o analitykę wymagań, tworzenie raportów czy tworzenie takiej analityki wizualnej czy jakieś tam wykresy interaktywne, drążenie danych, to trochę było dla mnie za mało, wiedziałam, że dużo więcej można z tych danych wyciągać, można robić jakieś predykcje, można robić jakieś modele, które po prostu odpowiedzą na bardziej zaawansowane pytania i gdzieś tak trochę naturalnie zaczęło to iść właśnie w tę stronę. Ponieważ u nas w dziale mamy liderów różnych obszarów, tak w tej ścieżce się to wyłoniło, że mogę być liderem zespołu data science i dostałam takie zadanie, żeby zbudować ten zespół. Dalej powstał efekt kuli śnieżnej, jak się powiedziało A, trzeba powiedzieć B, więc coraz bardziej mogłam rozwijać się w tej dziedzinie, dostawałam ku temu takie bodźce zewnętrzne, bo wiedziałam, że to się do czegoś przyda, bo mogę zbudować zespół, mogę mieć specjalistów, rozmawiać z nimi. Dalej będą projekty i wiem, że to będzie mi potrzebne, będę mogła to wykorzystać, robić fajne rzeczy zawodowo, rozmawiać z klientami i im pokazywać, że mogą z tymi danymi, które zbierają, robić jeszcze fajniejsze rzeczy niż tylko prosty raport, który im pokazuje na przykład sprzedaż, tylko mogą jeszcze sobie zrobić jakąś predykcję, a potem wokół tego budować cały proces podejmowania swoich decyzji. Powiedziałaś, że zajęłaś się uczeniem maszynowym jako procesem, kilka miesięcy temu albo może pół roku temu, właśnie jesteś absolwentem drugiej edycji „Praktyczne uczenie maszynowe” Data Workshop. I co Ci najbardziej się spodobało na tym kursie? Najbardziej podobało mi się to, że tego materiału było naprawdę dużo. Do każdej lekcji zawsze były minimum 2 linki dodatkowych materiałów, w związku z tym zawsze mogłam poszerzać swoją wiedzę. Do tego bardzo mi się podobało to, że nawet najbardziej skomplikowane zagadnienia tłumaczysz bardzo przystępnie i w prosty sposób. Do dzisiaj mi utkwiło w pamięci, jak tłumaczyłeś sieci neuronowe, zaczynałeś od przykładu „tata-mama-dziecko-babcia” i na tym budowałeś całą historię o tym, jak funkcjonują sieci. To dla mnie był bardzo duży plus, nie było to tłumaczone w bardzo matematyczny sposób, bardzo taki naukowy, tylko bardzo przystępny i praktyczny. Dodatkowo te przykłady, które były w zadaniach, były jakby trochę z życia, to nie były przykłady akademickie. Podawałeś faktycznie realne zadania, dane, które gdzieś pojawiły się na różnych platformach. Myślę, że to są takie dwa najważniejsze punkty. Jako trzeci mogę dodać jeszcze Slacka, bo to też było fajne miejsce kontaktu, wymiany informacji i pomocy od ludzi, ponieważ jeśli się miało jakiś problem, można było tam napisać i albo ktoś ze społeczności, z uczestników pomógł, albo Ty odpisywałeś dosyć szybko, co trzeba zrobić, więc to też było bardzo fajne. To motywowało do pracy, że też są osoby, które robią ten kurs i one są gdzieś dalej, w związku z tym nie warto się poddawać i trzeba robić dalej, bo kurs był dosyć długi i tego materiału było dużo, więc naprawdę trzeba było się zmotywować wewnętrznie. To brzmi dla mnie bardzo ambitnie i inspirująco, bardzo mi miło, bo wymyślenie takich przykładów zawsze zajmuje dużo czasu, nie ma tej prostoty, która jest tam, za tym wszystkim stoi bardzo skomplikowany proces twórczy, więc bardzo miło mi to usłyszeć. A powiedz, czy coś Cię zaskoczyło? Na pewno zaskoczyło mnie to, że ten kurs był bardzo mocno nastawiony na nasze myślenie. Niestety często w życiu spotykałam się z tym, że jakieś kursy czy szkolenia były po prostu przejściem przez książkę, czy jakiś tam przygotowany materiał: kliknijmy tu, wpiszmy taką czy inną komendę i tak naprawdę po 2-3 dniach kursu miało się oczywiście jakiś ogólny obraz danego zagadnienia, ale często potem nie miałam takiego poczucia, że faktycznie umiem to zrobić, że faktycznie wiem, na czym to polega. Tutaj, przez to, że było bardzo dużo tych zadań, o bardzo różnym stopniu zaawansowania, a potem dawałeś nam takie zadania, gdzie w sumie mieliśmy puste okienko i trzeba było coś po prostu wymyślić samemu, to faktycznie powodowało, że człowiek zdecydowanie lepiej rozumiał, bo musiał sam pomyśleć, co trzeba zrobić. To było takie naprawdę duże zaskoczenie, że ten kurs jest naprawdę praktyczny i naprawdę nas uczy sposobu myślenia z tymi danymi. Na pewno zaskoczyła mnie właśnie ta ilość materiałów dodatkowych, już dawno się nie spotkałam przy jakichś kursach, żeby aż tyle dostać dodatkowych materiałów czy wskazówek na materiały, gdzie możemy uzupełnić swoją wiedzę oraz na pewno Twoja dostępność i chęć pomocy. Już nie pamiętam o której, ale pamiętam, że kiedyś były takie wpis na Slacku o 1-2 w nocy, gdzie widziałeś, że my pracujemy, są obciążone serwery, stwierdziłeś, że dokładasz mocy, więc poprostu byłeś praktycznie zawsze dostępny i zawsze starałeś się nam pomóc, jeśli mieliśmy jakieś problemy, czy to techniczne, bo coś tam nam nie działało, czy też po prostu bardziej merytoryczne. Zawsze po jakimś działaniu, kursie, lekcji pojawia się pytanie „I co dalej?”. Więc też zadam Ci to pytanie, jak zamierzasz wykorzystać tę wiedzę, którą zdobyłaś na kursie? Myślę, że tak naprawdę chcę ją wykorzystać w trzech aspektach. Na pewno, chcę użyć jej w projekcie zawodowo, myślę, że to nastąpi w okresie jesienno-zimowym, pewnie z pomocą bardziej zaawansowanych osób, bo czasami projekty są bardziej zaawansowane. Na pewno też ze względu na moją funkcję w firmie, ze względu na to, że jestem odpowiedzialna za zespół data science, chcę jej użyć do prowadzenia i rozbudowy tego zespołu, ponieważ zależy mi na tym, żeby ten zespół był fajny i pod względem specjalistów, jak również, żeby to był zespół, a nie zbiór osób zajmujących się data science. Aby prowadzić jakiś zespół, uznaję zasadę, że trzeba wiedzieć, czego on dotyczy i jakie zadania wykonują ludzie, żeby móc z nimi rozmawiać Oczywiście nie można być specjalistą od wszystkiego, ale trzeba się trochę orientować w pewnych zagadnieniach, więc na pewno tutaj ta wiedza jest nieoceniona. Trzeci aspekt to jest rozmowa z klientami, ponieważ bardzo często spotykam się z tym, że klienci są gdzieś dopiero na początku ścieżki swojej pracy z danymi. I tutaj potrzebna jest rozmowa i inspirowanie ich do tego, że można tych danych użyć w jeszcze inny sposób, można jeszcze więcej wyciągnąć z tych danych i trzeba tłumaczyć im, na czym to polega, że machine learning i data science to nie jest taka czarna magia, że nie należy się tego bać. Tak naprawdę to są bardzo przystępne rzeczy i można o tym myśleć, żeby to wykorzystać i usprawnić swoje procesy biznesowe. A przy tym można zrobić jakiś fajny projekt i cieszyć się z tego, że robi się fajną pracę. A potem można fajnie optymalizować swoje działania. Myślę, że to są takie trzy aspekty, w których chciałabym wykorzystać tę wiedzę. Bardzo się cieszę, podałaś konkrety i czuję tę determinację, motywację do wykonania. I ostatnie już pytanie na dzisiaj, jak ktoś będzie chciał się z Tobą skontaktować, to jak może to zrobić? Jest kilka różnych kanałów. Można do mnie dotrzeć na LinkedIn. Można też do mnie pisać na maila firmowego tj. @ więc myślę, że to są dwa kanały, poprzez które najłatwiej do mnie dotrzeć, jeśli ktoś chciałby się ze mną skontaktować. Jeszcze można się ze mną skontaktować przez naszą organizację „Women in Machine Learning & Data Science” w Poznaniu, jeśli nawet nie trafi to bezpośrednio do mnie, to któraś z dziewczyn, bo jest nas czwórka, na pewno przekaże to do mnie. Więc to też jest jakiś sposób komunikacji, zwłaszcza jeśli ktoś jest zainteresowany społecznością tego typu czy w Poznaniu, czy w ogóle w Polsce, bo jest też drugi oddział w Trójmieście. Więc tak najłatwiej do mnie trafić i mnie znaleźć. Super dziękuję Ci bardzo za Twój czas i chęć podzielenia się swoją opinią, ale też bardzo mocno trzymam kciuki za Twój rozwój i ten plan, który masz na tę bliską i też na tę dalszą przyszłość. Dziękuje Ci bardzo Vladimir za rozmowę.
Kupujący zapłacił, ale nie otrzymał towaru. Sprzedający dostał pieniądze, wysłał towar, ale zgłosiła się po niego policja. Jak oszust zagrał wszystkim na nosie?Pojawiło się nowe oszustwo na Allegro. W systemie płatności PayU była luka, która umożliwiała jednoczesne oszukiwanie sprzedających na Allegro i kupujących w innych serwisach. Lukę podobno załatano, ale czy to rozwiązuje problemy sprzedawców w sieci? Jak nie dać się oszukać?Zobacz również:Fundusz kosztuje, ETF też. Opłaty mają ogromne znaczenie dla wyniku inwestycji. Co zrobić, żeby oszczędzanie było tanie? [WYCISKANIE EMERYTURY]Fundusze portfelowe: ostatni krzyk mody w branży inwestycyjnej. Jeśli głowa cię boli na samą myśl o inwestowaniu pieniędzy, to… są właśnie dla ciebie [INWESTUJ Z WEALTHSEED]W pierwszych bankach można już wziąć kredyt na mieszkanie bez wkładu własnego. Czy to się opłaca? Sprawdzam warunki i procedury! [BANK NOWOŚCI]Ostatnio jest coraz głośniej o oszustwach internetowych, a więc w rezultacie i my o nich częściej piszemy. Tutaj Maciek Samcik opisywał, jak sprzedawcy na OLXie są podpuszczani do kliknięcia w niebezpieczny link, tutaj Maciek Bednarek opisał przypadki pani Anny, którą aż trzykrotnie próbowano oszukać, a tutaj Irek Sudak krytykował lukę w systemie transakcji metody ataków na użytkowników internetu stają się coraz doskonalsze, a więc musimy zachować czujność. Niedawno zrobiło się głośno o sposobie (nie można odmówić oszustom pomysłowości), za pomocą którego udało się za jednym razem oszukać kupującego na Vinted, sprzedającego na Allegro i jednocześnie wrobić tego drugiego w odpowiedzialność za całą na Allegro. Jak uczciwy sprzedawca został wzięty za złodzieja?Proceder omówili w swoim filmie twórcy kanału Poszukiwacze Okazji. Pan Maciej jest jednym z wielu sprzedawców na Allegro. Wysyłał towar po otrzymaniu informacji, że kupujący opłacił przesyłkę, a więc można powiedzieć, że działał racjonalnie. I faktycznie wszystko wydawało się bezpieczne do momentu, w którym otrzymał wezwanie na policję. Pierwsze z pierwszej chwili pan Maciej w ogóle nie rozumiał o co chodzi. Nie tylko nikogo nie oszukał, ale nawet nie zajmuje się sprzedażą ubrań (a tego dotyczyło zgłoszenie). Dopiero z kolejnymi wezwaniami na policję (a było ich łącznie ponad 30, pojawiły się też sprawy w sądach) zrozumiał na czym polega takie wystawiał na Vinted (aczkolwiek możliwe jest to na każdym portalu z ogłoszeniami) jakieś produkty w bardzo niskich cenach. Po znalezieniu chętnego do zakupu umawiał się z nim na płatność za pomocą przelewu bankowego i podawał mu numer konta, który był numerem konta pana Macieja – sprzedającego z Allegro. Skąd go wziął?Wykorzystał lukę w płatnościach wykonywanych za pośrednictwem PayU. Wystarczyło wybrać formę płatności „przelew”, a następnie na stronie PayU „przelew tradycyjny”. W rezultacie generowały się dane do przelewu, w tym numer rachunku, tytuł przelewu, wprawdzie ostrzegało poniższym komunikatem, że kwota i tytuł przelewu muszą się zgadzać, ale w ogóle to nie było respektowane. Tytuł, odbiorcę i kwotę można było wprowadzić zupełnie dowolnie, a przelew i tak trafiał do oczywiście wybierał oferty z identyczną lub minimalnie niższą kwotą od tej uzgodnionej z kupującym na Vinted. W rezultacie sprzedawca otrzymywał z Allegro informację, że zakup został opłacony. System w żaden sposób nie ostrzegał sprzedawcy, że ktoś podał inne dane przelewu (odbiorca, tytuł przelewu), a jedynie (analizując głębiej) można było zauważyć, że kupujący wpłacił wyższą kwotę:Taka informacja nie wzbudza jednak większych podejrzeń, a dodatkowo nie musimy jej zauważyć (PayU informowało nas e-mailem, że płatność została zakończona) lub nie musi się w ogóle pojawić (oszust może wystawić przedmiot za dokładnie taką samą kwotę w innym serwisie).W rezultacie sprzedawca na Allegro otrzymywał pieniądze i informację, że dana aukcja jest opłacona i wysyłał towar, który trafiał do oszusta. Przestępca działał oczywiście w pełni anonimowo. Mógł podać fikcyjne dane i zamówić przesyłkę do paczkomatu, a więc nie musiał ujawniać nawet swojego adresu kupujący zapłacił za swoje zamówienie i go nie otrzymał, a jedyne co mu pozostało po tej transakcji, to numer konta, na który zlecił przelew. Ten niestety należał pośrednio (był rachunkiem technicznym PayU) do niewinnego sprzedawcy z Allegro – pana Macieja. I to tam swoje kroki skierowała relacji pana Macieja dowiadujemy się też, że policja kompletnie nie rozumie na czym polega takie oszustwo na Allegro i poinformowała go, że sprawy będą umorzone, jeżeli zwróci pieniądze. Miał też pobierane odciski palców, sprawdzane DNA i był wielokrotnie przesłuchiwany. Czeka też na pierwsze rozprawy sądowe. A to przecież on został w tej sprawie też: Ludzie chcą uciekać przed inflacją. W internecie coraz więcej dziwnych ofert na „bezpieczne zarabianie”. Ale to chyba szczyt bezczelnościOszustwo na Allegro? PayU interweniujeW pierwszej chwili apele pana Macieja do Allegro pozostawały bez przychylnej odpowiedzi. Konsultanci odmawiali wyłączenia opcji przelewu tradycyjnego i też nie rozumieli, jak w ten sposób można okradać ludzi. Następnie zaczęli jedynie blokować konta kupujących, ale już po dokonaniu oszustwa, a więc niewiele to sprawie stało się jednak głośno. Pojawił się post na Wykopie, film na Youtube, napisały o niej media, ktoś założył wątek na forum Allegro. Nowe oszustwo na Allegro zyskało rozgłos i w końcu ktoś zdecydował się jednak zareagować. Pod filmem umieszczono oświadczenie:„Bezpieczeństwo transakcji na Allegro jest dla nas priorytetem. Wraz z PayU jesteśmy w trakcie usprawniania rozwiązań, które uniemożliwiają wykorzystanie płatności w sposób przedstawiony w materiale. Przykro nam z powodu sytuacji, która spotkała Pana Macieja w naszym serwisie, skontaktujemy się z nim i sprawdzimy w jaki sposób możemy pomóc. W przypadku działań naruszających prawo, zawsze współpracujemy z organami ścigania”.Pan Maciej potwierdził, że Allegro faktycznie zadzwoniło do niego z propozycją pomocy. Postanowiłem sprawdzić, czy udało się już uniemożliwić takie oszustwo i jakie środki zastosowano. Napisałem do Allegro i do PayU. Pan Marcin Gruszka (Head of Communications Corporate Communication Department w Allegro) odpisał mi, że:„Problem całkowicie rozwiązany. Aktualnie wdrożyliśmy dodatkowe zabezpieczenia i pracujemy nad kolejnymi i dopóki nie zostaną wypracowane wyłączyliśmy w niektórych kategoriach możliwość płacenia przelewem tradycyjnym aby ograniczyć opisywane sytuacje”.Dowiedziałem się też, że takie sytuacje były marginalne. Chociaż tutaj można by się zastanowić, o ilu sytuacjach po prostu się nikt nie dowiedział, bo kupującemu nie chciało się zgłosić na policję z powodu straconych 150 zł. Szczególnie, że policja w Polsce nie ma zbyt dobrej renomy odnośnie rozwiązywania takich oszustw. Z PayU mi nie odpisano do dnia publikacji się, że udało się ograniczyć takie oszustwo na Allegro, ale mam jednak niedosyt podjętych działań. Zarówno policja, jak i Allegro w pierwszej chwili, delikatnie pisząc, zignorowali problem, przez który niektórzy sprzedawcy na Allegro jeszcze długo będą źle spać po nocach. Myślę, że można to było zrobić lepiej. Ciekawe, czy ktoś w ogóle szuka prawdziwych też: Oszustwo na Allegro: włamanie na konto. W tej sytuacji nie pomogą ani SMS-y, ani tokeny w aplikacji, ani 3D Secure. Jak się bronić, by nie skończyć jak pan Piotr?Sprzedajesz coś? Gotówka na koncie to nie wszystkoNie będę ukrywał, że wyłapanie powyższego oszustwa jest niemal niemożliwe. Szczególnie dla kogoś, kto sprzedaje hurtowo i przyjmuje kilkanaście/kilkadziesiąt przelewów dziennie. Na szczęście PayU usprawniło ten system, ale to nie oznacza, że sprzedający mogą się czuć oszukiwania dwóch osób za jednym razem jest znany i używany na różnych portalach z ogłoszeniami. Oszust może zupełnie anonimowo i bezkarnie wyłudzić pieniądze od potencjalnego kupca i towar od sprzedawcy, a Ci nawet nie będą wiedzieli, kto ich oszukał. Jak to działa?Przestępca znajduje interesujący go przedmiot na jakimś portalu z ogłoszeniami. Informuje o zamiarze kupna i prosi o numer konta do przelewu z przesyłką do paczkomatu. Jednocześnie wystawia za taką samą kwotę swoją ofertę. Najczęściej na inny produkt (jakiś chodliwy i droższy, aby był w korzystnej cenie).Otrzymany od sprzedawcy numer konta przesyła potencjalnemu kupującemu i prosi, aby w tytule przelewu wpisać „zakup” lub coś podobnego, co nie wskazuje na konkretny przedmiot. Dane właściciela rachunku może zostawić lub zmienić na fikcyjne, bo banki i tak ich nie weryfikują. Wielokrotnie już zwracaliśmy uwagę na ten problem – na przykład wszystkim oszust wysyła do sprzedającego prośbę o wysyłkę paczki do danego paczkomatu. Jeżeli założył w tym celu jednorazową kartę SIM, jednorazowy e-mail i czapkę z daszkiem oraz maseczkę przy odbiorze, to zlokalizowanie go będzie bardzo trudne (ale na szczęście możliwe – np. z wykorzystaniem metadanych).Kupujący, który nie otrzyma towaru, ma do dyspozycji tylko e-mail do oszusta, a ten zapewne dosyć szybko przestanie być aktywny. W takiej sytuacji po prostu skieruje swoje kroki na komisariat (lub zrazi się do zakupów internetowych i zapomni o sprawie), a policja… znajdzie sprzedawcę po numerze rezultacie sprzedawca straci masę czasu, nerwów i pieniędzy (adwokaci kosztują) na wyjaśnienie całej sprawy. I to tylko dlatego, że ktoś z niego zrobił „słupa” bez jego też: Pan Kamil jest szczuplejszy o 200 000 zł. Wszystko przez „sklonowaną” kartę. Dlaczego banki i telekomy ciągle pozwalają na takie numery?Jak bezpiecznie sprzedawać w takiej sytuacji? Niestety nie ma tu jednej prostej rady, a opisywane oszustwo na Allegro nie było pierwszym ani ostatnim. Najlepiej się umówić na odbiór osobisty (to zabezpieczy też kupujących, którzy będą mogli obejrzeć towar przed zakupem), ale zdaję sobie sprawę, że nie zawsze jest to krokiem jest próba skorzystania z systemu płatności, który oferuje dany serwis z ogłoszeniami. Niestety, jak czytaliście wyżej, takie systemy nie są pozbawione wad, a zwiększają nasze poczucie podajemy nasz numer konta, to zaznaczmy kupującemu, aby dokładnie napisał w tytule przelewu za co i komu płaci. Na przykład: „Przelew za spodnie z OLX, ID: 123456789, dla Michała Wachowskiego”.Można też uzgodnić jakąś dziwną kwotę przelewu, czyli 140,02 zł zamiast 140 zł. Dla kupującego nie powinno to być problemem, a sprzedający będzie musiał namówić kogoś do wpłacenia dokładnie takiej tytuł przelewu będzie zły lub kwota nie będzie się zgadzać, to po prostu odsyłajcie przelew do nadawcy i nie wysyłajcie towaru. Oszust może próbować różnych wyjaśnień. Na przykład może napisać, że robił dwa przelewy i skopiował tytuł. Zignorujcie to. Będzie chciał kupić, to wykona nowy nie wysyłamy też żadnych produktów na podstawie e-mailowego potwierdzenia wpłaty ani nie klikamy w żadne linki od kupujących, która mają rzekomo pozwolić nam odebrać płatność. Najlepiej się nie wdawać w żadną dyskusję z potencjalnym też: Na jej nazwisko wyłudzono zł kredytu. Umowa zaginęła, bank groził windykacją. Wreszcie są pierwsze dobre wieściZdjęcie główne: Jefferson Santos/Unsplash
O mnie Sklep 0 Jak sprzedawać w Internecie używane przedmioty – poradnik Sprzedaż używanych przedmiotów jest jednym ze skutecznych sposób na pozbycie się ich z naszego otoczenia. Często też najbardziej pożądanym, bo jednym z powodów, dla których trudno nam się z nimi rozstać są pieniądze, które za nie zapłaciliśmy. Nie zawsze jednak się udaje, a wystawione przedmioty nie schodzą kilka miesięcy. Dlatego przygotowałam krótki poradnik o tym jak skutecznie sprzedawać w Internecie używane rzeczy i mam nadzieję, że będzie dla Was przydatny. Sprzedaż jest sposobem, z którego korzystam często, szczególnie gdy chodzi o małe AGD, książki, czy planszówki. Równie często sprzedaję, ale i kupuję używane rzeczy. Gdy przeglądam niektóre oferty, nie dziwi mnie, że dane rzeczy nie mogą się sprzedać. Zdjęcia, na których nie widać szczegółów, często nieostre, lakoniczny opis aukcji – sama nie skuszę się na tak wystawiony przedmiot. A przygotowanie oferty sprzedaży na przyzwoitym poziomie wcale nie jest angażujące. Osobiście nie sprzedaję też wszystkiego, bo czasem zwyczajnie mi się nie chce. Nie mam oporów przed wystawieniem czegoś za darmo z odbiorem osobistym czy zwyczajnie obok śmietnika (wtedy znikają zdecydowanie najszybciej). Bywa, że czas, który miałabym spędzić na przygotowaniu, pakowaniu oraz w kolejce na poczcie, nie jest wart zarobionych kilku złotych ze sprzedaży jakiejś pierdółki. Są jednak takie rzeczy, gdzie sprzedaż jest konieczna i wtedy warto się przyłożyć. Jak sprzedawać w Internecie używane przedmioty? Dla mnie najważniejszą zasadą jest: sprzedawaj to, co sam byś kupił, choć oczywiście czasem robię wyjątki, ale tylko wtedy gdy dana rzecz jest nowa. Sama raczej nie kupiłabym używanych butów, dlatego też ich nigdy nie sprzedaję. Podobnie z różnymi dekoracjami do domu. Jakoś nigdy nie zdażyło mi się ich kupić używanych, spróbowałam raz wystawić i nie było wielkiego zainteresowania. Teraz już nie wystawiam, ale przede wszystkim nie kupuję ;). Zdjęcia Bardzo ważną sprawą w sprzedaży są zdjęcia. To pierwsze wrażenie decyduje czy ktoś zainteresuje się danym produktem, czy też nie. I nie namawiam Was do robienia cudownych, pięknych i wystylizowanych zdjęć, bo to nie jest konieczne, a zdjęcie dobre do sprzedaży zrobicie chociażby telefonem. Warto zwrócić uwagę na to by zdjęcia były: ostre – zdjęcia nieostre, na którym nie widać szczegółów przedmiotu, nie zachęcają do kupna, zrobione na jasnym lub kontrastowym tle – idealnie sprawdzi się ściana, podłoga lub stół. Najlepiej, żeby nie było widać innych domowych szpargałów, mebli i sprzętów kuchennych, albo zminimalizować ich ilość do minimum. Wtedy klient skupia wzrok tylko na danym przedmiocie. zrobione w uprzątniętym miejscu – szczególnie, gdy chcecie sprzedać meble (albo wynająć mieszkanie!). Mebel, na którym jest mnóstwo nieuporządkowanych przydasi i bałagan w tle, nie wygląda dobrze, choćby był najpiękniejszy na świecie. w dziennym, naturalnym świetle – sztuczne światło tworzy nieestetyczne cienie, zmienia kolorystykę i jeśli nie mamy doświadczenia w robieniu zdjęć, to lepiej sobie odpuścić późną porę. jeśli jest widoczne zużycie, koniecznie zbliżenie na te fragmenty – to, że dana rzecz ma jakąś wadę, to wcale nie znaczy, że jej nie sprzedacie – najważniejsze to jej nie ukrywać. obróbka zdjęć – jeśli już to tylko lekkie rozjaśnienie i poprawienie kontrastu, tak by nic nie przekłamać, a takie możliwości edycji stwarza, np. telefon. Opis przedmiotu możliwie dokładny i szczegółowy opis – im więcej szczegółów tym lepiej, budujemy tym zaufanie. Nie musimy skupiać się na technicznych aspektach, może to być opis „od serca”, często mi się to sprawdza. opis wykorzystania przedmiotu – dobrym wytrychem jest napisanie jak dany przedmiot można wykorzystać, w jakim otoczeniu. Dobrze działają hasła w stylu „Idealny do domku kempingowego”, „Sprawdzi się w pokoju dziecka”, „Jeśli masz panele to jest to produkt dla Ciebie” itd. wymiary – przy ubraniach i rzeczach do domu podanie wymiarów to absolutny obowiązek, łatwiej od razu podjąć decyzję i sprawdzić czy dana rzecz pasuje. rzeczywisty stan – tak jak napisałam wyżej przy fotografowaniu różnych wad – to, że coś jest zużyte to nie znaczy, że nie nadaje się na sprzedaż. Ukrywanie wad może przynieść tylko problem. Nie oszukujmy też, że dana rzecz jest nowa, jeśli nie jest. To zawsze wyjdzie. Ostatnio kupowałam książki opisane jako nowe, ale nie dotarły do mnie nowe egzemplarze. W bardzo dobrym stanie, ale nie nowe. Nie zależało mi na jakości, ale mimo wszystko poczułam się oszukana i więcej u tego sprzedawcy nic nie kupię. Proste. Cena Ustalenie ceny jest najtrudniejszym elementem, bo z jednej strony chcielibyśmy zarobić jak najwięcej, a z drugiej zależy na szybkiej sprzedaży. Nie zawsze też najniższa cena jest gwarancją sprzedaży, wszystko zależy od przedmiotu jaki chcemy sprzedać. Jak ustalić cenę? Najlepiej porównać oferty sprzedaży podobnych przedmiotów w podobnej jakości i obniżyć cenę o kilka, kilkanaście procent. Trzeba też pamiętać, że do ceny doliczony zostanie koszt przesyłki, więc automatycznie klient płaci więcej. Nie kierujmy się sentymentem, tylko ustalmy cenę, którą sami bylibyśmy gotowi zapłacić za używaną rzecz tego rodzaju. Gdzie sprzedawać? OLX – obecnie miejsce, gdzie sprzedaję najczęściej z najlepszym skutkiem. Przede wszystkim książki i małe AGD. Allegro – rzadko wystawiam coś na Allegro, ale swego czasu był to dla mnie portal zakupowy numer jeden. Grupy na Facebooku – tutaj działa mój mąż, szczególnie gdy chodzi o sprzedaż gier planszowych i zawsze jestem w szoku jak to szybko idzie. To tyle, jeśli chodzi o moje rady, czekam na Wasze sprawdzone sposoby na skuteczną sprzedaż. Dodalibyście coś do moich punktów? Róbcie przegląd rzeczy, z których już nie korzystacie, bo niedługo na blogu rusza „wyprzedaż garażowa”, w której też będziecie mogli wziąć udział :).
Pisałem już o tym, że prowadząc zarobkową sprzedaż na Allegro powinieneś zarejestrować działalność gospodarczą lub robić to w imieniu zaprzyjaźnionej firmy. A co zrobić jeżeli już prowadziłeś sprzedaż bez zakładania firmy? Jeżeli zgłosisz fakt uzyskania dochodów w urzędzie skarbowym, to nie zapłacisz kary. Musisz zapłacić jedynie należne podatki i ZUS z odsetkami. Jest to tzw. zgłoszenie czynnego żalu. Wymiar kary za prowadzenie sprzedaży na Allegro kwalifikującej się jako działalność gospodarczą zależy często od Twojej sytuacji majątkowej i zarobkowej. Zdarza się, że jest to 100% czy 200% zaległości podatkowej. Jeżeli prowadząc sprzedaż bez rejestracji nie zbierałeś dokumentów zakupów, to często do urzędu wystarczy samo oświadczenie o wysokości poniesionych kosztów. Może się jednak zdarzyć, że urząd będzie rygorystycznie przestrzegał przepisy i przy braku dowodów zakupów przyjmie zerowe koszty. Może się tak stać szczególnie wtedy kiedy to urząd skarbowy wykryje Twoją działalność. Co jakiś czas zdarza się, że urzędy skarbowe występują o dane do Allegro. Allegro ma obowiązek podać wszelkie transakcje aż 6 lat wstecz (do 1 stycznia). Pamiętaj, że kontrola może przyjść także od kontrahenta, który zakupił towar i na podstawie przelewu wrzucił go w koszty swojej działalności. Uważam, że złożenie czynnego żalu jest najlepszym rozwiązaniem, bez względu na konsekwencje finansowe. Jak najszybciej o całej sytuacji zawiadom swój Urząd Skarbowy, zarejestruj działalność i zaprowadź księgowość. Podatek na pewno da się rozłożyć na raty. Najlepiej udaj się po poradę do doradcy podatkowego. Polecam też lekturę stron po portalu a szczególnie znajdujących się tam e-Porad. Bardzo interesująca jest również lektura
Internet zdążył na dobre zadomowić się w ludzkiej świadomości i wielu z nas ciężko byłoby się bez niego obejść. Bez Internetu nie moglibyście sprawdzić poczty, przejrzeć wiadomości lub przeczytać tego artykułu. Sposób, w jaki korzysta się z dobrodziejstw sieci, też jest dla nas oczywisty. Mamy do dyspozycji przeglądarkę internetową oraz miliardy przepięknie wykonanych stron, po których nawigujemy, wpisując adresy, korzystając z wyszukiwarek i klikając łącza. Jednak jeszcze kilkadziesiąt lat temu nikomu nawet nie śniło się coś, co nazywany dziś siecią WWW, a na słowo „przeglądarka” ludzie reagowali śmiechem. Jak wiele przełomowych wynalazków, powstanie Internetu i jego transformacja do takiej postaci, jaką znamy dzisiaj, były niezwykle burzliwe, a jego dzisiejszy wygląd jest bezpośrednim skutkiem tamtych wydarzeń. Zapraszamy do zapoznania się z tą ciekawą historią. Pierwsze sieci, DARPA i problem jednokierunkowości W latach pięćdziesiątych spięcie w sieć czegoś tak samego w sobie ekstrawaganckiego jak komputery było bardzo trudne. Był to okres bezładu, pojedyncze maszyny próbowano łączyć ze sobą, używając wielu niekompatybilnych ze sobą standardów. Możliwe było połączenie jedynie bardzo ograniczonej liczby maszyn. Nie jest możliwe jednoznaczne wskazanie „ojca” Internetu, ale człowiekiem, który jako pierwszy postawił sobie zadanie stworzenia sieci komputerowej o wielkim zasięgu, był amerykański naukowiec Joseph Licklider. W październiku 1962 roku Licklider został mianowany przewodniczącym nowo powstałej agencji przy rządzie amerykańskim znanej jako DARPA (w późniejszych latach ARPA). Organizacja ta skupiała ludzi nauki, którzy mieli opracowywać i badać kluczowe dla bezpieczeństwa oraz rozwoju kwestie. Licklider utworzył w ramach DARP-y nieoficjalną grupę zajmującą się badaniami związanymi z informatyką. Grupa ta w ramach badań zainstalowała trzy terminale sieciowe – po jednym w Santa Monica, na Uniwersytecie Kalifornijskim oraz w MIT. Fizyczne połączenie tych sieci nie było wielkim problemem, w końcu już dużo wcześniej kładziono linie telefoniczne. Znacznie większym problemem było jednak logiczne połączenie maszyn. Ówczesna technologia pozwalała tylko na jednostronne połączenie urządzeń. Problem ten dokładniej opisał w swoim raporcie Robert Taylor, jeden z liderów grupy: „Połączenie terminali sprawiło znaczne problemy ze względu na jednokierunkowy przepływ danych. Tymczasowo obeszliśmy ten problem, instalując po kilka terminali w każdej z trzech lokacji. Jeśli będąc na Uniwersytecie Kalifornijskim, chciałbym skontaktować się z siecią w MIT, musiałbym najpierw otrzymać wiadomość z MIT na jednym terminalu (ten terminal, jako jednokierunkowy, może tylko odbierać dane) i następnie przesiąść się na drugi terminal (mogący tylko wysyłać dane), aby na nią odpowiedzieć. W ten sposób potrzebowalibyśmy w każdym miejscu kilku terminali. To nierealne, potrzebujemy uniwersalnej metody komunikacji”. Umiejscowienie terminali po pierwszych próbach informatycznej komórki DARPA Zapewne na razie nie przypomina Wam to w żaden sposób dzisiejszego Internetu. Jednak następny krok, który został poczyniony, ma skutki również dzisiaj. Kilka lat po eksperymencie DARP-y trójka znajomych: Donald Davies (NPL), Paul Baran (projekt RAND) i Leonard Kleinrock (MIT), opracowała rozwiązanie problemu Licklidera i spółki. Opracowali sposób na obustronne połączenie maszyn. Nazwali go wymianą pakietów, którą stosuje się w sieciach komputerowych do dziś. Paradoksalnie, początkowo „wymiana pakietów” nie była projektowana z myślą o połączeniu sieci komputerowych, a raczej o... wojnie nuklearnej! Miała ona umożliwić niescentralizowaną wymianę danych w razie ataku jądrowego. ARPANET oraz IPSS – podstawy dzisiejszego Internetu Nowo mianowany szef komórki informatycznej DARP-y, cytowany już Robert Taylor, był zachwycony wiadomościami o opracowaniu technologii wymiany pakietów z danymi. Miał teraz do dyspozycji technologię, a rząd amerykański miał pieniądze. W związku z tym Taylor mógł spełnić marzenie Licklidera – uruchomić pierwszą funkcjonującą dwukierunkowo sieć. Swoją nazwę, ARPANET, wzięła od organizacji DARPA. Postanowiono eksperymentalnie Uniwersytet Kalifornijski z Uniwersytetem Stanforda. Udało się to 29 października 1969 roku o godzinie i dokładnie ta data uznawana jest za początek nowoczesnych sieci komputerowych. Rezultat przerósł oczekiwania. Możliwa była komunikacja w obie strony pomiędzy dwoma uniwersytetami, i nie trzeba było do tego kilku terminali. Po tak udanym starcie nie brakowało instytucji chętnych do wzięcia udziału w projekcie. Już w grudniu tego samego roku sieć obejmowała swoim zasięgiem cztery kampusy, potem dołączyły do niej Uniwersytet w Utah i drugi kampus Uniwersytetu Kalifornijskiego w Santa Barbara. ARPANET rósł w bardzo szybkim tempie i w 1981 roku liczył już 213 serwerów. To właśnie na podstawie ARPANET-u powstał Internet. Wprawdzie ARPANET nie miał jeszcze znanego dziś protokołu TCP/IP, ale oparty był na wysyłaniu zapytań, co wykorzystuje się do dziś. ARPANET nie był jednak jedyną siecią, która dążyła do połączenia ze sobą jak największej liczby komputerów. Brytyjczycy, z niewielkim opóźnieniem w stosunku do Amerykanów, również pracowali nad swoją siecią. Została nazwana i podobnie jak w Stanach najpierw zaczęła działać w środowiskach akademickich. Jednak była między nimi znacząca różnica. ARPANET był finansowany przez rząd amerykański, w związku z czym nie mógł być używany do celów komercyjnych. Brytyjczycy nie mieli takich ograniczeń, i sieć komputerowa po raz pierwszy mogła trafić do biznesu. Jednymi z jej pierwszych komercyjnych użytkowników były: Western Union, brytyjska poczta oraz... amerykański Tymnet! Jakby tego było mało, Brytyjczycy postanowili szturmem zagospodarować inne rynki i oferowali swoją sieć również za granicą, w tym w USA. Nazwa tej sieci, która podobnie jak ARPANET była oparta na wymianie pakietów, brzmiała IPSS (ang. International Packet Switched Service). Dzięki swojej dostępności IPSS szybko doganiał ARPANET pod względem wielkości. Trzeba też dodać, że IPSS został pierwszą międzynarodową siecią komputerową. Zaczęła ona działać w 1978 roku i zaledwie po trzech latach obejmowała swoim zasięgiem Europę Zachodnią, Stany Zjednoczone, Kanadę, Hong Kong i Australię. ARPANET w 1980 roku rozrósł się do gigantycznych, jak na tamte czasy, rozmiarów TCP/IP Wraz z ciągłym rozrastaniem się największych sieci komputerowych zaczął dawać się we znaki problem, przed którym kiedyś przestrzegali Licklider i Taylor: różne sieci powstały w różnych standardach i były ze sobą niekompatybilne. Zadanie połączenia istniejących sieci komputerowych w jednym standardzie otrzymali pracownik DARP-y Robert Khan oraz profesor Uniwersytetu Stanforda i były pracownik ARPANET-u Vinton Cerf. Khan i Cerf w 1973 roku przedstawili pierwsze wyniki swoich prac. Omówili dokładnie różnice w funkcjonowaniu różnych protokołów sieciowych poszczególnych sieci i przedstawili rozwiązanie problemu. Każda istniejąca sieć komputerowa miałaby wprowadzić drugi, opracowany przez nich protokół, który z czasem wyparłby rodzime protokoły poszczególnych sieci, czego efektem byłby jeden standard dla wszystkich sieci. Wspólny protokół Cerfa i Khana miał nosić nazwę TCP/IP. Była ona połączeniem dwóch terminów: Transmission Control Protocol oraz Internet Protocol. Niesamowitą właściwością pierwszej wersji TCP/IP było to, że nie wchodził on w konflikt z pozostałymi protokołami sieciowymi, dzięki czemu mógł być wdrażany stopniowo. Drugą rewolucyjną zmianą miało być przerzucenie odpowiedzialności za poprawne funkcjonowanie sieci całkowicie na serwery. Sieci miałyby być tylko czymś w rodzaju dróg, czymś, czym jedynie podróżuje się do celu. Co ciekawe, to właśnie Vinton Cerf w jednym ze swoich raportów po raz pierwszy użył słowa Internet. Rola sieci została zredukowana do minimum, za wszystko miały odpowiadać serwery, a TCP/IP był kompatybilny niemal ze wszystkimi standardami, więc możliwe stało się połączenie ze sobą praktycznie wszystkich sieci świata. DARPA zgodziła się finansować projekt i pierwszy test zakończył się sukcesem. Niezależna sieć działająca w San Francisco została połączona z ARPANET-em przy użyciu protokołu TCP/IP! W 1978 roku TCP/IP wszedł w fazę finalną i w 1981 roku mógł połączyć wszystkie główne sieci komputerowe. DARPA wciąż opiekowała się projektem, opłaciła implementację TCP/IP w wielu ówczesnych systemach operacyjnych, a następnie zaplanowała przejście wszystkich sieci, nad którymi miała kontrolę, całkowicie na protokół TCP. Plan wszedł w życie 1 stycznia 1983 roku, kiedy to wszystkie sieci DARP-y działały już tylko na TCP/IP, wliczając w to największą, ARPANET. Przekształcenie w nowoczesny Internet Kiedy Vinton Cerf po raz pierwszy użył słowa Internet, nikt nie przywiązywał do tego terminu wielkiej wagi. Dopiero kiedy po raz pierwszy połączono sieci przy użyciu protokołu TCP, termin ten zaczął wchodzić do powszechnego użycia i na początku oznaczał po prostu sieć działającą dzięki protokołowi TCP/IP. Sam termin Internet wziął się od angielskiego Internetwork i miał opisywać „wymianę informacji między różnymi sieciami”. Ta idea doskonale pasowała do koncepcji Cerfa i Khana, którzy chcieli koniecznie przekształcić wszystkie sieci komputerowe w jedną, pozwalającą na wymianę informacji pomiędzy dowolnymi komputerami na świecie bez względu na to, gdzie by się znajdowały i do jakiej sieci były podłączone. W 1984 roku 90 procent sieci w Stanach Zjednoczonych było opartych na TCP/IP. Europa jednak była wciąż podzielona, a czołowa sieć IPSS wciąż nie była kompatybilna z sieciami TCP. Dopiero pod koniec roku zarządzający siecią University College London (UCL) uległ i rozpoczął powolne wprowadzanie protokołu TCP/IP. Nie należy jednak zapominać o małych sieciach, które nie potrzebowały protokołu TCP, a ich jedynym zadaniem była obsługa robiącej od lat sześćdziesiątych coraz większą furorę usługi: poczty elektronicznej. Jeden ze sposobów połączenia TCP/IP oraz To jednak nie był koniec rewolucji. W 1984 roku sławny instytut badań jądrowych CERN podjął decyzję o użyciu TCP do połączenia ze sobą głównych komputerów (później serwerów), stacji roboczych, a nawet akceleratora. W Europie TCP wciąż napotykał opór i sieci CERN-u oraz UCL-u były raczej wyjątkami niż początkami nowego trendu. Walka na tym polu trwała aż cztery lata. W 1988 roku Daniel Karrenberg, pracujący dla Holenderskiego Instytutu Badawczego, spotkał się z administratorami CERN-u. Temat tego spotkania był iście piorunujący. Karrenberg chciał wprowadzić obsługę TCP do wszystkich europejskich sieci UUCP, czyli „Unix to Unix CoPy”. Gdyby doszło to do skutku, obszar działania TCP znacznie by się powiększył i w przyszłości można by najpierw zunifikować sieci w Europie, a następnie połączyć je ze Stanami Zjednoczonymi. Idea naprawdę ambitna. Po tym spotkaniu jeden z głównych administratorów CERN-u Ben Segal postanowił do tego doprowadzić. Spotkał się z przedstawicielami firmy Cisco, wtedy jeszcze bardzo niewielkiej. Opracowali oni router TCP/IP, co idealnie pasowało do planów Karrenberga i Segala. Segal zamówił routery Cisco, a parę dni później zrobił to Karrenberg. Następny krok do utworzenia globalnego Internetu został zrobiony. W 1989 roku protokołu TCP/IP używała już zarówno cała Europa Zachodnia, jak i Stany Zjednoczone. Niecały rok później dołączyła Australia, a wcześniej swoje sieci dostosowały Japonia, Singapur i Tajlandia. Rozpoczęła się nowa era. Era Internetu. Adresy IP oraz serwery DNS Od początku istnienia sieci komputerowych były problemy z jeszcze jednym zagadnieniem – nazewnictwem oraz adresowaniem. Z początkiem lat osiemdziesiątych, kiedy to panowanie w Internecie rozpoczął protokół TCP/IP, każdy komputer, podobnie jak każde inne urządzenie podłączone do internetu, miał własny adres. Adres ten wyrażany był w liczbach i nazywał się adresem IP (ang. Internet Protocol Address). Aby połączyć się z jakąś maszyną w Internecie albo innej sieci komputerowej opartej na protokole TCP/IP, trzeba było znać adres IP urządzenia. Adres ten na początku wyrażany był w postaci binarnej. Obecnie, w czwartej wersji (IPv4), chociaż komputer przechowuje go w postaci binarnej, użytkownikom wyświetlany jest w postaci dziesiątkowej (np. wyświetlany jest adres ale komputer zapisuje to jako kod zero-jedynkowy). Zapamiętanie nawet jednej kombinacji w systemie binarnym nie jest proste; w systemie dziesiątkowym może i zapamiętanie kilku adresów w rodzaju nie jest problemem, ale w przypadku tak gigantycznej sieci jak Internet liczba adresów do zapamiętania jest w praktyce ogromna. W związku z tym w 1983 roku, niedługo po wprowadzeniu protokołu TCP/IP, Paul Mockapetris wymyślił DNS (ang. Domain Name System). Zadaniem tego systemu było tłumaczenie numerycznych adresów IP na bardziej przystępne dla człowieka wyrazy. DNS często porównuje się do książki telefonicznej. My szukamy: Jan Kowalski, ulica Iksińska, a książka tłumaczy tę łatwą do zapamiętania dla nas informację na trudniejszy do zapamiętania numer telefonu. Dokładnie to samo robi system DNS. Wyszukujemy nazwę a DNS tłumaczy to naszemu komputerowi na trudniejszy do zapamiętania adres IP. Pierwsza wersja DNS-u była jednak nieco problematyczna. Baza nazw i przypisanych im numerów IP znajdowała się na pierwszym na świecie serwerze DNS (paradoksalnie, o takim samym skrócie DNS – Domain Name Server). Znajdował się on w Instytucie Stanforda i każdy komputer w sieci musiał pobierać z niego plik Było to o tyle problematyczne, że w razie awarii w Instytucie cały system DNS przestawał działać. Z czasem powiększono liczbę serwerów DNS, i teraz praktycznie każdy operator telekomunikacyjny ma własny. Dzięki temu w razie awarii jednego serwera DNS bez problemu możemy przejść na inny. World Wide Web, czyli czas na strony internetowe Wprawdzie w 1989 roku ogromna część świata była już podłączona do sieci działających w jednym standardzie, ale nie oznaczało to wcale, że dostępny był Internet taki, jaki znamy dziś. Historia World Wide Web, czyli stron internetowych, sięga 1980 roku. Mamy początek lat osiemdziesiątych. Prace nad zunifikowanym protokołem TCP/IP wchodzą w końcową fazę. W tym samym czasie Tim Berners-Lee, informatyk będący na kontrakcie w CERN-ie, zaczął eksperymentować ze swoim nowym wynalazkiem, który nazwał Enquire. Enquire był czymś w rodzaju bazy danych, która mogłaby być dostępna dzięki mechanizmom sieciowym. Enquire nie miał stron internetowych, jakie znamy dzisiaj. Był zbiorem różnych informacji, które przeglądało się za pomocą sieci. W niczym nie przypominał on dzisiejszych stron WWW pełnych grafiki, filmików i ruchomych elementów – oparty był na samym tekście. Berners-Lee wprowadził do użycia też inne narzędzie, które zostało nazwane hipertekstem (dzisiaj powiemy raczej: hiperłącze, albo po prostu: łącze, potocznie: link). Zasada działania była prosta: wybranie hipertekstu prowadzi do innego miejsca. Berners-Lee napisał protokół wykorzystujący hipertekst, który nazwał Hypertext Transfer Protocol, znany dziś jako HTTP. Protokół HTTP nie był jedynym rozwijanym wtedy protokołem. Równolegle pracowano nad FTP (ang. File Transfer Protocol), protokołem obsługującym transfer plików. FTP również był oparty na infrastrukturze TCP. Jego zadaniem nie było jednak łączenie informacji, a wymiana plików średniej i dużej wielkości. Należy też wspomnieć o protokole Gopher. Gopher powstał w Stanach Zjednoczonych, a dokładnie na Uniwersytecie Minnesota. Łączył on w sobie cechy innych protokołów, w tym HTTP i FTP. Gopher nie zyskał nigdy takiej popularności jak WWW ze względu na hierarchiczną strukturę oraz skomplikowany sposób tworzenia serwisów. Swoje badania Berners-Lee pozostawił dla siebie na dobrych kilka lat. W 1984 roku został przeniesiony do centrali CERN-u i szybko odkrył istniejący tam problem. Fizycy pracujący dla ośrodka niemal w każdym zakątku świata potrzebowali szybkiego sposobu wymiany dużych ilości informacji. To skłoniło Anglika do dalszych prac nad swoim pomysłem, które trwały cztery lata. W roku 1988 Berners-Lee uznał swój projekt za gotowy, a rok później napisał do władz CERN-u, zachęcając je do utworzenia „dużej bazy hiperłączy” opartej na technologiach Enquire i HTTP. Niestety, propozycja nie spotkała się z wielkim zainteresowaniem i projekt bez wątpienia utknąłby w martwym punkcie, gdyby nie bezpośredni zwierzchnik Bernersa-Lee, Mike Sandall. Sandall udostępnił Bernersowi-Lee podlegające mu komputery, w tym nowoczesny komputer NeXT, który mógł pełnić rolę serwera. Zachęcił też Bernersa-Lee, aby wdrożył tam swój pomysł. Próba okazała się ogromnym sukcesem i przyciągnęła do zespołu belgijskiego specjalistę od komputerów Roberta Cailliau NeXT – komputer, na którym opierały się eksperymenty Tima Bernersa-Lee. To właśnie ta maszyna była pierwszym w historii serwerem WWW Jeśli HTTP miał odnieść sukces, potrzebny był w miarę zrozumiały i łatwy sposób pisania stron internetowych. Berners-Lee rozpoczął więc pracę nad zbiorem poleceń, które miały pochodzić z języka angielskiego i umożliwić stosunkowo proste stworzenie strony. Podstawy nowego języka istniały już w 1990 roku, a rok później Berners-Lee opublikował swoje dzieło, które zatytułował „HTML tags”. Skrót HTML wziął się od HyperText Markup Language, co oznacza „język znaczników hipertekstu”. Dwaj naukowcy ponowili prośbę o wprowadzenie systemu do użycia, nie przestając go ulepszać. W grudniu 1990 roku mieli już wszystko, czego potrzebowali. Berners-Lee zaprojektował wszystkie narzędzia potrzebne do funkcjonowania sieci WWW: pierwszą przeglądarkę o nazwie World Wide Web, zawierającą funkcje edytora, i pierwszy serwer WWW ( World Wide Web była jednak, jak na tamte czasy, bardzo wymagająca i początkowo działała tylko na komputerze NeXT. Jednak w krótkim czasie współpracownica Bernersa-Lee Nicola Pellow zaprojektowała uproszczoną wersję przeglądarki tekstowej, która wprawdzie była uboższa niż dzisiejszy notatnik, ale mogła działać na niemal każdym komputerze. Prośba o wdrożenie systemu w końcu spotkała się z pozytywną reakcją władz CERN-u: pierwszą ogólną bazą danych była baza adresowa pracowników instytutu. Takie praktyczne informacje miały przyciągnąć nowych użytkowników. W 1991 roku Paul Kunz, pracujący na Uniwersytecie Stanforda, gdzie działał podobny akcelerator do CERN-owskiego, odwiedził CERN i po obejrzeniu sieci WWW był zszokowany. Szybko przeniósł pomysł do Stanów, gdzie rozwiązanie Bernersa-Lee zostało wdrożone w uniwersyteckiej sieci. Rolę serwera pełnił superkomputer IBM. 6 sierpnia 1991 roku Tim Berners-Lee umieścił krótką informację na temat projektu World Wide Web na czymś, co dziś nazwalibyśmy połączeniem strony internetowej oraz grupy dyskusyjnej. Najważniejsze było to, że możliwe było jej odczytanie zarówno w CERN-ie, jak i na Uniwersytecie Stanforda, tak więc po raz pierwszy wykorzystano technologię HTTP do komunikacji na wielkie odległości. Ten dzień oficjalnie uznaje się za początek sieci WWW. Nawigowanie po witrynach w pierwszych dniach sieci WWW nie było zbyt łatwe. Aby obejrzeć jakąś „stronę”, najczęściej należało znać jej adres. Coraz większą popularnością cieszyły się uaktualniane co jakiś czas listy stron, takie jak „What's New”, na których dodawano nowe, interesujące strony pojawiające się w sieci. Wciąż jednak nie istniała graficzna przeglądarka internetowa. Udało się ją skonstruować w 1992 roku, a jej autorem została Politechnika Helsińska. Erwise jako pierwsza oferowała graficzny interfejs. Aplikacja dostępna była w wersji dla systemu Unix. Kilka miesięcy później studenci Uniwersytetu Kansas stworzyli prostą, tekstową przeglądarkę Lynx. Lynx był dostępny zarówno pod Uniksa, jak i pod Microsoft DOS. Pierwszy Lynx w niczym nie przypominał dzisiejszych przeglądarek. Jego wygląd prędzej kojarzy nam się z konsolą niż surfowaniem w Internecie Prawdziwy przełom nastąpił jednak w 1993 roku, kiedy to grupa studentów zaprojektowała w ramach programu NCSA (część Uniwersytetu Illinois) pierwszą w pełni działającą i całkowicie graficzną przeglądarkę internetową. Zrobili to pod przewodnictwem Marca Andreessena, który wpadł na szalony pomysł: dlaczego nie zrobić z sieci narzędzia dostępnego dla wszystkich ludzi, do tego polegającego nie tylko na tekście, ale także na grafice? Do obsługi nowego formatu Internetu potrzeba było jednak nowej przeglądarki. Studenci nazwali ją Mosaic. Dla ludzi z branży był to prawdziwy szok. Mosaic był kompatybilny niemal ze wszystkimi istniejącymi wtedy standardami, a szybkie reakcje autorów na wszystkie odkrywane błędy przyciągnęły do niego grupę oddanych fanów, którzy szybko zrezygnowali ze starych tekstowych przeglądarek. Tym samym Mosaic rozpoczął jedną z najbardziej zaciekłych bitew w informatyce, która przeszła do historii pod nazwą „wojna przeglądarek”. Wojna przeglądarek Mosaic odniósł ogromny sukces. Niereklamowana nigdzie aplikacja w ciągu miesiąca stała się jednym z najpopularniejszych programów na świecie. Zapewne jednym z jej osiągnięć jest wskazanie kierunku, w którym powinien zmierzać Internet, ale jeszcze ważniejszym efektem wypuszczenia Mosaica było pokazanie wielkim tego świata, jak ogromny potencjał drzemie w sieci. W końcu nigdy wcześniej żadna inna aplikacja nie rozeszła się tak szybko w tak wielu kopiach. A oto i sprawca całego zamieszania – Mosaic Jednym z pierwszych, którzy zainteresowali się nowymi możliwościami Internetu, był James Clark, były profesor Uniwersytetu Stanforda, założyciel firmy Silicon Graphics, obecnie milioner. Clark skontaktował się z grupą studentów z Illinois i złożył im ofertę, o jakiej nawet nie marzyli. Zaproponował Andreessenowi i spółce dobre pensje, przeprowadzkę do Doliny Krzemowej na jego koszt oraz pieniądze na rozwijanie nowej przeglądarki. Clark wiedział, że za jakiś czas ktoś wpadnie na podobny pomysł, więc czas był bezcenny. Zadanie dla grupy Andreessena było proste: Clark zapewnia pieniądze, zajmuje się formalnościami i sprawami biznesowymi, a reszta ma zmodyfikować Mosaica tak, by stał się jak najszybciej przeglądarką, którą będzie chciał mieć u siebie każdy użytkownik komputera. Firma nazywała się Netscape Communications, a ich flagowe działo miało przybrać nazwę Netscape Navigator. Ambitne plany załogi Netscape'a zagrażały jednak ówczesnym potentatom rynku, którzy również powoli zaczynali dostrzegać korzyści wynikające z Internetu. W 1994 roku firmą trzymającą w szachu większość rynku IT był Microsoft. Rok 1994 miał być dla Billa Gatesa potwierdzeniem jego niepodważalnej pozycji. Gates właśnie został jednym z najbogatszych ludzi świata, produkty Microsoftu sprzedawały się świetnie, a w ciągu kilku miesięcy do sprzedaży miało wejść nowe dziecko koncernu z Redmond, Windows 95. Przyszłość wyglądała różowo. Jednak w połowie tamtego roku stało się coś, co jak potem sam Gates przyznał, było „czymś, czego obawiał się od czasu, jak znalazł się na szczycie”. Grupa utalentowanych „dzieciaków” postawiła wielką przeszkodę na drodze Microsoftu, tak samo zresztą, jak on zrobił to innym wiele lat wcześniej. Netscape Navigator rozwijał się bardzo szybko i już tylko tygodnie dzieliły go od dnia, w którym miał zostać udostępniony. Wtedy właśnie Gates zdał sobie sprawę z błędu, jaki popełnił, nie doceniając wschodzącego Internetu. Pierwsza wersja Netscape Navigatora zrobiła prawdziwą furorę Kilka dni później do drzwi Netscape Communications zawitali wysłannicy Microsoftu. Chcieli kupić projekt firmy za milion dolarów. Odpowiedź była oczywiście odmowna. To spotkanie w 1994 roku pomiędzy Microsoftem a Netscape'em stało się przyczyną wielu kontrowersji. Pracownicy Netscape'a twierdzili, że Microsoft próbował szantażować firmę, ci z Redmond temu zaprzeczali. Sprawa w późniejszych latach trafiła na drogę sądową. Po tej nieudanej próbie Microsoft wykonał ruch, który uznawany jest do teraz za jeden z gwałtowniejszych zwrotów w historii współczesnej informatyki. Dotychczasowe projekty straciły na znaczeniu, tym priorytetowym i skupiającym całe siły Microsoftu była teraz przeglądarka, którą postanowiono nazwać Internet Explorer. Jednak gigant z Redmond obudził się późno. 13 października 1994 roku wystartował Netscape. Walka Dawida z goliatem była nieunikniona. Microsoft miał w swoich szeregach najlepszych programistów świata i szybko nadrabiał straty. Ale jesienią 1994 roku to Netscape świętował. W ciągu miesiąca 90 procent użytkowników Internetu przeniosło się z Mosaica na Netscape'a. Coś takiego nie zdarzyło się w informatyce ani wcześniej, ani później i do teraz jest to fenomen budzący podziw i zdziwienie. Hadi Partovi, inżynier pracujący w grupie zajmującej się Internet Explorerem, tak opisał te chwile: „Kiedy Netscape wystartował i okazał się ogromnym sukcesem, w Microsofcie nastąpiła gigantyczna zmiana. Do naszego działu przyszedł Bill Gates i zapowiedział, że od teraz Internet Explorer jest najważniejszym projektem Microsoftu, że dostaniemy wszystko, czego potrzebujemy do zrobienia najlepszej przeglądarki, i że musimy jak najszybciej wejść na ten rynek. Do naszego działu dołączyli też najlepsi programiści firmy, którzy do tej pory pracowali nad Windowsami. Mieliśmy wziąć się do roboty, i to nie za tydzień, nie jutro, a od razu. W tej jednej chwili moja praca kompletnie się zmieniła". Od tego czasu głównym problemem Netscape Communications było to, że Gates i Microsoft zaczęli postrzegać firmę jako swojego głównego przeciwnika. Nowa firma potrzebowała gigantycznych pieniędzy i same fundusze Clarka nie wystarczały. Pomimo ogromnego ryzyka Netscape Communications postanowiła wejść na giełdę. Debiut okazał się wielkim sukcesem, a firma zyskała fundusze do dalszej walki o rynek Internetu. Popełniła tutaj jednak niemały błąd. Po wielkim sukcesie przeglądarki Netscape Navigator i po równie dużym sukcesie giełdowym firma Clarka i Andreessena stała się bardzo arogancka i przestała liczyć się z innymi. Pewność siebie zespołu Netscape'a była tak duża, że firma wypowiedziała, chyba niezbyt rozważnie, otwartą wojnę Microsoftowi, kiedy jej prezes publicznie powiedział, że „Windows to tak naprawdę tylko słabo wykonany zbiór sterowników do różnych urządzeń”. Internet Explorer To było zbyt wiele i w 1995 roku Gates zareagował bardzo ostro. Na stół rzucił swoją główną kartę: Internet Explorera. 7 grudnia, w rocznicę ataku na Pearl Harbor, hucznie wprowadzono nową przeglądarkę Microsoftu, która miała stanąć w szranki z Netscape Navigatorem. Śpiący gigant obudził się na dobre i Netscape był w dużych tarapatach. Już na początku Microsoft miał jednego ogromnego asa w rękawie: pieniądze. Ze względu na ogromne zyski Microsoft mógł sobie pozwolić na darmowe rozprowadzanie Internet Explorera, natomiast działająca jedynie w branży przeglądarek Netscape Communications musiała pobierać za swój produkt pieniądze. Plan Microsoftu był prosty: nie dać Netscape Communications ani dnia wytchnienia. Poza rozwijaniem własnych projektów do Internet Explorera dodawano odpowiedniki wszystkich opcji, które miał Netscape. Śledzono każdy krok konkurencji. W przeglądarkę pompowano miliony dolarów. Kampania reklamowa oraz dodatkowe możliwości Internet Explorera powodowały, że powoli, procent po procencie, zabierał on Netscape'owi udział w rynku. I wtedy, kiedy szala przechyliła się na korzyść Internet Explorera, Microsoft wbił ostatni gwoźdź do trumny Netscape'a. Firma z Redmond postanowiła dołączać przeglądarkę za darmo do swoich systemów operacyjnych. Internet Explorer znalazł się w pakiecie Windows 95 Plus. Kiedy w 1997 roku zadebiutował Internet Explorer było już po wszystkim. Wojna przeglądarek, jeden z ostrzejszych pojedynków w historii informatyki, zakończyła się, a zwycięzca był tylko jeden. Netscape miał bardzo niewielki udział w rynku, ale wtedy właśnie firmie przypomniało się spotkanie sprzed kilku lat, gdy Microsoft miał ją szantażować. Sprawa trafiła na drogę sądową. Sąd orzekł, że Microsoft jest winny zarzucanych mu czynów i firma powinna zostać podzielona na kilka mniejszych. Sąd apelacyjny, do którego trafiła sprawa, przyznał rację sądom niższych instancji, ale uznał, że kara jest zbyt wysoka, i firma nie została podzielona. Nie był to jedyny taki spór, który trafił na drogę sądową. W późniejszych latach Microsoft był oskarżany o monopol ze względu na dołączenie do swojego systemu operacyjnego Internet Explorera, a także odtwarzacza Windows Media Player i komunikatora Windows Messenger. Firmy produkujące konkurencyjne przeglądarki oskarżały giganta z Redmond o niszczenie w ten sposób konkurencji. W 2004 roku Komisja Europejska nałożyła na Microsoft rekordową karę w wysokości 784 milionów dolarów i nakazała wydanie wersji systemu Windows, która nie zawierałaby tych dodatków. „Czysta” wersja systemu nigdy jednak nie zyskała dużej popularności. Era dotcomów W 1998 roku Internet był produktem kompletnym. Miał jeden standard, były dostępne graficzne przeglądarki, a strony składały się z grafiki, animacji i bannerów. Strony internetowe zaczęły wyrastać jak grzyby po deszczu i nie brakowało ludzi, którzy zarabiali na nich ogromne pieniądze. Prekursorami wielkiego biznesu w Internecie byli Jeff Bezos oraz Pierre Omidyar. Bezos założył pierwszą księgarnię internetową, a Omidyar – pierwszy serwis aukcyjny, Ebay. Obaj zarobili krocie. Gigantyczne zyski pierwszych internetowych biznesmenów doprowadziły do prawdziwej gorączki złota, a liczba stron internetowych powstających każdego dnia była niebotyczna. Pieniędzy nie żałowali też inwestorzy, którzy wychodzili z założenia, że skoro takie firmy, jak Ebay i Amazon wyrosły z niczego, to nie ma powodu, dla którego nie miałoby się to udać następnym. Doszło do sytuacji, którą w informatyce określa się jako dot-com boom. Strony internetowe wyrastały jak grzyby po deszczu, codziennie powstawały nowe sklepy internetowe. Problem polegał na tym, że zdecydowana większość twórców tych stron, sklepów czy serwisów ani nie miała zielonego pojęcia o tym, jak działa Internet, ani nie miała biznesplanu, według którego mogłaby zarabiać pieniądze. Tak wielkie zainteresowanie doprowadziło do powstania bańki inwestycyjnej: wykładano gigantyczne pieniądze na projekty, które miały minimalne szanse na sukces, ale przez ciągłe inwestycje ich wartość była sztucznie zawyżana. Spotkanie z rzeczywistością, które nastąpiło na przełomie 2000 i 2001 roku, spowodowało kilkudziesięcioprocentowe spadki na giełdzie. To pierwszy „czarny dzień”, jaki informatyka przeżyła na giełdzie – tysiące stron upadło, setkom firm bankructwo zajrzało w oczy. Era dotcomów wprawdzie sztucznie napompowała rynek stron internetowych i zabrała pieniądze wielu ludziom, ale przyczyniła się do gigantycznego wzrostu popularności Internetu, a wielkie pieniądze włożone w branżę pozwoliły zbudować infrastrukturę, którą inaczej budowano by kilkanaście lat. Boom na zakładanie nowych stron internetowych związany z erą dotcomów rozpoczął nowy rozdział w historii internetu. Mianowicie pokazał nam, jak wielką wartość mogą mieć domeny. Domena to nic innego jak adres strony internetowej. Domeny występują w dwóch głównych postaciach: Uniform Resource Locator (URL, na przykład oraz adres e-mail. Niektóre z nich (jak nietrudno zgadnąć – te przyciągające najwięcej użytkowników) osiągają niebotyczne ceny. Domeny takie, jak: warte są miliony dolarów. Jest to scheda właśnie po erze dotcomów. Historia Internetu w Polsce Historia Internetu w Polsce sięga 1991 roku. Wtedy właśnie przy Uniwersytecie Warszawskim powstała NASK (Naukowa i Akademicka Sieć Komputerowa). Na początku było jej jednak daleko do sieci komputerowej, był to raczej zespół koordynacyjny. W dużej mierze to ten zespół, po kilku miesiącach negocjacji, wywalczył podłączenie Polski do Internetu. 17 sierpnia 1991 roku nawiązano pierwsze połączenie z Polski, wykorzystujące protokół TCP/IP. Fizyk z Uniwersytetu Warszawskiego Rafał Pietrak połączył się z Janem Sorensenem na Uniwersytecie Kopenhaskim. Oficjalnie Polska została podłączona do Internetu 20 grudnia 1991 roku. Rok później Telekomunikacja Polska uruchomiła POLPAK, pierwszą polską sieć pakietową, opartą na brytyjskim protokole ISPP, ale w pełni kompatybilną z protokołem TCP/IP. Polska nadrabiała straty spowodowane komunizmem. Milowym krokiem w rozwoju polskiego Internetu było uruchomienie BBS Maloka. BBS (ang. Bulletin Board System) to komputer, który poprzez zainstalowane oprogramowanie pozwala użytkownikom łączyć się z nim, logować i korzystać ze zgromadzonych na nim informacji. BBS-y na całym świecie połączone były w sieć Fidonet, której historia sięga 1982 roku. Sieć ta była oparta tylko i wyłącznie na zwykłych modemach i łączach telefonicznych. Fidonet wziął nazwę od... psa swojego twórcy, wabiącego się Fido! Założycielem Maloki i jednym z pionierów Internetu w Polsce był Stanisław Tymiński, kanadyjski biznesmen polskiego pochodzenia. Maloka oferował typowe dla BBS-ów usługi, takie jak: forum, chat i proste gry online, ale znacznie ważniejsze było to, że oferował Polakom połączenie z Internetem z prędkością 9,6 kb/s (9600 b/s). Nie była to może zawrotna prędkość, ale wreszcie „zwykły” obywatel mógł połączyć się z Polski z Internetem, a nie jedynie z siecią Fidonet. Maloka działał do 31 lipca 1996 roku. Wtedy to Telekomunikacja Polska uruchomiła usługę dostępu do Internetu dla wszystkich swoich abonentów – wystarczyło podłączyć modem do gniazdka telefonicznego. Opłaty były pobierane za impulsy (co trzy minuty). Ponieważ możliwość połączenia się z globalną siecią stała się powszechna, Maloka przestał być potrzebny. BBS-y i sieć Fidonet były stale wypierane przez Internet. W 1995 roku Fidonet miał w Polsce ponad 300 węzłów, w 2003 – już niecałe 100, a do dziś ta liczba jeszcze zmalała. Internet dziś i jutro Dzisiaj Internet wciąż rozwija się bardzo szybko. Od kilku lat mamy do czynienia z czymś, co specjaliści nazywają Web Internet przybrał nową formę, a coraz większą rolę odgrywa medium dotąd rzadko w nim spotykane – wideo. Popularność serwisów powstających z niczego, a w ciągu bardzo krótkiego czasu zrzeszających miliony użytkowników, takich jak YouTube, tylko udowadnia, jak szybko Internet może ewoluować. Standard Web według którego tworzone są współczesne strony internetowe, stawia na interakcję. Użytkownik nie ma być widzem, ma być uczestnikiem. Na wspomnianym już YouTube możemy nie tylko oglądać filmy, ale też je wysyłać. Mamy coraz więcej stron typu wiki, na których użytkownik nie tylko ma korzystać ze zgromadzonych informacji, ale również może je dodawać (przykładem takiej strony jest Wikipedia). Powstają strony takie jak Digg – witryny z wiadomościami pozwalające decydować czytelnikom, która wiadomość jest najważniejsza i powinna znaleźć się na stronie głównej. Są wreszcie przeróżne blogi, dzięki którym każdy, kto tylko ma coś do powiedzenia (niekoniecznie mądrego :-)), może podzielić się tym z internautami. Dzisiejszy Internet stawia na interakcję. Elementy składające się na Web Ale Web to nie tylko uczestnictwo. To również mobilność i łatwość obsługi. Czasy, gdy połączenie z Internetem zapewniał tylko komputer, bezpowrotnie minęły. Sieć stoi przed nami otworem również wtedy, gdy korzystamy z palmtopów, telefonów komórkowych, nowoczesnych odtwarzaczy multimedialnych (jak iPod Touch), a nawet lodówek! Serwisy internetowe dążą do łatwej, możliwie intuicyjnej obsługi, co ma skusić ludzi starszych, nieobytych z komputerami i bardziej niechętnych nowościom. Co czeka Internet jutro? A pojutrze? Możemy tylko spekulować, ale „standard” Web już jest opracowywany. W związku z szybkim wzrostem prędkości połączeń internetowych globalna sieć w wersji ma zabrać nas do trójwymiarowego świata. Na zaawansowanym etapie są prace nad projektem Semantic Web, czyli takim sposobem tworzenia stron internetowych, aby były one zrozumiałe nie tylko dla człowieka, ale także dla maszyny. To marzenie Bernersa-Lee ma pomóc w tworzeniu „inteligentnej sieci”, w której komputer rozróżniałby treści podobnie jak człowiek. (Na przykład słowo klucz. W tej chwili komputer nie jest w stanie rozróżnić, czy chodzi nam o klucz do drzwi czy do odkręcania śrub. Ze względu na identyczną pisownię maszyna uznaje to za jeden przedmiot. Wkrótce ma się to zmienić). Nie wiadomo, czy wszystkie zakładane dziś standardy sieci się przyjmą. Nie wiadomo, czy najpopularniejsze dziś strony internetowe stawiające na interakcję utrzymają dominującą pozycję. Czy Internet będzie wciąż taki, jakim znamy go dziś, czy wkroczy do niego sztuczna inteligencja? Nie wiadomo, ale jedno jest pewne: niewiele jest na świecie projektów rozwijających się równie dynamicznie.
właśnie udało ci się sprzedać jakiś przedmiot przez internet