W sypialni wisi niezwyczajne lustro. Rano wyświetla prognozę pogody, nowe wpisy w mediach społecznościowych, poranne wiadomości i listę zadań. W ciągu dnia, gdy nikogo nie ma w domu, zamienia się w zwykłe zwierciadło. Natomiast wieczorem służy za telewizor lub radio. To DIRROR – wielofunkcyjny tablet o wymiarach 69,5 x 43,4 x 5,9 cm, ważący 10 kg, pracujący pod kontrolą systemu operacyjnego Windows 10. Ten wynalazek dwóch niemieckich firm informatycznych jest domowym centrum multimedialnym. Precyzyjniej – centrum zarządzania wszelkimi urządzeniami, które można połączyć siecią internetową. Za jego pomocą włącza się i wyłącza światło w domu albo nastawia muzykę, by grała o odpowiedniej porze.
Obserwujemy właśnie wysyp takich urządzeń, zarządzających innymi zgodnie z ideą internetu rzeczy. Właściwie każdy przedmiot może gromadzić, przetwarzać lub wymieniać dane. Świat staje się jednym wielkim systemem informacyjnym. Tak oto spełnia się marzenie sprzed 30 lat Scotta McNealy, założyciela Sun Microsystems, już nieistniejącego potentata rynku teleinformatycznego, że „dopiero sieć to komputer”.
Termin „internet rzeczy” ukuł w 1999 r. Kevin Ashton, brytyjski pionier technologii cyfrowych, współtwórca standardu RFID, umożliwiającego przesyłanie danych za pomocą fal radiowych. Już kilka lat później na wszystkich branżowych konferencjach prześcigano się w wizjach, w których maszyny same wiedzą, co robić. Ikoną stała się lodówka podłączona do internetu, zamawiająca brakujące jedzenie w sklepie internetowym. Te hurraoptymistyczne pomysły zderzyły się natychmiast z wisielczymi komentarzami, co to będzie, jak lodówka sfiksuje i zacznie zamawiać niebotyczne ilości np. masła. Pojawiły się również obawy – właściwie do dziś nierozwiane – o ochronę urządzeń przed cyberatakami, chociażby skutkującymi wspomnianym wyżej bezcelowym wysyłaniem zamówień do sklepów.