Żyjemy w cyfrowym świecie. Fotografujemy się na wakacjach cyfrowymi aparatami, upamiętniamy rodzinne uroczystości za pomocą cyfrowych kamer wideo. Muzyki słuchamy z płyt CD lub odtwarzaczy mp3, które są urządzeniami, jakżeby inaczej, cyfrowymi. Rozmawiamy też coraz częściej cyfrowo, bo cyfrowa jest natura telefonii komórkowej i coraz większej części sieci telefonii stacjonarnej. Coraz popularniejsze płyty DVD powodują, że cyfrowy staje się świat domowego kina.
Przed pełnym ucyfrowieniem broni się jeszcze telewizja. Choć i ona otworzyła się na rewolucję. Od 1998 r. działają w Polsce satelitarne platformy cyfrowe (dziś jest to Cyfra+ i Polsat), z których korzysta już ponad milion abonentów. Cyfrowe kanały otwierają operatorzy telewizji kablowych. Ale w Polsce telewidzowie w swej masie oglądają telewizję korzystając ze zwykłych anten. Dla nich epoka cyfrowa dopiero się zaczyna.
Sekwencje zer i jedynek
Specjaliści od przetwarzania informacji wiedzą, że każdy komunikat można zamienić na informację „zrozumiałą” dla komputera (cudzysłów oznacza, że maszyna nie rozumie sensu komunikatu, ale jest w stanie go w sposób techniczny przerabiać). Wystarczy włożyć do skanera zdjęcie. Poszczególne punkty obrazu zostaną oświetlone specjalnymi lampami po to, by określić ich informacyjną zawartość. Dane te w postaci łańcuchów zer i jedynek trafią do komputera, który jest w stanie odtworzyć z nich pierwotny obraz.
W podobny sposób, stosując tylko nieco inne sposoby cyfrowej analizy, przekształcić można dźwięk, obraz ruchomy, tekst. Zapisane w ten sposób w pamięci komputera komunikaty można łatwo przekształcać. Retuszowanie zdjęcia na ekranie monitora to nic innego z punktu widzenia mikroprocesora jak podmienianie sekwencji zer i jedynek. Dla komputerowego mikroprocesora nie ma znaczenia, czy przetwarzane przezeń zera i jedynki kodują muzykę, wideo czy też grafikę.