Cele archiwalne w interesie publicznym w rozporządzeniu ogólnym o ochronie danych

2. Korzenie regulacji


Dla rozumienia rozporządzenia, zwłaszcza w kontekście sporów o materialny zakres jego stosowania, nieodzowne jest pamiętanie o jego prehistorii, w tym o ćwierćwieczu konstruowania prototypów systemu ochrony danych. Myślenie o prawnej reglamentacji obiegu wiadomości o ludziach wyrosło z upowszechnienia się poczucia obywatelskiej podmiotowości, a także indywidualizmu jako społecznej postawy, z przekonania o jedyności i odrębności człowieka względem wszystkich ludzi. Oczekiwania w pewnym momencie wyszły poza odwieczne dążenie, by zaradzić mocy złych języków. Nie tylko negatywne pogłoski i nieżyczliwe komunikaty, ale już wszelkie informacje o ludzkiej jednostce, zawłaszczane przez innych, mogły naruszać jej nowo odkrytą autonomię. Ich spontaniczny, niekontrolowany obieg zderzał się z pragnieniem samodzielnego kształtowania bycia postrzeganym przez innych, a także trzymania w skrytości pewnej głębokiej, osobistej wiedzy, udzielanej powściągliwie lub wcale, na mocy względnie suwerennych decyzji. Niemal nigdy postronnym, a rządzącym na miarę środków przymusu, jakimi gotowi byli się posłużyć. Pierwsze manifestacje tej potrzeby wystąpiły u schyłku XIX w.[1] To sędzia Thomas M. Cooley z Michigan sformułował w 1879 r. „prawo do bycia pozostawionym samemu sobie”, przedefiniowując miejsce jednostki w społecznościach[2].

Nowe przesłanki ochrony pojawiły się po kolejnych dziesięcioleciach, za sprawą automatyzacji przetwarzania i transferu danych[3]. Nie stało się to od razu, ale przełom był nagły, a wywołało go pojawienie się w życiu społeczeństw – choć długo jeszcze nie w użytku osobistym – seryjnie produkowanych komputerów. Postęp był koniecznością zrodzoną przez technologię, nadzieją i źródłem obaw. Już względnie wczesne informatyczne wdrożenia wywołały regulacyjną reakcję. W obliczu technicznych środków zdolnych posłużyć do inwigilacji ludzi, rejestracji i analizy ich zachowań, a także do kompilowania informacji na ich temat, niewystarczające okazywało się przyjmowane dotychczas rozumienie prywatności. Nie obejmowało bowiem typów ingerencji, które stały się możliwe w środowisku cyfrowym, a wobec tego brakowało też odpowiednich zabezpieczeń.

Obok przemian technologicznych odnotowano inne zjawiska: mnożenie się współzależnych ról, które przypadają każdemu w społecznym otoczeniu, a z drugiej strony – rozrost inwigilacyjnego aparatu państw oraz rynkowych narzędzi obserwowania konsumentów i kształtowania ich postaw[4]. Ponadto, ludzie nie tylko byli podpatrywani, ale sami pozostawiali po sobie coraz więcej tropów, np. komunikując się przy pomocy środków niedyskretnych, a często wręcz ulegając pragnieniu, by postronni widzieli ich w osobistym życiu[5]. W następstwie tych przemian określona informacja o konkretnej osobie nabyła – co właściwie było nieuniknione – podatność na przejmowanie przez innych i znajdowanie zastosowań, z których zainteresowany nie był już w stanie zdawać sobie sprawy. Stać się więc mógł bezwolnym obiektem skrytych informacyjnych operacji. 

Cele przetwarzania danych, w porównaniu z metodami tradycyjnymi, zmieniały się powoli. Od razu widoczna była natomiast odmienność sposobu zarządzania danymi w systemach elektronicznych, wynikła ze specyfiki przechowywania i wyszukiwania informacji, masowej skali zasobów, zdolności do transmisji na wielką odległość oraz szybkości operacji. Pojawił się też jeszcze jeden problem: poprawnej interpretacji danych zgromadzonych w nowych systemach i przetwarzanych maszynowo – aż poza tę granicę, gdy urządzenie nie poprzestaje na dostarczeniu informacji do podjęcia decyzji, ale samo rozstrzyga o sprawach ludzi. Nie był to jeszcze dylemat autonomicznej sztucznej inteligencji – chociaż lęk przed nią od dawna towarzyszy ludziom – lecz całkiem realna obawa przed maszynową procedurą selekcyjną, wykonywaną według anonimowo zadanej instrukcji.

Z perspektywy późniejszego rozwoju informacyjnych technologii te zmiany, szerzej dostrzeżone pod koniec lat sześćdziesiątych XX w., mogły wydawać się co najwyżej zapowiedzią  dylematów cywilizacji cyfrowej. Z drugiej strony, już wtedy, ludzie, za punkt odniesienia mający niecyfrową przeszłość, realnie odczuwali oszałamiające zwielokrotnienie informacyjnego potencjału. Z powodu nagle objawionej technologicznej sprawności swe osobiste sekrety ujrzeli wystawione na widok publiczny, a  najwrażliwsze dane – znacznie bardziej narażone na nadużycia. Sama zresztą ekspansywność elektronicznego przetwarzania informacji budziła społeczną trwogę. Podnoszono więc, że różne publiczne agendy będą zdolne wymieniać między sobą i zestawiać dane dotyczące określonej osoby, tworząc szczegółowe profile obywateli. Ewentualności profilowania nie uważano z początku za bezpośrednio prawdopodobną, ale nie zapobiegło to upowszechnionemu przeżywaniu zagrożenia[6].

Nie ma zgody, gdzie tkwią kamienie milowe tej drogi, i w różnych punktach wyznaczać można jej początek. Jeden z nich bywa umieszczany aż w 1964 r., gdy Vance Packard opublikował „The Naked Society” – studium technologicznej inwazji na prywatność jednostek, jeszcze skądinąd nieprzewidujące nadchodzącej cyfrowej opresji[7]

Informatyczna infrastruktura na przełomie lat sześćdziesiątych i siedemdziesiątych XX w., gdy rozpaliły się debaty nad ochroną informacji, usprawniała operowanie danymi, ale nie była jeszcze w stanie spowodować, by świat funkcjonował zasadniczo inaczej. Miała walor ulepszeń w zarządzaniu informacją – od dawna przecież i na wielką skalę praktykowanym w życiu społeczeństw i państw. Przez dziesięciolecia doskonalone były w tej dziedzinie procesy zautomatyzowane, wspierane przez mechaniczne technologie. Choć ludzie uważali, że pionierska faza elektronicznej informatyzacji jest za nimi, to w istocie urządzenia komputerowe – znane, ale wciąż nieliczne i umiarkowanie wydajne – tkwiły u początków kolonizacji rozwiniętych krajów. Niemniej jednak, już wtedy wywołały alert.

Kiedy pojawiły się pierwsze pomysły chronienia danych osobowych na skalę Wspólnot europejskich, od kilkudziesięciu już lat w biegu były dzieje komputeryzacji, ograniczanej przez stopień integracji układów scalonych, lecz mimo to w niesłychanym tempie pomnażającej moce obliczeniowe. Potencjał nowych technologii był publicznie unaoczniany, nawet jeśli pewne postępy, obejmujące m.in. zastosowania militarne lub wywiadowcze, pozostawały w cieniu.

Koncepcje ochrony danych osobowych z początku ignorowały dotychczasowe zasoby informacyjne – nacechowane powolnością operacji, trudno przeszukiwalne, mozolnie wiążące różne wiadomości ze sobą, praktycznie niepoddające się masowemu i szybkiemu przesyłowi, na każdym kroku uzależnione od ludzkich czynności. Na pozór zbyt niefunkcjonalne, by ich się bać.

Groźne wydało się natomiast to, co nowe. Odnotowano wprawdzie zapewnienia wytwórców komputerów oraz pierwszych zarządców danych, jakoby nowe urządzenia pod względem bezpieczeństwa górowały nad tradycyjnymi rejestrami – ale przyjęto je bez wiary[8]. Pierwsze projekty ochronnych unormowań  skupiały się więc całkowicie na technologiach informatycznych[9]. Nie obyło się jednak w tej mierze bez sporów ani wątpliwości. Jeżeli za kryterium przyjąć sprawność przetwarzania, a w konsekwencji – łatwość identyfikacji jednostek, to zaawansowane rozwiązania niecyfrowe nie były przecież pozbawione ryzyka. Zaabsorbowani nagle objawioną efektywnością komputerów, która wydała się nadludzka, a pod pewnymi względami taką rzeczywiście była, pionierzy regulowania informacyjnych operacji na ogół tracili z oczu wcześniejsze, potencjalnie groźne postępy w zarządzaniu informacją. Funkcjonowały tymczasem zmechanizowane kartoteki, będące wielkimi zbiorami danych, i używano wyrafinowanych środków kancelaryjnych, które spełniały kryteria krytycznie łatwego dostępu i operacyjnej skuteczności.

Wdrożenie narzędzi informatycznych stanowiło wyrazistą zmianę jakościową i wywołało zrozumiałą, na nich skoncentrowaną reakcję. Pole widzenia dość szybko uległo jednak retrospektywnemu poszerzeniu. Gdy podważeniu uległo inicjalne ujęcie technologiczne, na jego miejsce pojawił się pogląd, jakoby środki ochrony powinny być stosowane nie tylko ze względu na sposób przetwarzania danych osobowych, ale także wtedy, gdy ich charakter, albo okoliczności ich używania spowodowałyby zagrożenie „dla prywatności i swobód jednostki”[10]. Było to podejście funkcjonalne, któremu trudno odmówić racjonalności. Charakterystyczne, że po wstępnym epizodzie wyłączności „elektronicznych banków danych” w kolejnych regulacjach posługiwano się uogólnionym pojęciem zautomatyzowanego przetwarzania, na nim zresztą nie poprzestając[11]. W praktyce automatyczne operacje dokonywały się niemal wyłącznie w świecie cyfrowym, lecz dla ich opisania konsekwentnie używano określenia znaczeniowo pojemniejszego. Mechaniczna infrastruktura automatyzacji należała już do historii (nawet jeśli np. służby kryptograficzne państw trzymałyby w pogotowiu niecyfrową rezerwę) – niemniej jednak konsekwentnie podtrzymywano terminologię, która znajduje odniesienia do rzeczywistości wirtualnej, ale może przywodzić też na myśl wyrafinowane konstrukcje industrialnego zmierzchu.

Wszelkie dane osobowe mogły być niebezpieczne dla jednostek, ale nie one same stanowiły źródło ryzyka, a sposoby ich przetwarzania, zestawione z etycznym deficytem. W skupieniu uwagi na fenomenie automatyzacji przejawiało się dojrzewanie rozumienia sprawności i rosnącej dostępności maszynowego przetwarzania danych jako czynników zagrożenia wolności i praw jednostek. Tych jednostek, których cechy były odwzorowywane i zestawiane już we wczesnych prototypach cyfrowej rzeczywistości. Banalizacja nadefektywnych narzędzi gromadzenia i korzystania z danych, imiennie identyfikujących ludzi, coraz wyraźniej sprowadzała grozę anonimowego i niejawnego zarządzania jednostkami, manipulowania, wręcz posługiwania się nimi, kontrolowania ich zachowań, zwłaszcza dla administracyjnej wygody lub dla politycznego wpływu, lub z motywów marketingowych.

Świat, nadal wypełniany przez papierowe kartoteki i książkowe rejestry, sposobił się do cywilizacji cyfrowej, nie wyłączając pesymistycznych wizji jej dehumanizacji. Od dawna ją sobie wyobrażał. Choć wiele futurystycznych wizji było literackiego pochodzenia, technologiczne utopie epoki industrialnej nie bez słusznej przyczyny aspirowały do racjonalistycznej prognozy. Z dużą trafnością antycypowały potęgę przyszłych systemów teleinformatycznych oraz globalną skalę ich oddziaływań. Postawy ludzi wobec komputerów bazowały tak na wiedzy, jak i na przekonaniach, a w tym – uprzedzeniach. Cyfrowa przyszłość, szeroko komentowana, pozostawała nieznana i groźna, sięgając aż po apokaliptyczne wyobrażenia poczłowieczej cywilizacji. Lęk wyprzedził realia epoki i żywił się kulturowymi stereotypami, które skądinąd – w odróżnieniu od wielu innych – miały z czasem stawać się rzeczywistością. Społeczne niepokoje nie brały się z wielości realnych nadużyć związanych z elektronicznym przetwarzaniem danych, ale z tego, że w powszechnym odczuciu prawdopodobne było ich zwielokrotnienie[12]. Także z poczucia niepewności – nierozwiewanego przez milczące rządy – jakim to technologicznym oddziaływaniom jednostki są poddawane.

Poza tym, komputerowe techniki wykazywały nieznaną wcześniej, poruszającą właściwość. Elektroniczne urządzenia uruchamiane były przez ludzi i dostarczały im wyników, ale, co do zasady, działały samoczynnie, według wprowadzonych algorytmów. Dotarłszy do krytycznego stopnia komplikacji, osiągnęły i przekroczyły – według człowieczych miar – granicę obliczalnego działania. Nie sterowały już nimi – jak niegdyś w żakardowych maszynach – perforowane karty, zapewniające przewidywalny, jednoznacznie zdeterminowany bieg mechanizmów. Komputery i systemy względnie wcześnie zaczęły wymykać się swoim twórcom[13]. Początkowo chodziło co najwyżej o efekt psychologiczny, ale z czasem rosnąca złożoność operacji wprowadziła działanie maszyn w sferę probabilistyki. Także dysfunkcje stały się mniej rozpoznawalne i ludzie zaczęli odkrywać, że zdarza im się nieświadomie działać na podstawie wadliwie lub nieprzewidywalnie przetworzonych danych albo osobiście ponosić konsekwencje zerojedynkowych wykolejeń. Wyzbyli się już w większości modernistycznej euforii, ale nie zostali przygotowani na ograniczoną prognozowalność działania informatycznej infrastruktury.

Odruchem mentalnie zakorzenionym była antropomorfizacja maszyn, a także hipotetycznych form cyfrowej umysłowości. Kultura bawiła się wizjami aberracji własnoręcznie wykreowanej sztucznej inteligencji, a także motywem jej epistemicznej niedostępności. Wszystko to przez dziesięciolecia nie wykraczało poza grę wyobraźni, aż wreszcie ludzkość z konsternacją dostrzegła, że o własnych siłach i będąc u siebie wyszła poza mapę. Bezlik zwyczajnych operacji, ich statystyczna zawodność oraz bezosobowa, postmechanistyczna logika to czynniki ryzyka zidentyfikowane przed laty, ale niezmiennie słabo rozpoznawalne.

Biorąc pod uwagę, jak często myślenie o przetwarzaniu danych osobowych ociera się o kulturowe archetypy buntu maszyn, wrogiej sztucznej inteligencji, może wydać się uderzająco przenikliwe, że europejskie regulacje od początku i konsekwentnie koncentrowały się nie na moderowaniu maszyn, ale na pilnowaniu ludzi, w których ręce trafiło instrumentarium nieogarnionej władzy i wpływu.

Pewne wiadomości o jednostkach długo niemniej pozostawały poza zakresem ochrony – albo ze względu na ich treść, albo na technologię zarządzania nimi. Z początku stosunkowo wiele spośród nich uważano za powszechnie dostępne. Nawet gdy zaabsorbowanie procedurami cyfrowymi przetrwało czas naiwności, wciąż utrzymywał się pogląd, że byłoby niecelowe chronienie danych osobowych, „które w oczywisty sposób nie stwarzają żadnego zagrożenia dla prywatności i swobód jednostki”[14]. Mowa o wiadomościach uznanych za neutralne, których obieg jest obojętny dla ludzkich interesów, wolności i praw. Kilka z nich zostało zresztą przykładowo wymienione: nazwiska, daty urodzenia, uzyskane dyplomy[15]. Bieg czasu nie miał na nie wpływu ani nie powodował jakoby ryzyka dla ludzkich interesów. Cytowane sformułowanie było symptomatyczne dla ówczesnego poszukiwania granic ochrony danych osobowych. Była ona bowiem i jest selektywna, choć na przestrzeni lat nie raz przesuwano linię, która oddziela istotne od błahego.

Początkowo wytyczane obszary europejskich uregulowań okazały się zbyt ciasne. Dane, które nie znajdowały się w informatycznych prasystemach, a następnie w zautomatyzowanych zbiorach, i które nie były automatycznie przetwarzane ani nawet zebrane w celu takiego przetwarzania, pozostały poza pierwszymi projektami – bez względu na ich funkcjonalność i treść. Następny krok doprowadził wszelako do pytania, dlaczego właściwie pewne sposoby postępowania z informacją miałyby sprowadzać większe ryzyko niż inne. W rezultacie, ze zdwojoną uwagą powrócono do spostrzeżenia, że groźne są takie techniki organizacji danych, które zapewniają efektywność dostępu do nich w celu identyfikacji jednostek. Nie tylko cyfrowe.

Na pierwszy plan, zajmowany niedawno na wyłączność przez technologiczne fascynacje, z czasem wysunął się sam aspekt wyszukiwawczej i skojarzeniowej sprawności, która – choć pożądana i ogólnie pomyślna – mogła wyjmować obywatelom z rąk kontrolę nad przetwarzaniem danych, które do nich się odnosiły. Spektakularność przewrotu cyfrowego bez wątpienia otworzyła oczy na informacyjne niebezpieczeństwa, a od tej chwili odnajdywano je również w innych, dawniejszych, mniej zaawansowanych sposobach przetwarzania danych.

Ochronne regulacje objęły więc po kolejnych latach dane osobowe, które podlegały, w całości albo w części, przetwarzaniu tak zautomatyzowanemu, jak i innemu, – ale temu drugiemu tylko wtedy, jeśli były zorganizowane „według określonych kryteriów, które odnosiły się do osób fizycznych, w celu zapewnienia łatwego dostępu do danych[16]. Ta właściwość czyniła z dowolnej garści danych potencjalne paliwo skrytej inwigilacji, nieuprawnionego wpływu albo tylko ingerencji w prywatność jednostki. Z zastrzeżeniem tak sformułowanych wyróżników, wystarczających i kompletnych, objęto ochroną rozmaicie zorganizowane dane, byleby identyfikowały określone osoby albo tylko ich identyfikację w jakikolwiek realny sposób umożliwiały.

Po trwającym ćwierćwiecze mozolnym przypominaniu sobie o niebezpieczeństwach dawnego świata, prace nad ochronnymi regulacjami, u swych początków bez reszty zapatrzone w „elektroniczne banki danych”, definitywnie dotarły do zlekceważonych kiedyś zgoła niecyfrowych zapisów informacji. Nawet do niektórych spośród sporządzonych atramentem na papierze, bo i w nich ujawnił się mroczny potencjał. Porzucona zarazem została niegdysiejsza myśl o neutralnych danych osobowych, gdyż wszystkie mogły posłużyć do umniejszenia wolności i praw jednostek, jeśli zostałyby odpowiednio usystematyzowane i połączone.

Poza ochronną ingerencją pozostawiono informacyjny bezład albo zasoby danych, które nie były ustrukturyzowane według określonych kryteriów, z ujemnym skutkiem dla sprawności wyszukiwania konkretnych spersonalizowanych wiadomości. Paradoksalnie, wschodząca cywilizacji cyfrowa sprowokowała dostrzeżenie zagrożeń oraz ich nawarstwiające się redefinicje, a w następstwie pojawiły się pomysły uregulowań wyzwolone od początkowego zahipnotyzowania elektronicznymi narzędziami.


[1] Jagielski, Prawo do ochrony, s. 9.
[2] Thomas M. Cooley, A Treatise on the Law of Torts or the Wrongs Which Arise Independent of Contract, Chicago 1879, s. 29; por. Samuel Warren, Louis Brandeis, The Right to Privacy, Harvard Law Review Vol. IV No5 (1890), s. 195 (http://links.jstor.org/sici?sici=0017-811X%2818901215%294%3A5%3C193%3ATRTP%3E2.0.CO%3B2-C [odczyt 2018 09 26]) – autorom tym przypisuje się spopularyzowanie zwrotu “the right to be let alone”; Dorothy J. Glancy, The Invention of the Right to Privacy (w:)  Arizona Law Review, 1 (21)/ 1979, s. 1-39.
[3] Litwiński, Rozporządzenie UE (Wprowadzenie, I [1] s. 3-4, III [12] s. 22), Jagielski, Prawo do ochrony,  s. 9-10.
[4] Rezolucja (74) 29 w sprawie ochrony prywatności jednostek w odniesieniu do elektronicznych banków danych w sektorze publicznym, przyjęta przez Komitet Ministrów [Rady Europy] 20 września 1974 r., Explanatory report, pkt 1 i 4 – https://rm.coe.int/16804d1c51 [odczyt 25 05 2019].
[5] Por. mot. 6 R.2016/679.
[6] Rez. (74) 29 Explanatory report, pkt 4.
[7] Vance Packard, The Naked Society, New York 1964; por. Robert E. Burns, Packard: The Naked Society, DePaul Law Review, vol. 14/1964 (https://via.library.depaul.edu/cgi/viewcontent.cgi?referer=https://www.google.com/&httpsredir=1&article=3311&context=law-review, s. 225-227 [odczyt 2018 09 21]), Joseph W. Bishop Jr., Book Review: The Naked Society (1964), Faculty Scholarship Series (http://digitalcommons.law.yale.edu/fss_papers/2844 s. 193-199 [odczyt: 2018 09 21]).
[8] Rez. (74) 29, Explanatory report, pkt 27.
[9] Rezolucja (73) 22 w sprawie ochrony prywatności jednostek w odniesieniu do elektronicznych banków danych w sektorze prywatnym – przyjęta przez Komitet Ministrów [Rady Europy] 26 września 1973 r. – https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=0900001680502830 [odczyt 2017 05 24]; Rez. (74) 29.
[10] Organisation for Economic Co-operation and Development (OECD) – Recommendation of the council concerning guide-lines governing the protection of privacy and transborder flows of personal data, adopted by the Council 23 September 1980, preambuła oraz aneks, pkt 3 lit. c (https://legalinstruments.oecd.org/public/doc/114/114.en.pdf (dalej jako “1980 Guidelines”).
[11] 1980 Guidelines, aneks, pkt 2. [odczyt: 2019 05 22]; Konwencja Nr 108 Rady Europy o ochronie osób w związku z automatycznym przetwarzaniem danych osobowych, sporządzona w Strasburgu dnia 28 stycznia 1981 r., tytuł, preambuła, art. 2 lit. a, b, c, art. 3 ust. 1, 2 i 4, art. 5-7, art. 8 lit. a, b, art. 9 ust. 3, art. 12 ust. 1 i 3 lit. a, art. 13 ust. 3 lit. b, art. 14 ust. 3 lit. b; D.95/46/WE mot. 11, 15, 27, 41, art. 2 lit. b, art. 3 ust. 1, art. 4 ust. 1 lit. c, art. 12 lit. a, art. 15 ust. 1, art. 18 ust. 1 (Dz.U. z 2002 r. Nr 3, poz. 25.).
[12] Rez. (74) 29, Explanatory report, pkt 5.
[13] Por. Sakowska-Baryła (red.), Ogólne rozporządzenie: interesujący pogląd K. Wygody, że ograniczenie ludzkiej kontroli nad współczesnymi sieciami neuronowymi czyni problematycznym traktowanie ich jako automatów – lecz musi być przyjmowane, dopóki sztuczna inteligencja nie uzyska prawnego statusu osoby – komentarz do art. 2 [3] R.2016/679, s. 56.
[14] 1980 Guidelines, pkt 3 lit. b.
[15] Rez. (74) 29, Explanatory report, pkt 21.
[16] Mot. 15 D.95/46/WE.

Dodaj komentarz