Kate Crawford w książce “Atlas sztucznej inteligencji” rozwiewa mity o ekologicznym, czystym i sprawiedliwym sektorze zajmującym się badaniami nad sztuczną inteligencją, ujawniając ogromne a nieuświadamiane przez społeczność naszej planety koszty środowiskowe i ludzkie, które leżą u podstaw magii AI. Crawford zadaje trudne pytania, na które branża zaawansowanych technologii nie chce odpowiadać.


Autorka książki “Atlas sztucznej inteligencji. Władza, pieniądze i środowisko naturalne” Kate Crawford w swojej książce pokazuje, że sztuczna inteligencja odgrywa obecnie rolę w kształtowaniu wiedzy, komunikacji, władzy i polityki. Według autorki wpływ AI w dobie obecnej sięga głęboko i szeroko – od organizacji społeczeństw, poprzez wpływ na kulturę, zmiany podmiotowości i tożsamości człowieka, po głęboką ingerencję w prowadzenie polityki i utrzymywanie władzy. Co więcej, doszliśmy do etapu, gdy kilka dużych firm zajmujących się sztuczną inteligencją zdominowało globalny rynek obliczeniowy. Od kilkunastu lat dziedzina AI przeżywa okres gwałtownego rozwoju, działają już systemy w skali globalnej, przez niektórych uważane za bliskie lub nawet przewyższające inteligencję ludzką.

Kate Crawford argumentuje, że sztuczna inteligencja nie jest ani sztuczna, ani inteligentna, i bynajmniej nie jest autonomiczna – zależy bowiem od struktur politycznych i społecznych oraz projektantów algorytmów, służących określonym interesom i władzom – korporacyjnym czy politycznym. AI nie jest zdolna do niczego bez zaangażowania kosztownych mocy obliczeniowych i dostarczenia olbrzymiej ilości danych, powstaje natomiast dzięki pracy rzeszy zwykłych robotników w wielu punktach kuli ziemskiej, wykorzystaniu logistyki i infrastruktury. Crawford w kolejnych rozdziałach książki opisuje szerzej te aspekty – wydobycie minerałów, węgla, litu i innych metali ziem rzadkich, gigantyczne i ciągle rosnące zapotrzebowanie na energię elektryczną, konieczność budowy pomieszczeń dla serwerów, zużycie wody dla ich chłodzenia wreszcie wyzysk pracowników przemysłu wydobywczego i problemy związane z masowym i globalnym przechwytywaniem i wykorzystaniem danych dla celów uczenia maszynowego.

Spróbujmy zadać proste pytanie: Czym jest sztuczna inteligencja? – pisze Crawford. Jeśli zapytamy kogoś na ulicy, może wspomnieć o algorytmach wyszukiwania Google’a, Siri – inteligentnym asystencie osobistym firmy Apple, usługach w chmurze Amazona czy samochodach Tesli. Jeśli zapytamy ekspertów w zakresie uczenia maszynowego usłyszymy techniczne odpowiedzi na temat sposobu, w jaki organizowane są sieci neuronowe, jak otrzymują dane i jak je klasyfikują, podejmując na ich podstawie działania.

Jak widać sposób definiowania sztucznej inteligencji zależy od definiującego. Natomiast sposób działania AI zależy od zdefiniowania przez człowieka celów, sformułowania algorytmów i dostarczenia maksymalnie dużej ilości danych wejściowych. To oznacza dążenie twórców i operatorów AI do wyścigu w zakresie postępu technicznego, zwiększania mocy obliczeniowej i bezwzględnego pozyskiwania danych, nawet metodami niezgodnymi z prawem. Co więcej, jak pokazuje autorka, nikt nie uwzględnia przy tym kosztów społecznych i zagrożeń dla planety spowodowanych rabunkową gospodarką jej zasobami.

Crawford uważa, że zajęcie się podstawowymi problemami sztucznej inteligencji wymaga połączenia wielu działań

Według Crawford na AI należy patrzeć kompleksowo, jako na połączenie idei, infrastruktury, przemysłu, form sprawowania władzy i sposobu widzenia świata; należy ją traktować jako przejaw działania globalnego zorganizowanego kapitału wspieranego przez rozległe systemy wydobycia i logistyki, z łańcuchami dostaw obejmującymi całą planetę. Wszystkie te rzeczy składają się na to, czym jest sztuczna inteligencja – to infrastruktury fizyczne, które przekształcają Ziemię, jednocześnie zmieniając sposób, w jaki świat jest postrzegany i rozumiany. Tak szeroki, w ujęciu Crawford, zakres terminu „sztuczna inteligencja” pozwala na rozważenie wszystkich tych elementów i ich głębokich powiązań: od masowego gromadzenia danych poprzez koncentrację elementów sektora technologicznego w rękach największych globalnych graczy aż po degradację środowiska naszej planety i utrzymujące się formy dyskryminacji.

Autorka zwraca uwagę, że obecnie znajdujemy się w krytycznym momencie, który wymaga od nas zadania trudnych pytań dotyczących sposobu tworzenia i wdrażania sztucznej inteligencji. Musimy zadać sobie pytanie: czym jest sztuczna inteligencja? Jakie formy polityki propaguje? Czyim interesom to służy i kto ponosi największe ryzyko krzywdy? Gdzie należy ograniczyć wykorzystanie sztucznej inteligencji? Na te pytania nie będzie łatwych odpowiedzi – pisze Crawford. Nie jest to jednak – i nie może być – sytuacja nierozwiązywalna ani punkt bez powrotu – przede wszystkim z racji przetrwania naszej cywilizacji. Crawford uważa, że zajęcie się podstawowymi problemami sztucznej inteligencji wymaga połączenia wielu działań: od epistemologii poprzez prawa pracownicze i racjonalne wydobywanie zasobów po ochronę danych, walkę z nierównościami społecznymi i zmianami klimatycznymi. Aby tego dokonać, musimy poszerzyć naszą wiedzę na temat tego, co dzieje się w imperiach sztucznej inteligencji, zobaczyć, jaka jest stawka i podjąć lepsze zbiorowe decyzje dotyczące tego, co powinno nastąpić dalej – pisze Crawford. Nikodem Maraszkiewicz

Kate Crawford, Atlas sztucznej inteligencji. Władza, pieniądze i środowisko naturalne , Przekład: Tadeusz Chawziuk, Seria #nauka, Wydawnictwo Bo.wiem, Premiera: 28 lutego 2024
 
Magazyn Dobre Książki objął publikację patronatem medialnym

 

Kate Crawford
Atlas sztucznej inteligencji. Władza, pieniądze i środowisko naturalne 
Przekład: Tadeusz Chawziuk
Seria #nauka
Wydawnictwo Bo.wiem
Premiera: 28 lutego 2024
 
Magazyn Dobre Książki objął publikację patronatem medialnym
 
 

SPIS TREŚCI

Wprowadzenie
1 Ziemia
2 Praca
3 Dane
4 Klasyfikacje
5 Afekty
6 Państwo
Zakończenie
Coda

WPROWADZENIE

Najmądrzejszy koń świata

Pod koniec XIX wieku Europę zauroczył koń o imieniu Hans. Sprytny Hans był niesamowity: potrafił rozwiązywać zadania matematyczne, podawał godzinę, rozpoznawał dni w kalendarzu, rozróżniał tony muzyczne oraz zapisywał słowa i zdania. Ludzie schodzili się, aby podziwiać, jak niemiecki ogier wystukuje kopytem odpowiedzi na złożone pytania i nigdy się przy tym nie myli. „Ile jest dwa dodać trzy?” – Hans pilnie stukał kopytem w ziemię pięć razy. „Jaki jest dziś dzień tygodnia?” – koń uderzał kopytem, wskazując poszczególne litery na specjalnie zbudowanej tablicy, i w ten sposób podawał poprawną odpowiedź. Hans radził sobie nawet z bardziej złożonymi pytaniami, takimi jak: „Myślę o pewnej liczbie. Odejmuję od niej dziewięć i zostaje mi trzy. O jakiej liczbie myślę?”. W 1904 roku Sprytny Hans był międzynarodową gwiazdą, a New York Times nazwał go „cudownym koniem z Berlina, który potrafi prawie wszystko, a jedynie, czego nie potrafi, to mówić”.
Wilhelm von Osten, trener Hansa i emerytowany nauczyciel matematyki, od dawna był zafascynowany inteligencją zwierząt. Wcześniej próbował uczyć liczb kardynalnych młode koty i niedźwiedzie, ale dopiero gdy zaczął pracować z koniem, odniósł sukces. Najpierw nauczył Hansa liczyć. Trzymając zwierzę za nogę, pokazywał liczbę i wystukiwał ją na jego kopycie. Wkrótce Hans zaczął sam bezbłędnie wystukiwać proste sumy. Potem von Osten wprowadził tablicę z wypisanym alfabetem, aby Hans mógł wystukać na niej numer każdej litery. Po dwóch latach treningu von Osten był zdumiony, jak dobrze zwierzę radzi sobie z wyrafinowanymi koncepcjami. Zabrał więc Hansa w trasę, aby go pokazywać jako dowód na to, że zwierzęta rozumują. Hans stał się wiralową sensacją belle époque.
Wiele osób było jednak sceptycznie nastawionych, a niemieckie kuratorium oświaty powołało komisję do spraw weryfikacji twierdzeń von Ostena. Przewodniczącymi byli psycholog i filozof Carl Stumpf oraz jego asystent Oskar Pfungst, a w jej skład wchodzili między innymi dyrektor cyrku, emerytowany nauczyciel, zoolog, lekarz weterynarii i oficer kawalerii. Po długich przesłuchaniach Hansa, zarówno w obecności tresera, jak i bez niego, koń w dalszym ciągu udzielał poprawnych odpowiedzi, a komisja nie dopatrzyła się oszustwa.
Jak pisał później Pfungst, Hans występował przed „tysiącami widzów, miłośników koni, pierwszorzędnych treserów, a w toku wielomiesięcznych obserwacji ani jeden z nich nie był w stanie wykryć jakichkolwiek sygnałów” między pytającym a koniem. Komisja uznała, że metody, za pomocą których uczono Hansa, przypominały raczej „nauczanie dzieci w szkołach podstawowych” niż tresurę zwierząt i że były „godne zbadania naukowego”. Stumpf i Pfungst nadal jednak mieli wątpliwości. Szczególnie zaniepokoiło ich jedno odkrycie: gdy pytający nie znał rozwiązania zagadki lub stał zbyt daleko, Hans rzadko udzielał poprawnej odpowiedzi. To doprowadziło Pfungsta i Stumpfa do przypuszczenia, że być może Hans odczytuje jakieś nieintencjonalnie wysyłane komunikaty, dzięki którym udziela poprawnych odpowiedzi.
Jak czytamy w książce Pfungsta z 1911 roku, ta intuicja okazała się trafna: postawa pytającego, jego oddech i wyraz twarzy ulegały subtelnym zmianom w chwili, gdy Hans zbliżał się do poprawnej odpowiedzi, co skłaniało go do zaniechania dalszego stukania. Pfungst w późniejszym czasie przetestował tę hipotezę na ludziach i ją potwierdził. Najbardziej fascynujące w tym odkryciu było dla niego to, że pytający na ogół nie byli świadomi tego, iż dostarczają koniowi wskazówek. Pfungst orzekł, że rozwiązaniem zagadki Sprytnego Hansa są komunikaty nieświadomie wysyłane przez osoby zadające pytania. Koń był szkolony w ten sposób, aby uzyskiwał rezultaty, które pragnął ujrzeć jego właściciel – widzowie czuli jednak, że to nie to samo, co nadzwyczajna inteligencja, którą przypisywali zwierzęciu.
Historia Sprytnego Hansa fascynuje z wielu punktów widzenia: zależności między pragnieniem, złudzeniem a działaniem; zarabiania pieniędzy na pokazach naukowych; tego, jak antropomorfizujemy to, co nieludzkie; sposobu, w jaki powstają uprzedzenia; wykorzystywania pojęcia inteligencji jako narzędzia władzy. Hans stał się inspiracją dla psychologicznego terminu „efekt Sprytnego Hansa” lub „efekt oczekiwań obserwatora”, który oznacza rodzaj pułapki pojęciowej, gdy na badanych wpływają nieumyślne wskazówki udzielane przez eksperymentatorów. Relacja między von Ostenem a Hansem ukazuje złożone mechanizmy, na mocy których uprzedzenia wkradają się do systemów, i to, jak badający wikłają się w badane zjawiska.
Historia Hansa jest przywoływana w uczeniu maszynowym jako przestroga, że nie zawsze wiemy, czego nauczył się model z danych treningowych. System zachowujący się poprawnie w fazie treningu może tworzyć zupełnie błędne prognozy, gdy otrzyma nowe dane.
Tak dochodzimy do najważniejszego pytania tej książki: jak „powstaje” inteligencja i do jakich pułapek może prowadzić ten proces?
Na pierwszy rzut oka historia o Sprytnym Hansie opowiada o tym, jak pewien człowiek stworzył inteligencję, trenując konia, aby postępował zgodnie ze wskazówkami i naśladował ludzką zdolność poznawczą. Praktyka tworzenia inteligencji obejmuje jednak znacznie więcej aspektów. Przedsięwzięcie musiało zostać potwierdzone autorytetem wielu instancji, w tym uniwersytetów, szkół, nauki, opinii publicznej i wojska. Był też rynek dla von Ostena i jego niezwykłego konia – emocjonalnych i ekonomicznych inwestycji, które napędzały wycieczki, artykuły w gazetach i wykłady. Oficjalne organy władzy spotykały się po to, by mierzyć i testować umiejętności konia.
Rolę w konstruowaniu inteligencji Hansa odegrała cała konstelacja interesów ekonomicznych, kulturalnych oraz naukowych i mogła ona zyskać lub stracić w zależności od tego, czy inteligencja konia okaże się niezwykła, czy też nie.
Widzimy w tym działaniu dwie odrębne mitologie. Pierwszym mitem jest to, że systemy nieludzkie (komputery lub konie) są odzwierciedleniem ludzkiego umysłu. Ten punkt widzenia zakłada, że dzięki odpowiedniemu szkoleniu lub wystarczającym zasobom można stworzyć od podstaw inteligencję podobną do ludzkiej – pomijając to, że człowiek ma ciało, jest uwikłany w relacje z innymi ligencja jest samoistna, jakby była naturalnym bytem, odrębnym od czynników społecznych, kulturowych, historycznych lub politycznych. W rzeczywistości przez wieki pojęcie inteligencji wyrządziło ogromne szkody i było używane do usprawiedliwiania stosunków dominacji, od niewolnictwa po eugenikę.
Mity te widać szczególnie wyraźnie w dziedzinie sztucznej inteligencji, gdzie od połowy XX wieku jak aksjomat traktowane jest przekonanie, że inteligencję ludzką można formalizować i że jest reprodukowalna przez maszyny. Tak jak inteligencję Hansa, starannie rozwijaną jak u dziecka w szkole, uważano za podobną do ludzkiej, tak systemy AI niejednokrotnie opisywano jako co prawda proste, ale zasadniczo podobne do ludzkiej inteligencji. Alan Turing w 1950 roku przewidywał, że „pod koniec tego stulecia używanie słów i ogólna opinia ludzi wykształconych zmieni się tak bardzo, że można będzie mówić o maszynach myślących, nie spodziewając się sprzeciwu”. W 1958 roku matematyk John von Neumann twierdził, że ludzki układ nerwowy jest „na pierwszy rzut oka cyfrowy”. Profesor MIT Marvin Minsky na pytanie, czy maszyny mogą myśleć, odpowiedział: „Oczywiście, że maszyny mogą myśleć; my możemy, a jesteśmy »maszynami z mięsa«”.
Ale nie wszyscy dali się przekonać. Joseph Weizenbaum, jeden z pionierów AI i twórca chatbota ELIZA, sądził, że wizja ludzi jako systemów przetwarzania informacji opiera się na uproszczonym pojęciu inteligencji i że napędza ono „perwersyjną, wielką fantazję” o maszynie, która uczyłaby się „tak jak dziecko”.
Jest to jeden z głównych spornych wątków w historii sztucznej inteligencji. W 1961 roku MIT zorganizował przełomową serię wykładów pod tytułem „Zarządzanie i komputer przyszłości” Udział wzięło wybitne grono informatyków, w tym Grace Hopper, J.C.R. Licklider, Marvin Minsky, Allen Newell, Herbert Simon i Norbert Wiener. Uczestnicy omawiali szybko zachodzące zmiany w przetwarzaniu cyfrowym. Na zakończenie John McCarthy dowodził ze swadą, że różnice między ludzkimi zadaniami a zadaniami maszyny są pozorne. Po prostu niektóre ludzkie zadania są skomplikowane, dlatego sformalizowanie i rozwiązanie ich przez maszyny musi zająć więcej czasu.
Profesor filozofii Hubert Dreyfus zgłosił swoje votum separatum, zaskoczony tym, że inżynierowie „nie biorą nawet pod uwagę możliwości, że mózg mógłby przetwarzać informacje zupełnie inaczej niż komputer”. W późniejszej pracy What Computers Can’t Do (Czego komputery nie potrafią) Dreyfus wskazał, że inteligencja i wiedza człowieka opierają się na wielu procesach nieświadomych i podświadomych, podczas gdy komputer wymaga, aby wszystkie procesy i dane były jawne i sformalizowane14. Dlatego na potrzeby komputerów mniej formalne aspekty inteligencji muszą zostać wyabstrahowane, wyeliminowane lub przybliżone, a wskutek tego komputery nie są w stanie tak przetwarzać informacji o sytuacjach, jak robią to ludzie.

Od lat 60. XX wieku w dziedzinie AI wiele się zmieniło, między innymi dokonało się przejście od systemów symbolicznych do technik uczenia maszynowego, w których pokładano być może przesadne nadzieje. Wczesne spory o możliwości AI w znacznej mierze zostały zapomniane, a sceptycyzm zanikł. Od pierwszej dekady XXI wieku sztuczna inteligencja przeżywa okres gwałtownego rozwoju jako dziedzina nauki i przemysłu. Kilka potężnych firm informatycznych wdraża systemy AI operujące w skali globalnej i znów systemy te są wynoszone pod niebiosa jako porównywalne do inteligencji ludzkiej, a nawet ją przewyższające.
Historia Sprytnego Hansa przypomina nam jednak również to, jak wąsko rozpatrujemy lub rozpoznajemy inteligencję. Hansa nauczono naśladować rozwiązywanie zadań z bardzo ograniczonego zakresu: dodawanie, odejmowanie i literowanie wyrazów. Odzwierciedla to ograniczone wyobrażenie o możliwościach koni czy ludzi. Hans dokonał także rzeczy niezwykłych w zakresie komunikacji międzygatunkowej, występów przed publicznością i cierpliwości, ale tego nie zakwalifikowano jako inteligencję. Jak to ujęła Ellen Ullman, pisarka i inżynierka, przekonanie, że umysł niewiele różni się od komputera, „na dziesięciolecia skaziło myślenie w informatyce i kognitywistyce”, stanowiąc coś w rodzaju grzechu pierworodnego tej dziedziny. Chodzi o ideologię dualizmu kartezjańskiego w sztucznej inteligencji, która pojmuje ją wąsko jako inteligencję bezcielesną, pozbawioną wszelkiego związku ze światem materialnym.

Czym jest sztuczna inteligencja (AI)?
Ani sztuczna, ani inteligentna

Postawmy proste pytanie: czym jest sztuczna inteligencja? Gdy zapytamy o to kogoś na ulicy, wymieni zapewne Siri Apple’a, chmurę Amazona, samochody Tesli lub wyszukiwarkę Google. Gdy zapytamy ekspertów od uczenia głębokiego, udzielą zapewne technicznej odpowiedzi o tym, że sieci neuronowe składają się z dziesiątek warstw otrzymujących etykietowane dane, o przypisanych wagach i progach, oraz klasyfikujących dane w sposób, którego na razie nie umiemy w pełni wyjaśnić. Profesor Donald Michie w 1978 roku, omawiając systemy eksperckie, opisał sztuczną inteligencję jako takie udoskonalenie wiedzy, które „zapewnia niezawodność i sprawność kodyfikacji znacznie przewyższające poziom, jaki mógłby osiągnąć ludzki ekspert – teraz lub kiedykolwiek w przyszłości”. W jednym z najpopularniejszych podręczników Stuart Russell i Peter Norvig piszą, że AI jest próbą zrozumienia i budowy inteligentnych bytów. „Inteligencja dotyczy przede wszystkim działania racjonalnego” zauważają. „W idealnym przypadku inteligentny agent podejmuje najlepsze możliwe działanie w danej sytuacji”.
Każda definicja sztucznej inteligencji wyznacza ramy tego, jak później będzie ona rozumiana, mierzona, oceniana i wdrażana. Jeżeli sztuczną inteligencję definiuje się poprzez marki konsumenckie w imieniu korporacyjnej infrastruktury, to horyzont jest z góry wyznaczony przez marketing i reklamę. Jeżeli systemy AI postrzega się jako bardziej niezawodne lub racjonalne od jakiegokolwiek ludzkiego eksperta, zdolne do wybierania „najlepszych możliwych sposobów postępowania”, to można pomyśleć, że powinno się im ufać przy podejmowaniu ważnych decyzji w zakresie zdrowia, edukacji czy wymiaru sprawiedliwości. Jeśli uwaga skupia się jedynie na konkretnych technikach algorytmicznych, to mogłoby sugerować, że liczy się wyłącznie nieprzerwany postęp techniczny, pomijający koszty obliczeniowe takiego podejścia i jego dalekosiężny wpływ na planetę.

W tej książce twierdzę, że sztuczna inteligencja nie jest ani sztuczna, ani inteligentna. Sztuczna inteligencja jest ucieleśniona i materialna, powstaje z naturalnych zasobów, paliwa, ludzkiej pracy, infrastruktury, logistyki, historii i klasyfikacji. Systemy AI nie są autonomiczne, racjonalne ani zdolne do rozpoznania czegokolwiek bez kosztownego obliczeniowo trenowania na wielkich zbiorach danych lub z określonymi z góry zasadami i nagrodami. W istocie taka sztuczna inteligencja, jaką znamy, zależy od szerszych struktur politycznych i społecznych. Ze względu na ogrom kapitału potrzebnego do budowy sztucznej inteligencji w wielkiej skali i na to, jakie sposoby postrzegania ona optymalizuje, jej systemy ostatecznie muszą być projektowane tak, aby służyły dominującym interesom.
W tym sensie sztuczna inteligencja jest manifestacją władzy.

W tej książce przyjrzymy się temu, jak powstaje sztuczna inteligencja w najszerszym rozumieniu, a także jakie siły – ekonomiczne, polityczne, kulturowe i historyczne – ją kształtują. Gdy powiążemy AI z szerszymi strukturami i systemami społecznymi, unikniemy wyobrażenia, że jest ona domeną czysto techniczną. Na fundamentalnym poziomie sztuczna inteligencja to techniczne i społeczne praktyki, instytucje i infrastruktura, polityka i kultura. Obliczeniowy rozum i ucieleśniona praca są ze sobą ściśle splecione: systemy AI odzwierciedlają społeczne relacje i rozumienie świata, jak również je wytwarzają.
Warto zauważyć, że termin „sztuczna inteligencja” może powodować dyskomfort u informatyków. Określenie to było używane – raz częściej, raz rzadziej – w ciągu ostatnich dziesięcioleci i pojawiało się częściej w marketingu niż w języku badaczy. W literaturze technicznej spotykamy się raczej z „uczeniem maszynowym”. Nazwa „sztuczna inteligencja” pojawia się niejednokrotnie w związku z wnioskami o finansowanie, kiedy inwestorzy wyciągają książeczki czekowe, lub gdy badacze pragną zainteresować prasę nowym odkryciem naukowym. W związku z tym to wyrażenie jest albo uwielbiane, albo odrzucane, co powoduje, że jego znaczenie podlega ciągłym zmianom. Sama używam określenia „sztuczna inteligencja” na oznaczenie potężnej przemysłowej struktury obejmującej politykę, pracę, kulturę i kapitał. Mówiąc zaś o „uczeniu maszynowym”, mam na myśli wiele technicznych podejść (które zresztą także mają społeczny i infrastrukturalny charakter, choć o tym rzadko się wspomina).
Są jednak istotne powody, dla których tak bardzo skupiono się na postępie technicznym – przełomach algorytmicznych, stopniowym ulepszaniu produktów i rosnącej wygodzie. Zawężona, abstrakcyjna analiza dobrze służy strukturom władzy w miejscu, w którym krzyżują się technologia, kapitał i zarządzanie. W celu zrozumienia, że sztuczna inteligencja ma z zasady polityczny charakter, musimy wykroczyć poza sieci neuronowe, statystyczne rozpoznawanie wzorców i zapytać o to, co i dla kogo się optymalizuje, a także kto podejmuje decyzje. Potem możemy prześledzić implikacje takich wyborów.

 
Wesprzyj nas