TL;DR / Europejski Kongres Kultury

Spośród tradycyjnych sposobów odbioru kultury, czytanie jest jedynym, do którego człowiek nie został przystosowany ewolucyjnie.

Słuchanie muzyki, oglądanie obrazów, sztuk teatralnych opiera się na sprawnościach zmysłów i mózgu doskonalonych przez miliony lat. Do lektury natomiast nie wystarczy zdolność dostrzegania znaków na papierze – zachodzi tu nadto skomplikowany proces transformowania symboli w znaczenia. Jest on efektem treningu, jaki każdy człowiek z osobna musi przejść, zanim przekroczy granicę imperium książki.

Ten trening oraz powtarzane doświadczenia czytelnicze zmieniają strukturę kognitywną w sposób jak najbardziej mierzalny. Skany neurologiczne ujawniają obszary mózgu aktywowane w trakcie lektury; uwidaczniają się różnice w skali makro i mikro. Eksperymenty pokazały, że już samo WYOBRAŻENIE sobie liter zapala neurony w innych rejonach mózgu, gdy są to majuskuły, i w innych rejonach – gdy minuskuły.

Wtrenowanie się w biegłość w danym języku oznacza bowiem najzupełniej dosłowne PRZEFORMATOWANIE MÓZGU, tj. wykształcenie w nim neuralnych połączeń i trybów aktywności najlepiej odpowiadających specyfice danego języka. Maryanne Wolf w “Proust and the Squid. The Story and Science of the Reading Brain” przytacza multum fascynujących przykładów. I tak osoby anglojęzyczne (posługujące się alfabetem łacińskim) wykorzystują prawie wyłącznie lewą półkulę, zwłaszcza tylną część. Osoby posługujące się alfabetem chińskim (logosylabowym) używają zaś do lektury obu półkul. Przypadek czytelników japońskiego jeszcze uwypukla tę specyfikę: mamy tam sylabiczne pismo kana, do nazw własnych, słów obcych, technicznych itp., i mamy logograficzne kanji, bliższe chińskiemu. Na skanach widać, jak mózg Japończyka “przeskakuje” między aktywnościami bliższymi chińskiemu lub angielskiemu, nawet gdy odczytuje te same słowa zapisane w kana i kanji.

Czy różnice zależą wyłącznie od języka, czy także od sposobu posługiwania się nim? W historii ludzkości doświadczyliśmy tu co najmniej jednej rewolucji: przejścia z kultury słowa mówionego do kultury słowa pisanego. Grzegorz Jankowicz przywołuje słynne protesty Sokratesa z Platońskiego “Fajdrosa” jako przykład bezpodstawnych lęków wobec przemian cywilizacyjnych. Ale zastanówmy się: czy Sokrates w dużym stopniu nie miał racji?

Zmiana nastąpiła. Ludzie wychowani w kulturze słowa pisanego (zwłaszcza – w kulturze druku) inaczej mówią, inaczej myślą, inaczej zapamiętują i inaczej postrzegają świat.

Już nie uczymy się słuchowo, w rozmowie, kształtowani przez osobowe relacje z nauczycielem (mistrzem); uczymy się wzrokowo, z martwego, niezmiennego tekstu, “od nikogo”.

Dla Sokratesa myślenie to był dialog – z kimś albo z sobą samym. W grece homeryckiej nie da się właściwie opisać procesów myślowych jak to czynimy dzisiaj: “czytając” swój umysł.

W kulturze oralnej pamięć jednostkowa pełniła rolę biblioteki publicznej. Ile stron (poezji, prozy) znasz na pamięć od lat? Dzisiaj wykuć wiersz czy piosenkę to wyczyn, specjalność zawodowa sceny i estrady; natomiast ludzie z pokolenia moich dziadków, pradziadków recytowali z głowy długie ustępy klasyki, i to będąc już w podeszłym wieku.

Kiedy uczysz się ze słuchu i polegasz wyłącznie na pamięci, nie masz odruchu kwestionowania usłyszanego – najważniejsze jest, by wpierw wiernie zapamiętać przekaz. Nastawienie interpretacyjne i całe instrumentarium nowożytnego myślenia krytycznego powstały dzięki upowszechnieniu pisma.

Ważniejszą nawet niż zarzut uwiądu pamięci, była obiekcja Sokratesa dotycząca “fałszywego rozumienia”: możesz przeczytać kompendium danej nauki i uważać się za wyedukowanego w niej, w istocie niewiele pojąwszy z tego, co przeczytałeś – niemniej posiadając WIEDZĘ, tzn. INFORMACJE. Podczas gdy kształcąc się w żywej interakcji z rozmówcą–nauczycielem, nie pospieszysz do następnego etapu dyskursu, nie przyswoiwszy istoty uprzedniego. Człowiek potrafi rozpoznać, gdy nie rozumiesz, o czym mówisz; książka – nie.

Różnice dają się zmierzyć obiektywnie. Badania portugalskich neurologów (skany MRI rozmaicie wykształconych 60–latków) pokazały, że analfabeci wykonują zadania językowe – także po prostu w rozmowie – w płacie czołowym, a czytający – w płacie skroniowym.
Przejście do kultury opartej na cyfrowych technologiach komunikacji i do człowieka o mózgu przez nie sformatowanym oznacza zmianę co najmniej tak samo doniosłą jak ta, której świadkiem był Sokrates.

Medialna kariera “klątwy lektury internetowej” zaczęła się od publikacji artykułu Nicholasa Carra “Is Google Making Us Stupid?” w “The Atlantic” w lipcu 2008. Carr rozwija go następnie w książkę (“The Shallows”); tymczasem kolejne media podejmują temat, aż trafia on na szpalty papierowych tygodników i dzienników, także w Polsce.

Przytaczano tam rozpropagowane przez Carra wyniki eksperymentu przeprowadzonego przez Gary’ego Smalla z UCLA. Small wpakował do skanera MRI dwie grupy ochotników: doświadczonych internautów oraz nowicjuszy. Na skanach wyraźnie uwidoczniła się różnica ich aktywności mózgowej w trakcie korzystania z Internetu: struktury aktywności “starych” internautów były znacznie bardziej rozbudowane, zwłaszcza w ośrodkach podejmowania decyzji i rozwiązywania problemów w korze przedczołowej. Small następnie dał ochotnikom sześć dni przerwy, w trakcie których nowicjusze mieli spędzać godzinę dziennie na przeszukiwaniu Internetu. Powtórzone po tym interwale skany ujawniają dramatyczną zmianę we wzorcach aktywności kognitywnej świeżych internautów: ich mózgi właściwie już nie różnią się od mózgów weteranów. Wystarczyło kilka godzin na przestrzeni tygodnia – i byli już trochę innymi ludźmi, trochę inaczej myśleli.

Eksperymenty kliniczne nie są konkluzywne, lecz potwierdzają osobiste doświadczenia, które w mniej konkretny sposób opisywali użytkownicy sieci; Carr zaś jako pierwszy zebrał i nagłośnił te relacje.

“Kiedyś potrafiłem zagłębić się w lekturze na długie godziny – dzisiaj walczę, by skupić się na kilku stronach. Czuję niemal fizycznie, jak coś wyrywa mnie z lektury: mój umysł przeskakuje z tekstu do innego strumienia informacji, nawet gdy nie ma żadnego innego strumienia informacji”.

“Myślę w rytmie staccato. Umiem odbierać “równolegle” krótkie przekazy z wielu źródeł, ale nie jestem już w stanie przeczytać “Wojny i pokoju””.

Nawet gdy chcą, nie potrafią siłą woli “przełączyć” sobie mózgu z powrotem: nabycie biegłości internetowych wyklucza zachowanie starej zdolności do lektury. Nie da się posiadać równocześnie mózgu takiego i takiego.

Zauważyłem u siebie następujący objaw: sama MOŻLIWOŚĆ dostępu do sieci (wejścia w tryb myślenia à la Google) czyni niezwykle trudnym skupienie się i pracę nad tekstem w tradycyjny sposób. Muszę fizycznie odciąć się od dopływu informacji, ażeby umysł przestawił się na “myślenie książkowe”, przestał skakać po skojarzeniach i domagać się coraz to nowych bodźców uwagi. Ale nie wystarcza zamknięcie przeglądarki czy odejście parę kroków od komputera – bo nadal WIEM, że od strumienia informacji dzieli mnie jedna decyzja, jedna sekunda; umysł czeka w gotowości.

To samo dotyczy prób czytania głębokich narracji przy włączonym komputerze z dostępem do sieci, nawet jeśli sam monitor został wyłączony. Stąd coraz popularniejszy sztywny podział na komputer z Internetem i komputer bez Internetu, przeznaczony wyłącznie do pracy.
Może jednak to wyłącznie kwestia formy i te same dane przyswoimy sobie równie dobrze, gdy podane w im właściwym “trybie internetowym”? Jeszcze w 2001 roku przeprowadzono następujący test czytania ze zrozumieniem: jedna grupa czytała opowiadanie w tradycyjnej formie, a druga – podane na sposób internetowy (hipertekstowo). Czytaczom internetowym nie tylko że lektura zabrała więcej czasu, ale na koniec siedmiokrotnie częściej raportowali o niezrozumieniu tego, co właśnie przeczytali. Podobnie wypada porównanie przekazów tekstowych z przekazami multimedialnymi.

Były prowadzone badania masowe, “podglądające” aktywność internautów. Nawet logi z serwisów przeznaczonych do naukowego researchu pokazują, że statystyczny użytkownik nie wytrzymuje w jednym tekście dłużej niż kilka akapitów, po czym przeskakuje do następnego. Czasami zapisuje dłuższe dokumenty, ale czy kiedykolwiek później do nich wraca?

Biznes dawno rozpoznał te prawidłowości: proszę spojrzeć na teksty zamieszczane w komercyjnych portalach, jak się je dzieli na maleńkie strony–porcje.

Powstał sieciowy akronim na ów nieprzezwyciężalny odruch ucieczki ze zbyt rozbudowanego wywodu: TL;DR.

Too Long; Didn’t Read.

Zachodzą zmiany głębsze, sięgające poza sposób zdobywania informacji, do samego rdzenia procesów myślowych.

Znajomi nauczyciele akademiccy opowiadają mi o rosnącej różnicy między studentami z roczników “wychowanych na Google” i dawniejszych. Z tymi pierwszymi coraz trudniej wejść w intelektualny dialog opierający się na formach wnioskowania właściwych dla “kultury książki”.

Rozumowania wymagające utrzymania w głowie długich łańcuchów implikacji okazują się coraz trudniejsze.

A → B → C → D → E

Umysły zguglowane sprawnie natomiast rozumują “przez sąsiedztwo”, operując wtedy nawet na bardzo dużych zbiorach danych.

(A, B, C, D) (E, F, B) (A, C, E, G, H, I)

Rozumowania asocjacyjne zastępują inferencje i implikacje właściwie we wszystkich dziedzinach życia. W reklamie dawno stały się normą – ale również w debacie publicznej i coraz częściej w artykułach prasowych przemawia się do nas porzuciwszy argumentacje składające logiczne konstrukcje, gdzie jedna myśl wynika z drugiej – na rzecz huraganowych salw niepowiązanych stwierdzeń. “Polska jest piękna”. “Trzy razy trzy równa się dziewięć”. “Mój przeciwnik to cham”.

Implikacja nie pełni nawet roli retorycznej; np. były minister Kaczmarek frazy “w związku z powyższym” używa zamiast przecinka – żadne związki logiczne tam nie występują, ale któż to dostrzega?

Google zgwałciło nam mózgi.

Czytający także piszą. (A może: piszący także czytają?)
Google to oczywiście symbol i soczewka ogółu procesów cywilizacyjnych i nowoczesnych technologii, jakie po rewolucji komputerowej zmieniają nasze życie. A zależności biegną w obie strony: znaczenie ma nie tylko sposób, w jaki odbieramy treści, ale też – jak je tworzymy.

Wielokrotnie przytaczano anegdotę o przygodzie Nietzschego z maszyną do pisania: przymuszony stanem zdrowia, “przesiadł się” na nią w 1882 roku. Znajomi natychmiast spostrzegli różnicę: Nietzsche stał się myślicielem jeszcze bardziej zwięzłym, aforystycznym. Heidegger wyklinał maszynę do pisania z pryncypu: jako przyczynę nawet brutalniejszego oderwania przedmiotu pisarstwa (słowa) od podmiotu (piszącego). Rytuały twórców literatury pięknej dla laika sprawiają wrażenie zgoła magicznych. Nabokov pisał na stojąco, na tysiącach fiszek, rearanżując je potem w dowolnych konfiguracjach – co odbijało się w zawikłanej strukturze jego powieści. Capote z kolei pisał na leżąco, i to w następującej sekwencji: pierwszą i drugą wersję – ręcznie ołówkiem, trzecią – na maszynie. Neal Stephenson, przechodząc od SF do historycznej epopei, zamienił komputer na wieczne pióro i ryzy papieru czerpanego.

Ale to nie puste rytuały, to naturalne uwarunkowanie mózgu. Wittgenstein (późny) ujmował myślenie w kategoriach bardzo praktycznych czynności fizycznych. Myślenie to operowanie znakami – lecz operujemy nimi ręką (gdy piszemy), ustami i krtanią (gdy mówimy) itd. “Mają zatem sens wyrażenia: “myślimy naszymi ustami”, “myślimy ołówkiem i kartką papieru””.

Dzisiaj zaś myślimy edytorami tekstu, e–mailami, tweetami, SMSami, klawiaturami komputerów i komórek.

Pisząc w edytorach tekstu doświadczamy języka jako czegoś nieskończenie płynnego. Znakiem takiej literatury jest woda, podczas gdy znakiem literatury papierowej było drewno.

E–tekst rozlewa się w czasie i przestrzeni.

W czasie – bo nie zamarza nigdy do postaci konkretnej, niezmienialnej. Otwórz w MSWordzie Biblię, naciśnij klawisz – już zmieniłeś Pismo Święte. W pewnym sensie oznacza to koniec myślenia interpretacyjnego rozwiniętego w tradycyjnej kulturze pisma – słowo znów utraciło swą stałą, obiektywną postać.

W przestrzeni – bo prosta operacja edytorem wycina, mnoży, przekleja całe bloki tekstu. Ta zgubna łatwość przesuwania i zmieniania toku opowieści przenosi się wprost na rytm narracji we współczesnej literaturze. Redaktorzy i korektorzy walczą z nowym rodzajem błędów powtórzenia: dublują się nie pojedyncze słowa, a długie fragmenty – autor tyle razy stosował copy & paste, że zapomniał, co gdzie przekleił. Nawet w jego umyśle tekst się roztopił i rozpłynął.

Lecz ponieważ pisząc w edytorze nie jesteśmy w stanie obejmować myślą i wzrokiem więcej niż ten wycinek tekstu, który akurat znajduje się na ekranie, okno “uwagi fabularnej” jest znacznie mniejsze niż w narracjach tradycyjnych, tworzonych na papierze. Ta cecha wiąże się bezpośrednio z zanikiem rozległych rozumowań implikacyjnych na rzecz lokalnych rozumowań asocjacyjnych. Wykształcił się oto nawyk lektury “szczelinowej”, “punktowej”.

Proszę sobie przedstawić czytanie jako proces oświetlania przez lampę umysłu pogrążonego w mroku fresku językowego.

Wymontowano nam z głów reflektory, zastępując je chirurgicznymi latarkami.

Jak to wszystko odbija się na tworzonej współcześnie literaturze?

O jasną diagnozę bynajmniej nie łatwo. W praktyce – u autorów i czytelników – na pierwszy rzut oka mamy do czynienia z dwoma przeciwnie skierowanymi trendami.

Z jednej strony, istnieje silne przekonanie, iż powyższe zmiany warunków życia i uczestniczenia w kulturze wymuszają zmianę form literackich. Słusznie zauważa Jerzy Sosnowski, przywołując symboliczną tu twórczość Gretkowskiej – w pewnym momencie prawie cała literatura polska tak wyglądała; i taki jej kształt uważano za historyczną konieczność.

Najprostsze byłyby wyjaśnienia następujące:

(1) autorzy piszą tak, bo inaczej już nie potrafią (umysły pisarzy uległy przeformatowaniu);
(2) autorzy piszą tak, bo czytelnicy nie potrafią już inaczej czytać (umysły czytelników uległy przeformatowaniu).

Wariant 2 rozbija się znowuż na dwie możliwości:

(2a) przekonanie autorów jest zgodne z prawdą (czytelnicy istotnie się w ten sposób zmienili);
(2b) przekonanie autorów jest niezgodne z prawdą (autorzy tylko sobie wyobrażają, że czytelnicy się w ten sposób zmienili).

Z drugiej bowiem strony, wystarczyło przejść się do Empiku, by stwierdzić, że te teorie zwyczajnie nie odpowiadają rzeczywistości. Nieprzerwanie od PRL–u obecny był trend odwrotnie skierowany – ku epice XL. To nieprawda, że takie książki pojawiły się dopiero niedawno, “w reakcji” na kulturę Google’a. Zachodnia literatura popularna preferuje coraz dłuższe powieści co najmniej od lat 70–tych. (Zapewne ma tu też coś do rzeczy standaryzacja na rynku anglojęzycznym postaci hardcovera, który jest tam pierwszą, najdroższą i najbardziej dochodową formą wydania książki).

Bodaj co druga rozmowa o “Lodzie” zaczynała się od zdziwienia dziennikarza–krytyka, dla kogo właściwie napisałem taką cegłę – przecież WIADOMO, że “dzisiaj grubych książek nie czyta nikt”.

Rzekłbym, że takie myślenie stanowi odpowiednik fenomenu Johna Kerry’ego czy Unii Wolności: “nie znam nikogo, kto nie głosowałby na Kerry’ego, więc jak mógł on przegrać?”. Środowiska opiniotwórcze bardzo łatwo otorbiają się w swoich ekosystemach kulturowych i projektują własną normalność (rozpędzoną, wielkomiejską, hi–techową) na całość społeczeństwa. Co naturalne, one zazwyczaj są najdalej wysunięte na froncie cywilizacyjnym i najmocniej doświadczają tych zmian. Z pozoru najbardziej prawdopodobny wydaje się więc wariant 2b.

Czy to jednak oznacza, że ostatecznie te procesy ogarną wszystkich? Jeszcze trochę, a z przyczyn czysto neurologicznych nikt już nie będzie w stanie – nie zbiegłszy do jakiejś pustelni bez Internetu – przeczytać tekstu dłuższego niż blog–notka?

Sądzę, że to rozpoznanie zbyt proste, zbyt czarno–biała alternatywa. Książki się zmieniają, to prawda, ale inaczej. “Wojnę i pokój” może trudniej przeczytać, lecz chętnie czytamy utwory równie długie – tylko że odmiennie skonstruowane.

Mamy do czynienia z rodzajem hybrydyzacji, ze specyficznym połączeniem cech klasycznej epiki wagi ciężkiej z literaturą pokoleń Google’a. Metodą prób i błędów powieść wypracowała formułę skutecznie rozbrajającą w mózgu czytelnika odruch TL;DR.

I nie jest w tej ewolucji osamotniona: połączenie długich form narracyjnych z wrażliwością guglową uznaję wręcz za symbol kultury pierwszej dekady XXI wieku – bo to także czas niebywałego wzrostu popularności telewizyjnych form serialowych, te tasiemce ogląda się w wielogodzinnych maratonach; seriale stały się dla nas domyślną metodą “opowiadania świata”. Również sesje gier komputerowych trwają godzinami (niekiedy przez całą noc).

Przede wszystkim “literatura Google’a” operuje MIKROMODUŁAMI NARRACJI. Rzuca się to w oczy już w graficznym układzie tekstu. Proszę np. otworzyć w dowolnym miejscu któryś z tomów serii “Millenium” Larssona, tego wzorca współczesnego bestsellera (a każdy tom to ponad 600 stron). Mamy tu bloki tekstu wprost odpowiadające scenom z nowocześnie montowanego serialu: ujęcie, ujęcie, krótki dialog, cięcie.

Z tym wiąże się druga cecha wspólna z serialami: SYMULTANICZNOŚĆ. Akcja rozbita zostaje na kilka (a niekiedy – jak u Kinga, w technothrillerach czy sagach fantasy – kilkanaście lub kilkadziesiąt) wątków, lokalizacji, wiodących postaci. W ten sposób powieść (i serial) sztucznie zaspokajają owo wdrukowane w mózg zguglowany przemożne pragnienie przeskakiwania do wciąż nowych strumieni danych: nie mogę na kartkach książki otworzyć okna z kolejnym programem, wejść na kolejną stronę WWW czy kanał rozmowy z nowym znajomym, ale zanim ten odruch warunkowy wyrwie mnie z lektury – jestem już w innym wątku, w innej scenografii, z innymi bohaterami. I znowu. I znowu. I znowu.

Wspólna dla tej literatury i seriali jest także silna zasada KAPSULACJI, dzięki której umysł nie musi sięgać poza wąski obszar oświetlony przez latarkę uwagi. Nawet gdy oglądasz ciągiem pół sezonu, gdy czytasz gruby tom, to dla orientacji w opowieści wystarcza ci utrzymanie w głowie zaledwie jednego odcinka, kilkudziesięciu stron. W serialu odpowiada za to zamknięta struktura scenariusza każdego odcinka oraz telegraficzne streszczenia zdarzeń uprzednich doklejane przed czołówką. W przypadku powieści guglowej czytelnicy ze starszych pokoleń – i jakże wielu recenzentów! – narzekają na wodolejstwo i zbędne repetycje. Ale właśnie ta redundancja zabezpiecza czytelników zguglowanych przed zagubieniem.

Książka to nie blog – lecz w danym momencie nie może od nich żądać w lekturze więcej niż blogi.

Tak naprawdę jednak to nie blogi określają dzisiaj kierunki rozwoju komunikacji sieciowej. Jej ciężar przeniósł się na komunikatory jeszcze szybsze i skrótowe, jak Twitter czy Blip, które mają im właściwe modele narracji (“opowiedz swój stan ducha w 140 znakach”); a także na tekstowe i pozatekstowe aplikacje serwisów społecznościowych.

Internet bowiem istotnie spowodował nadzwyczajną obfitość produkcji słowa pisanego. Nigdy w historii ludzkości statystyczny człowiek nie pisał tyle listów, co w szczycie użyteczności e–maila – który mamy już za sobą.

Gdyż wszystko wskazuje, że dominacja słowa w sieci to etap przejściowy, bo stanowiący bezpośredni skutek ograniczeń technologicznych w metodzie inputu i outputu danych, a zwłaszcza zarządzania nimi, organizacji, przeszukiwania itp. Po prostu operacje na dźwiękach, grafice, filmach były i nadal są trudniejsze do zaklęcia w tani i wygodny dla użytkownika software i hardware – niż operacje na tekście. Wszelako branża pompuje tu w R&D coraz potężniejsze sumy i należy się spodziewać, że formaty audio i video stopniowo przejmą większość użytkowo–komunikacyjnych funkcji tekstu.

Jak wtedy zmienią się nam mózgi? W jaki sposób do tych zmian przystosuje się książka? Tego nie sposób jeszcze przewidzieć – jednak optymistycznie nastraja sama ta plastyczność literatury, żywotność wobec ofensywy nowych mediów nawet gatunku tak konserwatywnego jako powieść.

Inny mózg czyta, trochę inaczej i trochę inne książki – ale mimo wszystko CZYTA.

Idąc za Lemem, nawet jeśli “piszą wszyscy”, to nikt nie czyta, a jak czyta, to nie rozumie, a jak rozumie, to nie pamięta.

W wielu wypowiedziach – choć akurat nie w dyskusji na łamach “TP” – pobrzmiewa obawa przed potopem słowa pisanego i deprecjacją, wręcz sprofanowaniem literatury przez tę masowość. (Wystarczy chwila z Google’em, by znaleźć tuziny forów i serwisów poświęconych treningowi pisarskiemu i sposobom wydania książki).

Mam te strachy za przejaw błędnego rozumienia literatury jako sztuki – za fetyszyzację samego aktu pisania.

Czy rzeczywiście istotą literatury pięknej jest produkcja słowa pisanego – czy też to, co w nim przekazujemy, co nim wywołujemy w umysłach czytelników? Tak samo jak zwalczenie analfabetyzmu nie uczyniło ze wszystkich pisarzy–artystów, tak i nie uczyni ich nimi możliwość powszechnej publikacji. Wydawnictwa drukujące dzieła grafomanów na ich koszt nie są nowym wynalazkiem. Każdy, kto chce, może się mienić pisarzem i przedstawiać na dowód sążniste publikacje. I cóż z tego?

Absolutna wolność publikowania w Internecie – literatury czy innych form artystycznej ekspresji – powinna zadziałać wręcz oczyszczająco, uwalniając akt twórczy z ornamentyki tych rytuałów.

Nie jesteś nikim wyjątkowym dlatego, że umiesz pisać. Nie jesteś wyjątkowym dlatego, że napisałeś opowiadanie czy powieść. Istotna będzie dopiero ich jakość, oryginalność, moc.
Tekst pierwotnie opublikowany w „Tygodniku Powszechnym”.