Historia fotografii – od camera obscura do smartfonu

Fotografia towarzyszy człowiekowi od pierwszej połowy XIX wieku. Dzięki niej zyskaliśmy unikalną możliwość sięgnięcia w przeszłość i zobaczenia jak przez okno wycinków rzeczywistości – tak, jak widział ją kiedyś fotograf. Fotografia, niegdyś sztuka elitarna, tajemnicza, od początku próbowała utorować sobie drogę do zwykłego człowieka – dziś każdy z nas może mieć aparat fotograficzny zawsze przy sobie, a jego użycie nie wymaga praktycznie żadnego zastanowienia. A jak to się zaczęło? Oto historia fotografii.
Historia fotografii
Historia fotografii

Soczewka i ciemnia optyczna

Chociaż oba instrumenty znane były już w starożytności, to usystematyzowanie wiedzy na ich temat należy datować na XI wiek n.e. – wtedy to arabski uczony Hasan Ibn al-Hajsam zwany także Alhazenem stworzył kompendium wiedzy o optyce Kitab-al-Manadhirn, rozwijając wcześniejsze prace Ptolemeusza.

Ciemnia optyczna, zwana także camera obscura składała się z dwóch niezbędnych elementów – ściany z otworkiem i pudła lub zaciemnionego pomieszczenia. Wpadające przez otworek światło rysowało na przeciwległej ściance odwrócony obraz rzeczywistości. Znana już w starożytności, po raz pierwszy opisana została przez Ptolemeusza, lecz dopiero dzięki pracy o optyce Kitab-al-Manadrin arabskiego uczonego Hasana Ibn al-Hajsama zwanego także Alhazenem stała się szerzej znana.

Camera Obscura
Zasada działania ciemni optycznej

Ciemni optycznej używali uczeni tacy jak: Kartezjusz i Kepler (który między innymi badał dzięki niej słońce), a także artyści – to właśnie wykorzystaniu camera obscura przypisuje się widoczną w pracach Vermeera ogromną dbałość o detale. Z kolei Leonardo Da Vinci poświęcił dużo uwagi samemu urządzeniu – w jego pracach można znaleźć aż 270 rozmaitych rysunków.

Około 1550 roku camera obscura udoskonalona została poprzez wstawienie w otworek dwuwypukłej soczewki, znacznie zwiększającej ilość światła dostającego się do środka i poprawiając jasność obrazu. Pierwotne, prymitywne soczewki także znane były już w starożytności – sugerują to zarówno wykopaliska archeologiczne, jak i dowody pisane. Pliniusz Starszy zapisał w kronikach, że cesarz Neron przyglądał się występom gladiatorów przez szlifowany szmaragd, zachowały się także wzmianki o kryształach służących do rozpalania ognia. Traf chciał, że bardziej współczesny opis teoretyczny soczewki przypisać możemy temu samemu uczonemu, który opisał camera obscura, czyli Alhazenowi. W miarę powszechne wykorzystanie datuje się jednak dopiero na drugą połowę XIII wieku, kiedy to nauczono się wytwarzać je ze szkła i wynaleziono okulary – pierwsze znaczące centra produkcyjne mieściły się w Wenecji i Florencji, a później także w Niderlandach. Eksperymenty z soczewkami w różnych układach przyniosły kolejne znaczące wynalazki: mikroskop w 1595 roku, lunetę Galileusza w 1609 roku i lunetę Keplera, wynalezioną w 1611 roku.

Camera Obscura
Camera obscura należąca do Johanna Wolfganga Goethego, fot. Hajotthu, CC BY-SA 3.0, via Wikimedia Commons

Już zatem w XVII wieku dostępny był komplet instrumentów niezbędnych do obrazowania. Brakowało natomiast metody utrwalania powstałego obrazu innej niż ręka artysty.

Narodziny fotografii – Heliografia

Za praojca fotografii uważany jest Joseph Nicéphore Niépce. Urodzony 7 marca 1765 roku w Chalon-sur-Saône we Francji, od najmłodszych lat przejawiał zainteresowanie chemią i fizyką, jednak planom naukowym przeszkodziła rewolucja francuska, w której Niépce wziął aktywny udział. Karierę żołnierza kontynuował pod dowództwem Napoleona Bonapartego, biorąc udział w kampanii włoskiej. Pogarszający się stan zdrowia zakończył w 1794 roku wojskowy rozdział życia Niépce’a – został cywilnym administratorem w Nicei, gdzie osiedlił się z bratem Claude’m. W Nicei Joseph poznał swoją wybrankę, Agnes Romero, z którą w 1795 roku wziął ślub. W tym samym roku urodził im się syn Isidore, a Niépce poświęcił się całkowicie wynalazkom, rezygnując z funkcji administratora. Claude i Joseph wraz z rodziną powrócili do Chalon w 1801 roku, a następnie oddali się eksperymentom nad silnikiem spalinowym ze spalaniem wewnętrznym – okazały się one na tyle udane, że w 1807 udało im się zaprezentować działający prototyp Pyréolophore oraz udowodnić możliwość jego praktycznego użycia na pokładzie łodzi. Bracia Niépce uzyskali dziesięcioletni patent na swój wynalazek, jednak kolejne lata nie przyniosły wielkich postępów, jeśli chodzi o jego udoskonalenie. W 1816 drogi braci rozeszły się – Claude chciał wyjechał do Anglii (uzyskał tam także patent na silnik, lecz nie wzbudził on wielkiego zainteresowania), a Joseph poświęcił się całkowicie próbom utrwalania obrazu uzyskiwanego za pomocą camera obscura.

Do pierwszych eksperymentów Joseph Nicéphore Niépce wykorzystał nasączony solami srebra papier. Właściwości soli srebra związane z ciemnieniem na słońcu były znane już wcześniej i istotnie udało się z pomocą ciemni optycznej uzyskać na tak przygotowanym papierze obraz, jednak sukces był o tyle wątpliwy, że Niépce nie znalazł żadnego sposobu, by go uczynić trwałym.  Nie powiodły się także próby z tlenkami żelaza i manganu, które z kolei jaśniały pod wpływem światła. Nadzieję natomiast przyniosły próby wykorzystania asfaltu syryjskiego, naturalnej żywicy mineralnej, która twardniała pod wpływem światła i co ważniejsze, w miejscach nienaświetlonych można ją było rozpuścić za pomocą olejku lawendowego.

Prace Niépce trwały dość długo, lecz opracował w końcu metodę pokrywania powierzchni metalowej, szklanej lub wykonanej z kamienia litograficznego płyty za pomocą roztworu asfaltu w olejku lawendowym – po wyschnięciu rozpuszczalnika płyta nadawała się do naświetlania. Czułość była mizerna, niezbędna do uzyskania obrazu ekspozycja miała wynosić kilka czy kilkanaście godzin, a współczesne próby odtworzenia techniki mówią nawet o kilku dniach. Naświetlona płyta trafiała ponownie do olejku lawendowego, który rozpuszczał nieutwardzony światłem asfalt – pozostałość tworzyła negatywowy obraz. W 1826 za pomocą tej metody (którą Niépce nazwał heliografią) powstał pierwszy znany obraz fotograficzny – widok z okna mieszkania wynalazcy.

Pierwsza fotografia
Widok z okna w Le Gras, fot. Joseph Nicéphore Niépce, 1826

Chociaż sukces był niewątpliwy, to w uzyskanej formie heliografia nie nadawała się do zastosowań praktycznych, a dalsze prace nie przynosiły znaczących udoskonaleń. Skłoniło to Niépce’a do nawiązania za pośrednictwem inżyniera optyka Vincenta Chevaliera kontaktu z innym wynalazcą, Louisem Jacquesem Mandé Daguerrem, także prowadzącym pracę nad utrwalaniem obrazów.  Wymiana informacji okazała się na tyle obiecująca, że w 1829 roku panowie postanowili podpisać umowę o współpracy. Prace badawcze początkowo spoczywały głównie na Niépce’m, lecz złośliwy los nie pozwolił mu doczekać do chwili, gdy fotografię można było pokazać światu. Joseph Nicéphore Niépce zmarł 5 lipca 1833 roku, przeżywszy 68 lat. Przetrwała natomiast spółka, w której miejsce ojca zajął syn, Isidore.

Louis Jacques Mandé Daguerre – dagerotyp

Louis Jacques Mandé Daguerre urodził się 18 listopada 1787 w Cormeilles-en-Parisis. Znacznie młodszy od Niépce’a, wykazywał się dużą energią. Poza eksperymentami nad utrwalaniem obrazów zajmował się architekturą, malarstwem i scenografią.

Po śmierci Niépce’a to na Daguerre’a spadł główny ciężar badań. Isidore nie odziedziczył bowiem zdolności ojca. Daguerre porzucił rychło eksperymenty z asfaltem, uznając je za mało perspektywiczne i koncentrując się swoich poszukiwaniach na światłoczułych solach srebra. Pracę ułatwiał mu dostęp do doskonale wyposażonego laboratorium, należącego do zaprzyjaźnionego chemika Jeana-Babtiste Dumasa. Podstawą procesu Daguerre’a była miedziana płytka, posrebrzona i poddana działaniu jodu. Na jej powierzchni tworzyły się mikroskopijne kryształki jodku srebra. Także i tutaj początkowo niezbędny do uzyskania obrazu czas naświetlania był bardzo długi. Przełomem było odkrycie tak zwanego obrazu utajonego – okazało się bowiem, że już stosunkowo niewielka ilość światła powoduje powstanie zmian chemicznych w solach srebra, które mogą posłużyć do budowania obrazu. Aby obraz stał się widoczny, tak naświetloną płytę należało wywołać – służyły do tego pary rtęci podgrzanej do temperatury 75° C. Ze względu na toksyczność rtęci wymagana była duża ostrożność podczas tego procesu, do tego obraz wciąż nie był trwały. Drugim przełomem było zatem odkrycie, że obraz na wywołanej płycie można utrwalić (uczynić niewrażliwym na dalsze naświetlanie) za pomocą płukania w ciepłej, silnie zasolonej wodzie – później zastąpionej używanym do dziś tiosiarczanem sodu.

Boulevard du Temple, Paryż, fot. Louis Jacques Mandé Daguerre, 1838

W 1838 roku proces był dopracowany w stopniu, który pozwalał na zaprezentowanie go światu. Daguerre opatentował go i zaprezentował go Françoisowi Arago. Na początku 1839 roku wynalazek został ogłoszony w biuletynie Francuskiej Akademii Nauk, a 19 sierpnia tego samego roku Arago oficjalnie zaprezentował „Dagerotypię” Akademii Nauk i Akademii Sztuk Pięknych w Paryżu, wywołując zresztą przy tym konsternację i protesty tak pominiętego Isidore’a Niépce. Françoisowi Arago możemy przypisać jeszcze jedną, wielką zasługę dla fotografii: przekonał bowiem ówczesnego króla Francji, Ludwika Filipa, by odkupił od Daguerre’a i Niépce’a patent na wynalazek, w zamian za dożywotnie renty w wysokości odpowiednio 6 i 4 tysięcy franków, Francja zaś podarowała dagerotypię światu, pomijając jednak złośliwie Anglię, w której by zajmować się nią przez jakiś czas wymagane było wykupienie licencji.

Kamera Susse do dagerotypii

W pierwotnym procesie dagerotypowym na posrebrzanej płycie powstawał odwrócony obraz pozytywowy, czyli o prawidłowej tonalności, lecz zamienionych stronach – wprowadzenie do konstrukcji kamery luster pozwoliło pozbyć się tej ostatniej niedogodności. Obrazy były dobrej jakości, lecz zdjęcie powstawało zawsze w jednym egzemplarzu, do tego wywołane zdjęcie było wrażliwe na uszkodzenia i wymagało ochrony za pomocą płyt szklanych. Kolejną niedogodnością były kilkunastominutowe czasy naświetlania – w zastosowaniach portretowych doprowadziło do stosowania specjalnych foteli z uchwytami do unieruchamiania modeli. Późniejsze udoskonalenia w procesie chemicznym skróciły ten czas, lecz kluczowym momentem było przede wszystkim obliczenie i skonstruowanie przez matematyka Józsefa Petzvala w 1840 roku obiektywu portretowego o ogromnej jak na tamte czasy jasności f/3,7 – pozwoliło to skrócić naświetlanie do mniej niż 30 sekund. Obiektyw Petzvala dawał obraz ostry w środku i coraz bardziej miękki na brzegach, do tego cechował się specyficznym, wirującym bokeh – ze względu na te cechy bywa niekiedy stosowany także współcześnie, doczekał się też nowoczesnych rekonstrukcji.

Dwie kobiety pozujące z krzesłem, fot. Albert Sands Southworth i Josiah Johnson Hawes, 1850

Dagerotypia zyskała wielką popularność, lecz ostatecznie okazała się ślepą uliczką. W procesie powstawało każdorazowo jedno zdjęcie, bez możliwości powielenia, a wywoływanie za pomocą par rtęci było ryzykowne i trudne. Przyszłość należała do odmiennych procesów chemicznych, początkowo dających gorsze efekty, lecz pozbawionych wad pierwowzoru.

William Henry Fox Talbot – kalotypia

Co ciekawe, pierwszy z procesów pozbawionych najbardziej uciążliwych wad dagerotypii powstawał niemal równolegle, lecz po drugiej stronie kanału La Manche. Jego wynalazcą był William Fox Talbot. Jako człowiek z koneksjami arystokratycznymi (jego matka była córką sir Henry Thomasa Fox-Strangwaysa, Lorda Stavordala) odebrał w młodości solidne i wszechstronne wykształcenie. Studia z matematyki ukończył na Uniwersytecie Cambridge, w 1822 roku został członkiem Królewskiego Towarzystwa Astronomicznego, prowadził też badania w tej dziedzinie w Obserwatorium Paryskim pod kierownictwem wspominanego już wyżej Françoisa Arago. Zainteresowań zresztą nie ograniczał do nauk ścisłych – Talbot interesował się archeologią, a w osiągnięciach zapisał między innymi znaczny udział w odczytaniu asyryjskiego pisma klinowego.

Stóg siana
Stóg siana, fot. William Henry Fox Talbot, 1844

O pracach prowadzonych przez Daguerre’a i Niépce’a nad utrwalaniem obrazu jednakże nie wiedział, tematem zresztą zainteresował się dość późno, bo dopiero w 1833 roku. W swoich pracach Talbot posługiwał się jednak zupełnie innym medium – podstawą był papier, poddany działaniu chlorku sodu (czyli soli) oraz azotanu srebra. Ciemniejące pod wpływem światła sole tworzyły obraz negatywowy. Badania posuwały się dość niemrawo i nabrały tempa dopiero pod wpływem informacji o sukcesach Daguerre’a. Talbot zdołał zaprezentować wyniki swoich prac przed Royal Society i Royal Institution na początku 1839 roku, jeszcze przed prezentacją dagerotypii przed Akademią Nauk i Akademii Sztuk Pięknych w Paryżu przez Arago, jednak francuskie pierwszeństwo nie ulegało wątpliwości, a proces był dużo bardziej dopracowany.

Panna Munro, córka szeryfa, fot. David Octavius Hill i Robert Adamson, 1845

William Henry Fox Talbot nazwał swój proces kalotypią, ale mimo sukcesów do faktycznej użyteczności droga była jeszcze daleka. Podobnie jak w początkowych pracach Daguerre’a, czasy naświetlania sięgały kilkudziesięciu minut. Dopiero w 1840 roku wynalazcy udało się udoskonalić proces – wykorzystując zjawisko obrazu utajonego oraz nowy proces uczulania papieru, w którym wykorzystywana była mieszanka azotanu srebra i jodku potasu. Powstała w ten sposób warstwa kryształków jodku potasu była pokrywana roztworem azotanu srebra i kwasu galusowego – po wypłukaniu papier nadawał się do naświetlania. Następnym etapem procesu było wywoływanie, przeprowadzane ponownie za pomocą azotanu srebra i kwasu galusowego (a zatem bez użycia znanych z dagerotypii toksycznych par rtęci) i utrwalanie za pomocą tiosiarczanu sodu. Efektem końcowym był papierowy negatyw, nadający się do kopiowania stykowego na kolejnych arkuszach papieru.

Open Door
Otwarte drzwi, fot. William Henry Fox Talbot, 1844

Niewielka przeźroczystość papieru nie pozwalała na uzyskanie kopii o jakości zbliżonej do dagerotypu, lecz proces był bezpieczniejszy i pozwalał na uzyskanie z jednego negatywu wielu egzemplarzy zdjęcia. Kalotyp był mniej szczegółowy, brakowało mu wyrazistości i prezentował się przez swoją niedoskonałość bardziej malarsko.

 W 1841 roku William Henry Fox Talbot uzyskał patent na swój wynalazek, co było sukcesem i zarazem zaczynem klęski, gdyż wynalazca domagał się znacznych opłat licencyjnych – a wszak dagerotypia była dostępna za darmo, do tego początkowo jednostkowość dzieła łączona była z jego elitarnością i prestiżem. Pewnym osiągnięciem było wydanie przez Talbota w 1844 roku książki ilustrowanej fotografiami na papierze solnym uzyskanymi dzięki jego metodzie, lecz kalotypia nigdy nie uzyskała tak dużej popularności, jak dagerotyp. Wynalazca zbyt późno zrezygnował ze ścisłej polityki licencyjnej, do tego mimo udoskonaleń nigdy Talbotowi nie udało się rozwiązać najpoważniejszych problemów związanych z jego techniką. A za rogiem był już nowy proces, zwany mokrym kolodionem, pozbawiony najpoważniejszych wad zarówno kalotypii, jak i dagerotypii.

Frederick Scott Archer – proces kolodionowy

Za wynalazcę mokrego kolodionu uważany jest Frederick Scott Archer, choć zbliżone prace prowadził także Gustave Le Gray. Archer nie wywodził się z arystokracji, wręcz przeciwnie – był synem rzeźnika. Sam jednak nie pracował w tym zawodzie – zajmował się głównie złotnictwem i rzeźbiarstwem. Do precyzyjnych prac rzeźbiarskich wykorzystywał kalotypię i to właśnie jej wady, czyli niska rozdzielczość i słaby kontrast, utrudniający praktyczne wykorzystanie odbitek, stały się dlań impulsem, by w 1847 roku rozpocząć własne prace nad utrwalaniem obrazu. W 1851 roku Archer opublikował szczegółowy opis procesu mokrego kolodionu w czasopiśmie The Chemist, nie decydując się zresztą na jego opatentowanie. Zmienne koleje złośliwego losu doprowadziły do tego, że wynalazca pierwszej naprawdę popularnej metody fotograficznej zmarł w nędzy, a rodzina znalazła się w tak ciężkim położeniu, że konieczne stało się ratowanie jej publiczną zbiórką i przyznanie niewielkiej renty na dzieci.

L’Entente cordiale, fot. Roger Fenton, 1855

Podłożem dla procesu mokrego kolodionu była szklana płytka. W przeciwieństwie do powlekanych srebrem miedzianych płyt z dagerotypii pozwalała ona na użycie technik negatywowych, a dzięki wysokiej przeźroczystości – na uzyskanie znacznie lepszej szczegółowości niż papier stosowany w kalotypii.

Płytka powlekana była emulsją zawierającą kryształki halogenków srebra (jodku, a później bromku srebra), dla których nośnikiem był roztwór azotanu celulozy (czyli nitrocelulozy), etanolu i eteru, zwany kolodionem. Proces przygotowywania materiału światłoczułego był raczej uciążliwy – szklaną płytkę należało dobrze wypolerować, a następnie pokryć sprawnie świeżym (gdyż roztwór szybko gęstniał) roztworem kolodionu i jodku potasu. Taką świeżą płytę należało zanurzyć w roztworze azotanu srebra, wskutek czego w wyniku kąpieli na powierzchni szkła powstawały światłoczułe kryształki jodku srebra, a następnie w kasecie przenieść do aparatu i naświetlić.

Wykonane zdjęcie należało natychmiast wywołać za pomocą wywoływacza złożonego z azotanu srebra z dodatkiem pirogalolu lub soli Mohra, czyli ałunu amonowo – żelazawego Fe(NH4)2(SO4)2, a następnie utrwalić w kąpieli z tiosiarczanu potasu lub (dla miłośników mocnych przeżyć) cyjanku potasu. Czas między rozpoczęciem przygotowywania płyty do zakończenia jej utrwalania nie mógł przekraczać 15 minut, co wymuszało wożenie wszelkich odczynników i całego wyposażenia ciemni ze sobą – w związku z tym jest oczywistym, że nie było to zajęcie dla każdego.

Meczet Omara, Betlejem, fot. Francis Frith, 1857

Utrwaloną płytę szklaną należało jeszcze zabezpieczyć warstwą ochronnego lakieru, gdyż bez tego zdjęcie było bardzo podatne na uszkodzenia mechaniczne. Później można było już przygotowywać odbitki stykowe, wykonywane na papierze solnym lub albuminowym w takiej ilości, jaka była potrzebna – miały one jakość i szczegółowość porównywalną z dagerotypami.

Proces mokrego kolodionu pozwolił na uzyskanie powtarzalności i wysokiej jakości zdjęć, lecz jego poziom skomplikowania i konieczność zachowania ścisłego reżimu czasowego nie pozwalały na popularyzację fotografii wśród amatorów – były wprawdzie prowadzone próby przedłużania trwałości przygotowywanych płyt za pomocą przeróżnych dodatków, lecz efekty tego były mizerne – trwałość płyt udało się wprawdzie rozciągnąć i do kilku dni, lecz czułość takich materiałów była wielokrotnie niższa niż zwykłych, a zatem należało je znacznie dłużej (bywało, że i dziesięciokrotnie) naświetlać, co mocno ograniczało zakres zastosowań. Mokra płyta pozostała zajęciem dla zawodowców, a pozbycie się jej wad wymagało pozbycia się ich głównej przyczyny, czyli kolodionu i opracowania zupełnie nowego procesu.

Richard Leach Maddox – sucha płyta

Człowiekiem, który tego dokonał był Richard Leach Maddox. Z zawodu był lekarzem, a wynalazcą został raczej z konieczności niż zamiłowania – w swojej pracy wykorzystywał fotografię kolodionową do utrwalania obrazów mikroskopowych. Pary eteru niezbędnego do przygotowywania kolodionu w warunkach kiepskiej wentylacji spowodowały pojawienie się u Maddoxa problemów zdrowotnych i zachęciły go do poszukiwania bezpieczniejszej i wygodniejszej w użyciu alternatywy. Przełomem stało się odkrycie w 1871 roku, że emulsję światłoczułą można wytworzyć przy użyciu znanej i bezpiecznej żelatyny. Maddox swojego odkrycia nie opatentował, więc rychło znalazło się wielu chętnych do dalszego udoskonalania jego pomysłu.

Flying Hawk, fot. Gertrude Käsebier, 1900

W technice suchej płyty, aby przygotować światłoczułą emulsję należało rozpuścić w żelatynie bromek potasu i azotan srebra, w wyniku czego powstawała zawiesina drobnych kryształków bromku srebra. Roztwór należało następnie podgrzać, by podnieść jego czułość (było to okrycie Charlesa Harpera Benneta) i pozostawić do wysuszenia i stężenia. Tak powstałą substancję cięto w cienkie paski, płukano je, ponownie rozpuszczano i nakładano na szklane płyty, które następnie suszono. Tak przygotowane materiały można było po zabezpieczeniu dość długo przechowywać, nic zatem nie stało na przeszkodzie, by wykonywać je na większą skalę. Pionierem był i tu Charles Bennet, który zaoferował klientom gotowe, wykonywane przez siebie płyty, lecz rychło produkcja trafiła do fabryk.

Książka z obrazkami, fot. Gertrude Käsebier, 1902

Sucha płyta miała wszystkie zalety mokrej, a jednocześnie była pozbawiona jej wad. Była też pierwszą rzeczywiście dojrzałą techniką fotograficzną, do tego względnie dostępną dla amatorów i nic więc dziwnego, że wyparła inne procesy. W wyniku dalszych udoskonaleń udało się poprawić barwoczułość – pierwsze emulsje były czułe w zasadzie wyłącznie na światło niebieskie.

Na zakończenie krótkiej historii suchej płyty musi się jeszcze pojawić jedno nazwisko – należące do człowieka, który bardziej niż inni przyczynił się do jej popularyzacji, by następnie zepchnąć ją w niszę.

George Eastman

George Eastman urodził się w 1842 roku, na niewielkiej farmie w pobliżu Waterwille, w stanie Nowy York. W rodzinie nigdy się nie przelewało, lecz prawdziwe problemy zaczęły się dopiero wraz ze śmiercią ojca w 1862 roku. Młody George został zmuszony do wczesnego porzucenia szkoły i podjęcia pracy, by pomóc rodzinie. Karierę zawodową zaczął jako zwykły goniec, dopiero w 1874 roku dostał posadę jako pracownik banku – była to praca już na tyle dochodowa, że pozwalała nie tylko na utrzymanie matki i rodzeństwa, ale także na przyjemności. W ten właśnie sposób doszło do zetknięcia się George’a Eastmana z fotografią – swoją pierwszą kamerę nabył przed wycieczką na Santo Domingo. Nie zniechęciła go waga aparatu na mokre płyty wraz oprzyrządowaniem – Eastman okazał się typem pasjonata, który niedogodności potraktował jako wyzwanie i zajął się w wolnym czasie próbami uczynienia sprzętu przyjaźniejszym dla fotografa.

George Eastman i Thomas Edison

Ponieważ procesu kolodionowego nijak nie dało się usprawnić, George Eastman skoncentrował się na zyskującej właśnie popularność suchej płycie. Prace nad udoskonaleniem techniki tworzenia płyt żelatynowych poszły tak dobrze, że w 1880 roku Eastman miał już w ręku patent na maszynę służącą do ich masowej produkcji, a w 1881 roku wraz z Henrym Alvah Strongiem założył firmę właśnie tym się zajmującą. W 1884 roku do oferty firmy wszedł także papier negatywowy i na bazie prac nad nim w tymże roku George Eastman i William Walker uzyskali patent na pierwszą błonę zwojową na podłożu papierowym – Eastman odkupił od Walkera jego prawa do wynalazku za 40 tysięcy dolarów. W 1887 roku Eastman zastąpił go celuloidem, tworząc pierwszy nowoczesny materiał światłoczuły, a rok później uzyskał patent i rozpoczął masową produkcję pierwszego aparatu na błonę zwojową. Kodak nr 1 kosztował 25 dolarów i był to pierwszy aparat, który naprawdę mógł być uznany za sprzęt dla amatora, gdyż firma Eastmana zaoferowała nie tylko sprzęt, lecz także komplet usług niezbędnych do uzyskania odbitek. Slogan reklamowy „ty naciskasz spust, my robimy resztę” stał się rozpoznawalny na całym świecie. Klient kupował nabity błoną zwojową, gotowy do pracy aparat, robił komplet zdjęć, a następnie oddawał go w ręce firmowego laboratorium, które zajmowało się dalszą obróbką materiału oraz po raz kolejny przygotowywało aparat do pracy.

Kodak No. 1, numer seryjny 540

Co ciekawe, ostatecznie okazało się, że nie Eastman wynalazł celuloidowy film zwojowy – w tym samym roku co Eastman (ale nieco wcześniej) wniosek patentowy na bardzo podobny wynalazek złożył (zupełnie niezależnie) inny wynalazca, pastor Hannibal Goodwin. Ostateczny patent uzyskał jednak dopiero 13 września 1898 roku, kiedy pozycja Eastmana była już nie do podważenia. Po śmierci Goodwina jego prawa do patentu trafiły ostatecznie w ręce firmy Ansco, która wytoczyła Eastman Kodak proces. Trwał aż do 1914 roku i zakończył się przegraną oraz koniecznością zapłaty 5 mln $ odszkodowania za naruszenie praw patentowych.

Ewolucja aparatu fotograficznego – skrzynka i mieszek

Kodak nr 1 był pierwszym aparatem skrzynkowym na błonę zwojową. Cechował się solidną konstrukcją, skórzanym wykończeniem i obiektywem skonstruowanym z czterech soczewek w dwóch grupach. Załadowany aparat pozwalał na wykonanie 100 zdjęć o niezwykłym, okrągłym formacie – po ich wykonaniu był odsyłany do producenta w celu wywołania i ponownego załadowania materiału światłoczułego, co kosztowało 10 dolarów. Aparat pozwalał na pracę zarówno z błonami na podłożu papierowym (podczas obróbki wymagane było przeniesienie warstwy światłoczułej na płytkę szklaną), a później także z przeźroczystym filmem celuloidowym. Mimo znacznej popularności Kodak nr 1 wciąż ze względu na cenę nie był sprzętem dla każdego.

Kodak Brownie

Jego następca, Kodak Brownie z 1900 roku, kosztował już tylko dolara. Niską cenę osiągnięto poprzez użycie w konstrukcji tektury i zastosowanie bardzo prostego i ciemnego obiektywu typu menisk, czyli złożonego z pojedynczej soczewki skupiającej. Konstrukcja pozwalała także na samodzielną wymianę błony zwojowej w aparacie – odpowiednie wkłady były określane jako film typu 117 i pozwalały na uzyskanie 6 zdjęć w formacie kwadratowym. Naświetlony film można było wywoływać samodzielnie lub zdać się na laboratoria Kodaka.

Brownie stał się prawdziwym aparatem dla masowego użytkownika, względnie niedużym, tanim i prostym w użyciu – nie miał nawet celownika, którego rolę pełniły wyrysowane na górnej powierzchni linie wskazujące kąt widzenia. Osiągnął ogromny sukces, sprzedano około 245 tysięcy egzemplarzy pierwszej wersji. Pojedynczy wkład błony celuloidowej typu 117 w 1900 roku kosztował 15 centów, starszego typu błony na podłożu papierowym 10 centów, a koszt wywołania obu typów w laboratorium Kodaka wynosił 40 centów. Tak wyglądał praprzodek wszelkich aparatów point-and-shoot.

Kodak N° 3A Folding Pocket na błonę typu 122, fot. John Kratz from Burlington NJ, USA, CC BY-SA 2.0, via Wikimedia Commons

Ale Kodak w tym czasie nie tylko pracował nad obniżeniem kosztów – drugim celem było zminiaturyzowanie aparatu i uczynienie go jak najwygodniejszym w użyciu. Rozwiązaniem okazało się połączenie filmu zwojowego i znanego już z dużych kamer wielkoformatowych miecha. W 1897 roku Eastman zaprezentował pierwszą taką konstrukcję, Kodak N° 1 Folding Pocket, a dwa lata później bardziej zaawansowany model Kodak Folding Pocket, oba na film typu 105 (wystarczający na 12 zdjęć w formacie 6×9 cm) i z obiektywami typu achromat, co prawda dosyć ciemnymi.

Zeiss Ikon Ikonta 521/16, fot. Adam Śmiałek, Towary światłoczułe nr 33

Zastąpienie sztywnej konstrukcji znanej z aparatów skrzynkowych ruchomymi metalowymi prowadnicami wymagało oczywiście odpowiedniej precyzji, by odległość między obiektywem, a błoną światłoczułą za każdym razem była taka sama. Podnosiło to znacznie koszty produkcji, a zatem i cenę, lecz konstrukcje mieszkowe dało się w końcu naprawdę schować do kieszeni, co w wielu zastosowaniach było niezastąpione, więc bogatsi amatorzy chętnie po modele mieszkowe sięgali. Powstała niezliczona ilość aparatów różnych producentów, z lepszymi migawkami, obiektywami i udoskonaloną konstrukcją mechaniczną, a ich popularność sięgnęła lat 50 XX wieku. Ale i tak najmłodszą znaną mi konstrukcją mieszkową jest… Fujifilm GF670, nowoczesny profesjonalny aparat na błony 120 i 220, produkowany w niewielkich ilościach w latach 2009-2014.

Fujifilm GF670, zdjęcie producenta

Mały obrazek

Aparaty mieszkowe na błony zwojowe okazały się bardzo wygodnym sprzętem podróżnym. Najpopularniejszym formatem zdjęć był 6×9 cm i to szerokość błony wyznaczała granice miniaturyzacji. Pojawienie się filmu perforowanego 35 mm w fotografii nastąpiło dość późno. Sam format był efektem ubocznym eksperymentów Thomasa Alva Edisona z ruchomymi obrazami. Wynaleziony przez niego w 1891 roku ostatecznie wykorzystywał materiał światłoczuły Eastmana, przycięty do szerokości 35 mm i z wykonanym najpierw pojedynczym, a później podwójnym rzędem perforacji. W późniejszym okresie Edison zamiast wykonywać materiały we własnym zakresie, zamawiał gotowe taśmy w New York’s Blair Camera Co. Istotne, że wynalazca nie zdołał nowego formatu zastrzec w urzędzie patentowym, ruchome obrazki zatem szybko stały się obiektem szerokich eksperymentów wśród pionierów sztuki filmowej.

Dla powstania fotografii małoobrazkowej kluczowe stały się prace Oskara Barnacka. Był on inżynierem pracującym w zakładach Ernesta Leitza i przy okazji amatorem krajobrazów i fotografii. Będąc dość kiepskiego zdrowia, miał problemy z posługiwaniem się ciężkim sprzętem wielkoformatowym, nic zatem dziwnego, że szybko zajął się próbami opracowania aparatu tak małego, by nadawał się do całodziennych wędrówek. Ponieważ firma Ernesta Leitza zajmowała się produkcją instrumentów optycznych, w tym obiektywów do projektorów kinowych, zaprezentowany w 1914 roku prototypowy aparat Barnacka wykorzystywał właśnie perforowaną taśmę filmową 35 mm, jednak z poziomym przesuwem i podwojonym krótszym bokiem klatki, co dawało format 36×24 mm. Ur-Leica została wypróbowana praktycznie przez Leitza podczas wyjazdu do Nowego Yorku, a efekty były na tyle obiecujące, że Barnack dostał zgodę na dalsze prace nad aparatem.

Ur-Leica, fot. Leica, CC BY-SA 2.0 DE, via Wikimedia Commons

Problemem była przede wszystkim niedostateczna jakość obiektywów. O ile bowiem w dużym i średnim formacie odbitki uzyskiwano głównie stykowo, to film kinowy wymagał przenoszenia z negatywu na papier z użyciem powiększalnika, co uwydatniało wszelkie wady zarejestrowanego obrazu. Stosowane wtedy w aparatach fotograficznych obiektywy w przeważającej mierze nie miały rozdzielczości wystarczającej do uzyskania dobrej jakości powiększeń, a nieliczne konstrukcje, które jakoś dawały sobie radę, były duże – zbyt duże, by pasowały do prototypu Barnacka.

Dalsze prace nad nowym aparatem przerwała wojna, jednak wraz z jej zakończeniem zostały wznowione. Z pomocą Barnackowi przyszedł inżynier Max Berek, który specjalnie na jego potrzeby opracował nowy obiektyw. Konstrukcja składała się z pięciu soczewek w trzech grupach i stanowiła anastygmat rozwijający formułę tzw. trypletu Cooka. Ogniskowa wynosiła 50 mm (dziś określa się ją standardową), a jasność f/3.5. Na bazie nowego obiektywu powstała w latach 1923-24 krótka, licząca kilkadziesiąt egzemplarzy seria, znana dziś jako Leica 0.

Być może aparat pozostałby tylko ciekawostką, gdyby nie problemy finansowe firmy Ernesta Leitza spowodowane powojenną zapaścią niemieckiej gospodarki. Wymusiły one poszukiwanie nowych źródeł dochodu – alternatywą było znaczne ograniczenie produkcji i zwolnienia. Leitz zaproponował zarządowi firmy podjęcie produkcji aparatów fotograficznych i ostatecznie przeforsował swój pomysł wbrew sprzeciwom reszty zarządu. Produkcyjna wersja zaprezentowana w 1925 roku na targach w Lipsku nazywała się Leica 1 (od Leitz Camera) i po krótkim okresie zdziwienia i niejakiego chłodu fotografów okazała się ogromnym hitem – do 1930 roku sprzedaż aparatów podwajała się co rok. W 1930 roku premierę miał aparat Leica 2, który posiadał wymienne obiektywy mocowane na gwint 39 mm oraz dalmierz, pozwalający na łatwe ustawienie ostrości. Do 1933 roku wyprodukowano łącznie ponad 100 tysięcy sztuk różnych wersji. Aparaty fotograficzne stały się podstawowym produktem firmy i jej koniem pociągowym, a sukces Leiki spowodował, że szybko doczekała się wielu naśladowców.

Leica 3a, © Kameraprojekt Graz 2015 / Wikimedia Commons

Popularności formatu małoobrazkowego przyniosła jeszcze jeden wynalazek – w 1934 roku Kodak zaprezentował gotową do użytku kasetkę jednorazową, z ładunkiem taśmy małoobrazkowej wystarczającym na 36 zdjęć. Do tego bowiem momentu amatorzy nowego formatu musieli sobie radzić sami z przycinaniem i ładowaniem taśmy do aparatu.

Kasetka pasowała zarówno do aparatów marki Leica, jak i małoobrazkowych konstrukcji Contaxa, nie mówiąc o własnym modelu Kodaka, zwanym Retina, nic zatem dziwnego, że stała się standardem będącym w użytku nawet w czasach zdominowanych przez fotografię cyfrową.

Lustrzanka

W aparatach wielkoformatowych podstawową metodą nastawiania na ostrość było ustawianie obrazu na matowej szybie (matówce) umieszczonej w miejscu kasety z materiałem światłoczułym. Pojawiały się także konstrukcje zawierające elementy lustrzane, lecz były to autorskie rozwiązania producentów i nie doczekały się ani standardu, ani większej popularności. Problem kompozycji kadru i ustawienia ostrości przybrał na sile po spopularyzowaniu się średnioformatowych aparatów na błony zwojowe. W Kodak nr 1 i Kodak Brownie obiektywy w ogóle nie były nastawiane na ostrość, a naprowadzenie na cel przebiegało w sposób skrajnie prymitywny i niedokładny – służyły do tego wyrysowane na górnej części aparatu linie wskazujące na kąt widzenia obiektywu. W późniejszych aparatach skrzynkowych i mieszkowych pojawiły się proste celowniki ramkowe – wciąż niedokładne, lecz nadające się już jako tako do kadrowania – nastawianie ostrości (jeśli możliwe) przebiegało „na oko”. Obok celowników ramkowych pojawiły się celowniki przeziernikowe i lunetkowe – te ostatnie pozwalały kadrować już całkiem dokładnie, a po wyposażeniu aparatów we współpracujące z celownikami dalmierze pozwalały także na precyzyjne nastawianie ostrości.

Rolleiflex w wersji z 1960 roku, fot. Sputniktilt, CC BY-SA 3.0, via Wikimedia Commons

Próby usprawnienia kadrowania i nastawiania ostrości spowodowały powrót na początku lat 30 XX wieku do wcześniejszych koncepcji wykorzystania matówki i lustra. W 1929 roku firma Franke & Heidecke zaprezentowała pierwszy model swojej średnioformatowej lustrzanki dwuobiektywowej nazwanej Rolleiflex. W konstrukcji tego typu dolny obiektyw odpowiadał za naświetlanie filmu, a górny za rysowanie obrazu na matówce – a ponieważ były ze sobą sprzężone, ostry obraz na matówce oznaczał także ostry obraz na filmie. Format zdjęcia był kwadratowy, aparat trzymało się na wysokości brzucha i patrzyło z góry na odwrócony stronami obraz na matówce.

Lustrzanki dwuobiektywowe były proste w konstrukcji, oferowały dobrą jakość zdjęć i zyskały znaczną popularność, lecz miały także wady. Podobnie jak aparaty z celownikami lunetkowymi były podatne na błąd paralaksy – im fotografowany obiekt był bliżej aparatu, tym bardziej to, co było widać w lunetce lub na matówce lustrzanki dwuobiektywowej, różniło się od tego, co znajdowało się na zdjęciu. Drugą wadą był brak wymienności obiektywów, a zatem ograniczenie do jednej ogniskowej przewidzianej przez producenta.

Wad tych nie miały konstrukcje z pojedynczym obiektywem – pierwszą lustrzanką tego typu była zaprezentowana w 1933 roku średnioformatowa Exakta, produkcji niemieckich zakładów Ihagee Kamerawerk. W przeciwieństwie do Rolleiflexa do celowania służył ten sam obiektyw, który używany był do naświetlania filmu. Za rzutowanie obrazu na matówkę odpowiadało ruchome lustro, które było automatycznie podnoszone w momencie wyzwalania migawki by przepuścić światło na film, a później opuszczane po ponownym naciągnięciu migawki. W późniejszych modelach stosowane było już lustro samopowrotne, opadające po naświetleniu filmu.

Kine Exacta, 1936, fot. Hans-Peter Scholz, CC BY-SA 3.0, via Wikimedia Commons

Pokerowym zagraniem okazało się jednak wyprodukowanie aparatu Kine Exakta, który był pierwszą lustrzanką jednoobiektywową przeznaczoną do pracy z filmem małoobrazkowym. Kine Exakta i jej małoobrazkowi następcy byli najpoważniejszymi konkurentami wywodzących się z Leiki aparatów dalmierzowych, systematycznie jednak zdobywając przewagę, by ostatecznie u schyłku fotografii analogowej zepchnąć dalmierz do rozwiązań niszowych. Ale po drodze była jeszcze II wojna światowa i następująca po niej zimna wojna.

Samuraj i Żelazna Kurtyna

Skala zniszczeń w powojennej Europie była ogromna. Podział Niemiec doprowadził w oczywisty sposób do podziału także tego, co pozostało z przemysłu optycznego. W części wschodniej do tego doszła ogromna skala rabunku – bez wahania wywożono do ZSRR co tylko się dało: plany, technologie, prototypy, zapasy szkła optycznego, a także ludzi, którzy wiedzieli, co z tym zrobić. Nic zatem dziwnego, że gdy przyszło do powojennej odbudowy, część zachodnia (potraktowana w znacznie mniej rabunkowy sposób) wyszła na prostą szybciej. Zachód miał Contaxa i Leicę, wschód kombinat Pentacon, który wchłonął Exaktę, Practiflexa i Zeissa. U nas jednak dominował sprzęt z ZSRR – głównie mniej lub bardziej udane kopie produktów zachodnich.

Zorkij 4, fot. Adam Śmiałek, Towary światłoczułe nr 4

I tak z dalmierzowych aparatów Leica wywodziły się serie aparatów FED i Zorkij („Byliśmy ostatnio z żoną, proszę pana, w Hali Mirowskiej, gdzie ja miałem aparat Zorka 5. I zrobiłem kilka zdjęć”). Z tych konstrukcji powstały później popularne lustrzanki Zenit.

Pentacon Six TL, fot. Adam Śmiałek, Towary światłoczułe nr 35

Pod nazwą Kiev produkowane były radzieckie kopie Contaxa i Pentacon Sixa, ale nie tylko, gdyż w późniejszym okresie skopiowania doczekał się także szwedzki Hasselblad. Jakość odbiegała dość znacznie od pierwowzorów (a nawet od produkcji wschodnioniemieckiej), ale mimo to Zorkij, FED i Kiev i tak były przedmiotami pożądania bardziej wymagających fotografów.  

FED 5s, fot. Adam Śmiałek, Towary światłoczułe nr 32

Powstawało także sporo aparatów najprostszych, przeznaczonych dla typowych amatorów. Polski Druch, Ami 1 i 2, radzieckie Smieny, Wilie, Czajki – od Smieny i Wilii zaczynał swoją przygodę niejeden młody człowiek, także autor tego tekstu. Zaletą tych aparatów była prosta konstrukcja, niezawodność i dostępność. Smiena 8 i 8m dzierżą do dziś rekord Guinnesa, jeśli chodzi o liczbę sprzedanych egzemplarzy – powstało ponad 21 mln sztuk

Smiena, fot. Adam Śmiałek, Towary modne nr 22

Prawdziwy cios europejskiej dominacji na rynku sprzętu fotograficznego przyszedł jednak z dalekiego wschodu. Powojenna Japonia nie mogła posiadać armii, ale miała spory potencjał odbudowującego się przemysłu i nic dziwnego, że wiele firm zdecydowało się na wejście na rynek aparatów fotograficznych. Początkowo także były to urządzenia wzorowane na rozwiązaniach europejskich, ale w niedługim czasie japońska pomysłowość i pracowitość pozwoliły na wyjście na prowadzenie.

Practica BX20 z nietypowym obiektywem Practicar AF 55-200, fot. Adam Śmiałek, Towary światłoczułe nr 12

Asashi Pentax, Minolta, Fuji, Konica, Mamiya, Olympus, Nikon, Canon – aparaty tych producentów można było zobaczyć zarówno w rękach amatorów, jak i profesjonalnych fotografów. Kiedy doszło do pierwszego przejęcia europejskiego potentata przez Japończyków nikt chyba nie miał złudzeń, co dalej nastąpi. Ostatecznym dowodem zdobytej przewagi było całkowite skomputeryzowanie przez Japończyków lustrzanki – jako pierwsza Minolta Maxxum/Dynax miała sprawny autofocus, automatyczne programy naświetlania sprzężone z pomiarem światła, programy tematyczne i tak dalej, ale wkrótce podobny sprzęt zaoferowali także inni japońscy producenci.

Minolta Dynax 7000i, fot. Granada, CC BY-SA 4.0 via Wikimedia Commons

W tych aparatach właściwie ostatnim analogowym elementem była taśma filmowa. Dalsze udoskonalenia wiązały się zatem z początkiem ery fotografii cyfrowej, lecz zanim do tego doszło nastąpił ostatni akt – pojawienie się w pełni zautomatyzowanych, aparatów kompaktowych, wśród których były zarówno modele o sporym zaawansowaniu, jak i nie różniące się specjalnie koncepcją od pierwszych pomysłów George’a Eastmana.

Olympus OM-2, fot. Adam Śmiałek, Towary światłoczułe nr 31

Srebro i krzem

W kolejnym rozdziale zostawię na jakiś czas kwestie sprzętowe i ponownie cofnę się w czasie do początków, by opowiedzieć trochę o samym medium, czyli emulsji światłoczułej. Jej skład i właściwości były bowiem równie ważne dla sukcesu fotografii, jak udoskonalenia optyki i konstrukcji aparatów.

Sensybilizacja – emulsja panchromatyczna

Poza pierwszymi eksperymentami Niépce, sole srebra były podstawą wszelkich prac związanych z utrwalaniem obrazu, jednak dokładny skład emulsji światłoczułej z upływem lat ulegał ogromnym zmianom. Początkowe materiały czułe były przede wszystkim na światło niebieskie i jedynie w niewielkim stopniu na zielone. Zdjęcia wykonane za ich pomocą nie miały wiele wspólnego z prawdziwością tonalną – odcienie nieba były bardzo jasne, a skóra, usta były nieproporcjonalnie ciemne lub w ogóle smoliście czarne. Zdjęcia najlepiej wychodziły w ostrym słońcu, bogatym w składową niebieską, a światło sztuczne było właściwie bezużyteczne. Nic zatem dziwnego, że szybko rozpoczęto poszukiwanie sposobów na poprawne odwzorowanie innych części widma. Ojcem sukcesu został niemiecki fotochemik Hermann Wilhelm Vogel – odkrył on w 1873 roku, że barwniki organiczne dodane do emulsji pochłaniają daną długość światła, a następnie oddają energię solom srebra. Dodatek zieleni aldehydowej lub metylowej pozwolił uzyskać materiały, które reagowały także na całą zieloną część widma. Dalsze pracy przyniosły kolejne sukcesy – Vogel za pomocą cyjaniny i czerwieni chinolinowej zdołał rozciągnąć czułość emulsji aż do pomarańczowej części widma. W 1884 roku dzięki jego pracom powstała dostępna komercyjnie, uczulana erytrozyną emulsja reagująca na wszystkie barwy poza czerwoną – materiały światłoczułe tego typu zwane były ortochromatycznymi, lecz wciąż cechowały się przeczuleniem na światło niebieskie.

Reklama filmu panchromatycznego Kodaka z 1932 roku, Jussi

Eksperymenty Vogla z cyjaninami pozwoliły także uzyskać pierwsze emulsje czułe na wszystkie barwy, czyli panchromatyczne – jednak dopiero w 1900 roku, dwa lata po jego śmierci, prace nad stabilnymi materiałami panchromatycznymi zakończyły się sukcesem. Typowa emulsja panchromatyczna cechowała się nadmierną czułością na barwę niebieską i fiolet, poprawną na odcienie zieleni i żółci oraz nadmierną na czerwień – dla uzyskania pożądanego odwzorowania odcieni fotografowie posługiwali się filtrami barwnymi.

Tolkmicko, port, fot. Jan Bułhak, 1949, Polona.pl

Błony i filmy panchromatyczne stały się szerzej dostępne w 1906 roku, lecz były znacznie droższe od ortochromatycznych, wymagały też trudniejszej obróbki, wykonywanej całkowicie bez dostępu światła, dość długo zatem koegzystowały na rynku. Na bazie emulsji panchromatycznych powstały także wersje mniej czułe na czerwień (ortopanchromatyczne) oraz z dodatkowo podwyższoną czułością na czerwień i podczerwień (superpanchromatyczne) – te ostatnie znakomicie sprawdzały się przy świetle sztucznym.

Żniwa, wieś Rekowo koło Bytowa, fot. Jan Bułhak, 1949, Polona.pl

Autochrom

Najstarszą techniką uzyskiwania koloru w fotografii było fotografowanie na błonie monochromatycznej z użyciem filtrów barwnych w barwach podstawowych. Zdjęcia wykonywane były albo sekwencyjnie albo z wykorzystaniem układu luster półprzepuszczalnych. Efekty były dość dobre, ale nie można było uzyskać za ich pomocą kolorowych odbitek – nadawała się natomiast do druku barwnego, eksperymentowano także z jej użyciem w sztuce filmowej.

Pierwszą praktyczną metodę fotografowania w kolorze zawdzięczamy braciom Lumière. W 1903 opatentowali oni (opierając się na wcześniejszych pracach Louisa Ducosa du Haurona) proces addytywny, w którym wykorzystywano emulsję panchromatyczną pokrytą rastrem ze skrobi ziemniaczanej z dodatkiem barwników w kolorze pomarańczowym, zielonym i fioletowym, które odfiltrowywały światło o określonych długościach fali. Aby uzyskać fotografie prawidłowe tonalnie należało dodatkowo użyć filtru pomarańczowo-żółtego, redukującego efekt przeczulenia emulsji panchromatycznych w górnej części pasma widzialnego.

Christina w czerwieni, fot. Mervyn O’Gorman, autochrom, 1913

Naświetloną płytę obrabiano w procesie odwracalnym, uzyskiwano w ten sposób diapozytyw, który można było oglądać za pomocą diaskopu lub lampy projekcyjnej. W 1907 roku autochrom został zaprezentowany komercyjnie.

Materiały autochromowe początkowo dostępne były wyłącznie na płytach szklanych, do tego cechowały się bardzo niską czułością, wymuszającą nawet kilkusekundowe czasy ekspozycji – wymuszały zatem użycie statywu i nie nadawały się zupełnie do fotografii obiektów ruchomych. Nie były też łatwe w prezentacji – uzyskane diapozytywy były bardzo ciemne i wymagały mocnego światła i odpowiednich warunków do prezentacji. Wersję na błonach zwojowych zaprezentowano dopiero w 1931 roku, pod nazwą Lumière Filmcolor, a dwa lata później w udoskonalonej wersji Lumicolor. Stało się to jednak w momencie, gdy Kodak i Agfa przygotowywały się już do zaprezentowania zupełnie nowego typu materiałów kolorowych. Mimo spadającej popularności autochrom miał grono wiernych zwolenników – w 1952 roku wprowadzono do sprzedaży ostatni materiał autochromowy Alticolor, który był produkowany do 1955 roku, a pojedyncze, mocno przeterminowane egzemplarze tego materiału, naświetlano już w XXI wieku.

Kodachrome

Pierwszym nowoczesnym filmem kolorowym był zaprezentowany przez Kodaka w 1935 roku Kodachrome. Opracowany został przez Leopolda Godowsiego Jr. i Leopolda Mannesa, przy nieoficjalnym początkowo wsparciu szefa naukowego Kodaka, Kennetha Meesa. Badania rozpoczęli w 1917 roku, a w 1924 roku opatentowali proces dwukolorowy, jednak do komercyjnego produktu droga była daleka. W 1929 roku zaprzestali prac na własny rachunek, zostając oficjalnie współpracownikami Kodaka. Nadający się do komercyjnego użycia dwuwarstwowy wariant Kodachrome zdołali (nie bez problemów) zaprezentować w 1934 roku, jednak zanim produkt trafił do sprzedaży wynalazcy zdołali pokonać problemy i zaprezentować w 1935 roku wariant trójkolorowy.

Kodachrome był to – jako się rzekło – materiał światłoczuły trójwarstwowy, diapozytywowy, w którym kolejne warstwy światłoczułe przedzielone były filtrami barw podstawowych – nie wykorzystywał on zatem znanego z autochromu rastra i działał w modelu substraktywnym. Kolejne warstwy nie zawierały składników pigmentów barwnych – te były wprowadzane dopiero podczas wywoływania filmów. Proces był skomplikowany, wymagał ściśle kontrolowanych warunków laboratoryjnych, wymagane było też naświetlanie pośrednie – był zatem całkowicie poza zasięgiem amatorów. Kodak sprzedawał zatem filmy Kodachrome wyłącznie z usługą wywołania w cenie. W 1939 roku opracowany został także proces umożliwiający uzyskanie na bazie Kodachrome negatywu w barwach dopełniających.

Afgańska dziewczyna, fot. Steve McCurry, zdjęcie na materiale Kodachrome 64, 1984

Jakość zdjęć uzyskanych za pomocą Kodachrome była znakomita, a reprodukcja kolorów tak charakterystyczna, że długo materiały kolorowe innych typów nie były w stanie mu dorównać. Kodachrome był wybierany przez filmowców i fotografów do najtrudniejszych zadań. Zarówno filmy, jak i procesy obróbki, były nieustannie udoskonalane, jednak wzrost jakości filmów kolorowych wywoływanych w mniej wymagających procesach ograniczył zapotrzebowanie na Ektachrome. Wraz z rozwojem fotografii cyfrowej spowodowało to, że w 2009 roku produkcja została wstrzymana, a 14 lipca 2010 ostatnie działające laboratorium przetworzyło ostatnią rolkę filmu, należącą do fotografa National Geographic, Steve’a McCurry, definitywnie kończąc historię Kodachrome.

Ektachrome i Kodacolor

Mimo doskonałej jakości obrazu filmów Kodachrome wysoka cena i wymagający proces obróbki ograniczyły ich użycie głównie do zastosowań profesjonalnych. Amatorzy potrzebowali znacznie prostszego procesu, możliwego do przeprowadzenia we własnym zakresie. Pionierem nowego rodzaju filmów, zawierającego niezbędne barwniki w kolejnych warstwach światłoczułych była Agfa z materiałem Agfacolor, lecz początkowo był on dostępny wyłącznie do celów filmowych, zadanie wprowadzenia kolorowej fotografii „pod strzechy” spadło zatem ponownie na Kodaka – w 1940 firma zaprezentowała film diapozytywowy Ektachrome, a dwa lata później, w 1942 roku negatywowy Kodacolor. Oba różniły się od Kodachrome tym, że składniki barwników stanowiły w nich część emulsji kolejnych warstw światłoczułych – naświetlony film mógł być zatem wywoływany w jednym przebiegu. Procedura wciąż była dość skomplikowana i wymagała ścisłego utrzymywania temperatur, lecz mógł ją wykonać bardziej zaawansowany amator. Z upływem lat pojawiły się filmy o jakości dorównującej lub przewyższającej profesjonalny Kodachrome, lecz o większej czułości. Fujifilm Velvia ze względu na unikalne odwzorowanie kolorów stał się filmem niemal wzorcowym dla fotografów krajobrazu.

Taj Mahal, Perfection Defined, fot. Ron Sterling, 1982, zdjęcie na materiale Ektachrome, CC BY-SA 4.0, via Wikimedia Commons

Przez kolejne lata wymyślone na potrzeby Ektachrome i Kodakolor metody obróbki były wielokrotnie udoskonalane, zostały także przyjęte przez innych producentów (Fujifilm, Agfa) materiałów światłoczułych. Ostateczną formę przyjęły w postaci procesu diapozytywowego E-6 i negatywowego C-41. Oba doskonale się automatyzowały i u schyłku XX wieku zintegrowane maszyny – minilaby, można było znaleźć niemal na każdym kroku. Koniec ich popularności przyniosła dopiero fotografia cyfrowa, lecz filmy kolorowe wywoływane w procesach C-41 i E-6 są wciąż produkowane i znajdują nabywców.

Koncepcje rastrowych i warstwowych materiałów światłoczułych znalazły swoje odzwierciedlenie także w erze cyfrowej – autochrom przypominają dzisiejsze matryce, które posiadają piksele przykryte regularnym rastrem filtrów barw podstawowych w układzie Bayera – pełna informacja o kolorze punktu jest interpolowana na podstawie danych z sąsiednich pikseli. Stosowana przez Sigmę matryca Foveon X3 składa się natomiast z trzech kolejnych warstw światłoczułych, rozdzielonych filtrami i pracuje analogicznie do klasycznych filmów barwnych. Nie zyskała jednak popularności i poza aparatami Sigmy nie była stosowana.

Elektroniczne rejestrowanie obrazu

Pierwszy „aparat cyfrowy” Kodaka, 1975

Próby zaprzęgnięcia elektroniki do zapisu obrazu statycznego są tak stare, jak telewizja i poniekąd to właśnie to medium jest za nie odpowiedzialne – dlatego też pierwsze urządzenia zbudowane były w oparciu o telewizyjną lampę obrazową i rejestrowały obraz analogowo na taśmach. Wartość praktyczna takich rozwiązań była żadna, podobnie jak jakość „zdjęć”. W 1969 roku firma Bell Laboratories wynalazła matrycę CCD, a w 1975 roku Kodak na bazie detektora CCD zbudował maszynę zdolną do rejestrowania monochromatycznego obrazu o rozdzielczości 100 x 100 pikseli. Duże i ciężkie urządzenie zapisywało zdjęcia analogowo na taśmie magnetycznej (trwało to ponad 20 sekund na jeden obraz) i właściwie trudno je nazywać aparatem fotograficznym, lecz stało się prekursorem dla innych.

Sony Mavica z 1981 roku, fot. Morio, CC BY-SA 3.0, via Wikimedia Commons

Pierwszym elektronicznym aparatem fotograficznym z prawdziwego zdarzenia była Sony Mavica. Zaprezentowana w 1981 roku wykorzystywała matrycę CCD o rozdzielczości 570 x 490 punktów i rejestrowała obraz na dyskietkach, lecz nie był to aparat cyfrowy – zarówno odczyt matrycy jak i zapis przebiegał analogowo i z technicznego punktu widzenia Mavice bliżej było do magnetowidu, tylko z dyskietką jako nośnikiem. Mavica ukazała się w chwili największej potęgi klasycznej fotografii analogowej i nie miała szans, na poważne zaistnienie na rynku, jednak nie przeszkodziło to producentom w prowadzeniu eksperymentów.

Narodziny aparatu cyfrowego

Pierwsze prawdziwe konsumenckie aparaty cyfrowe zostały stworzone przez producentów zupełnie niezwiązanych z klasyczną fotografią, lecz kojarzonych z komputerami i akcesoriami do nich. Pionierem została firmy Dycam, która w 1991 roku zaprezentowała model Dycam model 1, licencjonowany później dla Logitecha i znany także pod nazwą Logitech Fotoman. Aparat posiadał monochromatyczną matrycę CCD o rozdzielczości 376 x 240 punktów (w późniejszych wersjach 376 x 284) i czułości ISO 200, obiektyw o ekwiwalencie ogniskowej 55 mm i jasności f/4.5, migawkę pracującą w zakresie 1/25 s – 1/1000 s i rejestrował obraz w 256 odcieniach szarości w wewnętrznej, podtrzymywanej bateryjnie pamięci o pojemności 1 MB. Mimo wycelowania w użytkowników biznesowych (ubezpieczyciele, rzeczoznawcy) niewielkie możliwości i wysoka cena spowodowały, że Fotoman pozostał tylko ciekawostką.

Logitech FotoMan, fot. Rama, CC BY-SA 3.0 FR, via Wikimedia Commons

Kolejna próba wprowadzenia aparatu cyfrowego na rynek popularny należała do firmy Apple. W 1994 zaprezentowała ona aparat QuickTake 100, wyposażony w matrycę 640 x 480 z filtrem Bayera, więc zdolny do rejestrowania obrazu kolorowego. Wbudowana pamięć flash wystarczała na przechowanie zaledwie 8 zdjęć w pełnej rozdzielczości lub 32 zdjęć 320 x 240 pikseli. Do współpracy z aparatem niezbędny był komputer Macintosh. Wprowadzony rok później model QuickTake 150 zapisywał już zdjęcia w bardziej standardowy sposób (m.in. jako JPG) i potrafił współpracować także z systemem Windows. Apple zaoferował do niego także soczewkę do makrofotografii.

Apple QuickTake 100, fot. Carl Berkeley

Trzeci z aparatów Apple, QuickTake 200 z 1997 roku, był już znacznie bardziej klasyczną konstrukcją, przypominającą analogowy aparat kompaktowy. W istocie nie był to produkt Apple, tylko przebrandowany Fuji DS-7 (który był zresztą dostępny także jako Samsung Kenox SSC-350N). Aparat wciąż pracował z rozdzielczością 640 x 480 pikseli, lecz mógł zapisywać zdjęcia na karcie SmartMedia, pracującej z napięciem 5 V.  Wbudowany obiektyw miał jasność f/2.2, z dostępną dodatkową przysłoną f/8 i mógł być nastawiany na ostrość w trzech zakresach. Kadrowanie było możliwe za pomocą wyświetlacza LCD o przekątnej 1,8 cala.

Apple QuickTake 200, fot. Adafruit Industries

Apple nie odniósł sukcesu ze swoimi aparatami cyfrowymi. W tym czasie zresztą firma w ogóle była w dużym kryzysie i jej przyszłość nie malowała się w jasnych barwach. Po powrocie Steve’a Jobsa na stanowisko CEO Apple’a nierokujące produkty zostały usunięte z portfolio firmy. Nie zakończyło to zupełnie przygody Apple z fotografią, lecz powrót nastąpił w zupełnie innej epoce.

Początek popularności

Tymczasem analogowi potentaci nie spieszyli się specjalnie z wdrażaniem nowych rozwiązań – po co, skoro ich portfolio sprzętu analogowego miało się znakomicie? W rezultacie pierwsze modele lustrzanek cyfrowych Nikona powstawały w kooperacji z Fuji – w 1994 roku Do oferty trafił pierwszy z modeli rodziny E2, a w 1999 roku E3. Były to dziwne konstrukcje – korzystały z pełnoklatkowych obiektywów systemowych Nikona, miały jednak niedużą 2/3” matrycę CCD o rozdzielczości 1,3 Mpix. Obraz z obiektywu był kompresowany optycznie na potrzeby matrycy za pomocą tzw. Reduction Optical System, zatem obiektyw 50 mm miał pole widzenia takie samo, jak dla pełnej klatki, jednak znacznie degradowało jasność i jakość obrazu.

NIkon E2S, fot. Morio, CC BY-SA 4.0, via Wikimedia Commons

Pierwszą własną konstrukcję Nikon wprowadził do oferty w 1999 roku – była to profesjonalna lustrzanka D1, wyposażona w matrycę APS-C o oszałamiającej wtedy rozdzielczości 2,74 Mpix. Dugi z japońskich potentatów, Canon, odpowiedział rok później półprofesjonalnym modelem EOS D30, który posiadał już rozdzielczość 3,25 Mpix i matrycę APS-C typu CMOS. Oba aparaty zyskały znaczną popularność i w praktyce od nich zaczął się powolny odwrót od fotografii analogowej. Wtedy pojawiły się pierwsze rzeczywiście popularne cyfrowe aparaty kompaktowe i miało miejsce wydarzenie, które początkowo zupełnie nie zwróciło uwagi świata – na japońskim rynku pojawił się po raz pierwszy telefon, wyposażony w zintegrowany aparat fotograficzny 110 kpix – Sharp J-SH04.

Nikon D1, fot. Ashley Pomeroy, CC BY 3.0, via Wikimedia Commons

Zarówno matryca CCD jak i CMOS były w tym czasie układami już dobrze opracowanymi, jednak dalekimi od doskonałości. Podstawowym problemem była stosunkowo niewielka powierzchnia punktu światłoczułego (sensela) w porównaniu do położonych na tym samym poziomie ścieżek służących do jego obsługi. Znaczna ilość światła skupionego przez obiektyw zatem się marnowała, nie rysując obrazu. W 2000 roku pojawiło się rozwiązanie w postaci warstwy mikrosoczewek umieszczonych przed sensorem, które kierowały światło z całej powierzchni do senseli. Znacznie poprawiło to sprawność układów i pozwoliło to na budowanie gęstszych matryc bez drastycznego pogorszenia czułości i wzrostu poziomu szumów.

Canon D30, fot. Morio, CC BY-SA 3.0, via Wikimedia Commons

Wspomniany wyżej EOS D30 posiadając matrycę APS-C starego typu miał rozdzielczość 3,25 Mpix i był uważany za szczyt techniki. Tymczasem zaawansowany kompakt Sony DSC-F707 zaprezentowany rok później mimo zmniejszenia matrycy CCD do 2/3” miał już 5 Mpix, a przeznaczony dla zupełnych amatorów prosty Canon PowerShot S40 miał jeszcze mniejszy układ CCD 1/1,8” o rozdzielczości 4 Mpix.

Canon PowerShot S40, Magnus Manske, CC BY-SA 3.0, via Wikimedia Commons

Niemal z dnia na dzień liczba megapikseli i w drugiej kolejności krotność zoomu stały się głównymi cechami marketingowymi, podkreślanymi wielkimi literami i cyframi w folderach i reklamach aparatów fotograficznych. Producenci sprzętu licytowali się kto umieści gęstszą matrycę – przy czym im dłużej wojna megapikselowa trwała, tym bardziej widać było, że zwycięzców w niej nie będzie – kolejne układy były coraz mniejsze, miały coraz więcej Mpix i coraz gorszą jakość obrazu – marketing nie odwoływał praw fizyki i małe piksele produkowały ogromne ilości szumów własnych. Zdjęcia wymagały zatem agresywnego odszumiania, w którym ginęły nie tylko szumy, ale też drobne szczegóły obrazu – efekty coraz bardziej przypominały raczej obrazy impresjonistów niż normalną fotografię.

Klienci dawali się nabierać na to dość długo, lecz jak każda rozdymająca się bańka także i ta miała swoje granice i zawiedzeni marną jakością zdjęć użytkownicy zaczęli się zwracać ku taniejącym lustrzankom cyfrowym, wśród których zaczęły pojawiać się urządzenia amatorskie, takie jak Nikon D40 z listopada 2006 roku. Model ten miał matrycę APS-C o rozdzielczości zaledwie 6 Mpix, lecz cechował się bardzo dobrą jakością obrazu jak na owe czasy, zupełnie nieporównywalną z dowolnym kompaktem. Uproszczony korpus lustrzanki nie posiadał napędu dla obiektywów starszego typu i miał uproszczony (acz bardzo sprawny) układ autofocus – pozwoliło to na sprzedaż aparatu w bardzo korzystnej cenie i zaowocowało niezwykłą popularnością D40, który przy tym okazał się sprzętem długowiecznym.

Nikon D40, Phiarc, CC BY-SA 3.0, via Wikimedia Commons

Wojny megapikselowe nie ominęły też lustrzanek, ale nigdy nie przybrały form tak drastycznych. Sensory o dużych rozmiarach okazały się bardziej odporne na zagęszczanie, a przy tym użytkownicy DSLR byli też trochę bardziej świadomi i odporniejsi na marketing. Zaprezentowany przez Canona w reporterskim modelu EOS 7D sensor CMOS 18,1 Mpix okazał się średnio udany, lecz na długo stał się rekordzistą i po zastosowaniu pewnych uproszczeń konstrukcyjnych i modyfikacji trafił także do prostszych modeli amatorskich. Ku zdumieniu autora w 2022 roku, zatem po upływie 13 lat, Canon wciąż ma w ofercie lustrzankę amatorską opartą o ten sensor.

Skrajny przykład wojny megapikselowej można natomiast zobaczyć w smartfonach. Sensor Samsung ISOCELL HP3 zaprezentowany 23 czerwca 2022 roku posiada rozdzielczość 200 Mpix przy wielkości matrycy 1/1,4”. Pojedynczy sensel ma rozmiar 0,64 μm i taka gęstość sensora pozostaje daleko poza możliwościami rozdzielczymi optyki montowanej w smartfonach. Matryca zatem domyślnie łączy 4 lub 16 senseli w jeden punkt obrazu, oferując rozdzielczość 50 Mpix (także poza rozdzielczością optyczną obiektywów) lub 12,5 Mpix. Sprawność HP3 dopiero przyjdzie ocenić, lecz póki co takie gęste matryce, bardzo zależne od oprogramowania, niekoniecznie sprawdzają się lepiej od klasycznych.

Na co komu lustro

Lustrzanki były podstawowym typem sprzętu profesjonalnego i zyskały także ogromną popularność w segmencie amatorskim i półprofesjonalnym. Ze względu na komorę lustra i rozmiar optyki były to jednak aparaty o znacznych gabarytach, do tego mechanicznie dość skomplikowane. Lustro półprzepuszczalne było niezbędne do działania układu fazowego autofocusa i wziąwszy pod uwagę kiepską sprawność znanych z kompaktów układów opartych o detekcję kontrastu wydawało się, że nie ma sposobu na jego usunięcie bez znacznego upośledzenia sprawności aparatów.

Leica M8, Hannes Grobe, CC BY 3.0, via Wikimedia Commons

Dlatego jako pierwszy cyfrowy aparat z wymienną optyką (tzw. systemowy) zadebiutowała Leica modelem M8 – był to aparat dalmierzowy, z całkowicie manualnym nastawianiem ostrości i w żaden sposób nie rywalizował z lustrzankami jakiegokolwiek segmentu. Jego cena także była odległa od amatorskich, zyskał jednak niejaką popularność wśród profesjonalistów, poszukujących sprzętu małego, niemal kieszonkowego, bez jakościowych kompromisów. Następca, model M9 z 2009 roku posiadał już matrycę pełnoklatkową i był jeszcze droższy.

W 2008 roku premierę miał system M4/3, opracowany wspólnie przez Panasonica i Olympusa. Założeniem było stworzenie aparatów opartych o matrycę 4/3 (17,3 mm × 13,0 mm), pozbawionych lustra, lecz wyposażonych w AF. Mniejszy rozmiar matrycy od APS-C pozwolił także na zmniejszenie rozmiarów optyki.

Panasonic Lumix DMC-G1, Brett Jordan, CC BY 2.0, via Wikimedia Commons

Pierwszym bezlusterkowcem m4/3 był Panasonic Lumix G1. Do nastawiania ostrości wykorzystywany był układ detekcji kontrastu, który w udoskonalonej formie okazał się nieznacznie tylko wolniejszy od stosowanych w lustrzankach układów detekcji fazy. Korpus przypominał pomniejszoną lustrzankę i dysponował elektronicznym wizjerem zastępującym matówkę i pryzmat. Olympus natomiast wzorował się na aparatach analogowych PEN. Pierwszy aparat tego typu – Olympus PEN E-P1 – był wielkości dużego kompaktu i w ogóle nie miał wizjera – do kadrowania służył sporych rozmiarów wyświetlacz na tylnej ściance lub montowany w stopce lampy błyskowej celownik lunetkowy. E-P1 wraz ze składanym obiektywem kitowym lub naleśnikiem 17 mm okazał się aparatem niemal kieszonkowym, a jego stylowy wygląd został doceniony i zyskał mu niemałą popularność.

Olympus PEN E-P1, Julien Min GONG from Beijing, China, CC BY 2.0, via Wikimedia Commons

Wkrótce eksperymenty z bezlusterkowcami, zwanymi także wdzięcznie EVIL (Electronic Viewfinder, Interchangeable Lens) lub MILC (Mirrorless Interchangeable Lens Camera) prowadziło większość producentów. Sony zaprezentował swój system E i aparaty NEX w 2010 roku, w 2012 roku na rynek EVIL wszedł Fujifilm z bagnetem X i aparatem X-Pro. Nikon udany bezlusterkowiec pokazał dopiero w 2018 roku, ale od razu z sensorem pełnoklatkowym. Canon ma dwa systemy, pochodzący z 2012 roku M i R z 2018 roku.

Nie każdy eksperyment okazał się sukcesem. Na śmietnik historii trafiły pierwsze próby Nikona (Nikon 1), Pentaxa (Q), Samsunga (NX). Canon z systemem M osiągnął ograniczony sukces i wziąwszy pod uwagę premierę w 2022 roku aparatów APS-C z bagnetem R jego przyszłość jest wątpliwa.

Sony a6300, fot. Andrzej Libiszewski

Aparaty EVIL początkowo nie były postrzegane jako realna konkurencja dla lustrzanek. Wolniejsze i mniej doskonałe działanie autofocusu, wizjery elektroniczne, które cechowały się znacznymi opóźnieniami, większe zużycie energii wymuszone pracującą cały czas matrycą i wyświetlaczami wywoływały delikatne uśmiechy politowania. Do czasu wszakże – rozwój układów elektronicznych rychło pozwolił na zbudowanie szybko działających wyświetlaczy, a wynalezienie matryc z punktami detekcji fazy pozwoliło na zbudowanie działającego PDAF bez lustra. A bezlusterkowce miały też ewidentne zalety – mniejsza odległość bagnetu od matrycy pozwoliła na bezproblemowe skonstruowanie adapterów pozwalających na użycie nawet najbardziej egzotycznych manualnych szkieł z epoki analogowej lub nawet współczesnych obiektywów z lustrzanek innych producentów.

OM-System OM-1, zdjęcie producenta

Rozwój aparatów bezlusterkowych przebiegał trochę na zasadzie nogi wciśniętej między drzwi i dziś, w połowie 2022 roku los lustrzanek wydaje się przesądzony – szczególnie w segmencie amatorskim. Nie odejdą na pewno szybko, lecz producenci w widoczny sposób przestawili się na rozwój aparatów EVIL i przeznaczonego dla nich osprzętu. Znakiem dalszych zmian wydaje się być premiera najnowszego OM System OM-1, który łączy aparaty EVIL z technologiami i algorytmami fotografii obliczeniowej.

Telefon i aparat

Chociaż japońska premiera Sharpa J-SH04 w 2000 roku przeszła właściwie bez echa (szczególnie w Europie), to próby pożenienia telefonu i aparatu fotograficznego trwały w najlepsze. Przez dłuższy czas trwało jednak poszukiwanie koncepcji jak ma taki związek wyglądać – nie było wcale oczywiste, że aparat ma być integralną częścią terminali, szczególnie jeśli uwzględni się ówczesny trend do miniaturyzacji telefonów.

Sharp J-SH04

Do zaprezentowanego w 2002 roku Sony Ericssona T68i mógł zostać podłączony dodatkowy moduł aparatu, o rozdzielczości 640 x 480 pikseli, wielkości połowy telefonu –taki zestaw jak się łatwo domyślić nie okazał się specjalnie poręczny i w późniejszych urządzeniach nie był stosowany. Telefony, podobnie jak aparaty kompaktowe, okazały się także podatne na wyścig megapikselowy – w 2003 roku standardem stała się matryca 1 Mpix, a zaprezentowany rok później Samsung SPH-2300 miał już matrycę 3,2 Mpix, trzykrotny zoom optyczny i bardziej przypominał cyfrowy kompakt niż telefon – także rozmiarem. Idąc za ciosem w 2005 roku Samsung próbował wprowadzić na amerykański rynek model SCH-V770, który miał matrycę 7 Mpix, trzykrotny zoom optyczny. Rynek zweryfikował te próby negatywnie – telefony z dużymi, wysuwającymi się obiektywami nie były tym, czego poszukiwali klienci i oba modele pozostały ciekawostkami.

Popularność zyskały natomiast terminale z niewielkimi zintegrowanymi obiektywami stałoogniskowymi, zamontowanymi na stałe. W 2006 roku Sony Ericsson prezentuje model CyberShot K800i z matrycą 3,2 Mpix i ksenonową lampą błyskową, a rok później dwa modele: prostszy K770i z diodą doświetlającą LED i K850i, z matrycą 5 Mpix i ponownie ksenonową lampą błyskową. Wszystkie trzy trafiły do oferty polskich operatorów i zyskały dużą popularność, także dzięki dobrej jakości zdjęć. Nokia w kwietniu 2006 roku zaatakowała rynek modelem N73 – był to w zasadzie prymitywny smartfon, wyposażony w system Symbian. Część fotograficzną stanowiła matryca 3,2 Mpix i obiektyw Zeiss Tessar. Marzec 2007 roku przyniósł premierę modelu Nokia N95, także uzbrojonego w obiektyw Tessar, lecz z matrycą 5 Mpix. N95 stała się obiektem pożądania dla miłośników telefonów w Polsce i popularnym obiektem wyłudzeń.

iPhone, zdjęcie producenta

iPhone i fotografia mobilna

Czerwiec 2007 roku to czas premiery pierwszego iPhone’a. Telefon był pozbawiony klawiatury, cała obsługa została przeniesiona na dotykowy ekran i przystosowana do obsługi palcem. Technicznie urządzenie wygląda dość przeciętnie – system operacyjny jest mocno uproszczony w porównaniu choćby z Windows Mobile czy Symbianem (nie było możliwości instalacji dodatkowych aplikacji), aparat fotograficzny ma zaledwie 2 Mpix, brak transmisji HSPA – jest tylko EDGE. Ba, nie da się nawet wysłać MMSa. A jednak iPhone stał się fenomenem i zyskał ogromną popularność, nie tylko w USA, ale także w krajach, gdzie nie był oficjalnie dostępny – trzeba było kombinacji alpejskich, by w ogóle telefon zadziałał w tych warunkach nie zniechęcały fanów marki.

iPhone 3G, zdjęcie producenta

W 2008 roku debiutuje odświeżony model, zwany po prostu iPhone 3G. Jest to już prawdziwy smartfon, ma łączność HSPA, pojawił się też AppStore, z którego można było instalować dodatkowe oprogramowanie. Część fotograficzna w zasadzie nie uległa zmianie – to wciąż układ 2 MPix, bez AF i doświetlającej diody LED, wciąż nie można nagrywać filmów. iPhone 3G był dostępny w Polsce oficjalnie, za pośrednictwem operatorów sieci Orange i Era. Otwarcie systemu na zewnętrzne aplikacje i dodanie AppStore miało nieoczekiwany efekt: pojawiły się aplikacje fotograficzne niezależnych developerów i to mimo braku oficjalnego API do obsługi aparatu. W popularnym serwisie fotograficzno – społecznościowym Flickr pojawiają się grupy tematyczne wyłącznie dla osób fotografujących za pomocą iPhone’a. Na fali tej popularności wydawane są – chyba po raz pierwszy – podręczniki instruujące jak dobrze fotografować za pomocą iPhone’a i to w nich po raz pierwszy pojawia się termin iPhonografia, oznaczający tyleż technikę zdjęć, co otoczkę społecznościową.

Dotychczasowi potentaci telefoniczni patrzą na to, co zrobił Apple z niedowierzaniem i może nawet odrobiną strachu. Symbian i Windows Mobile wydają się przy iPhoneOS systemami z poprzedniej epoki, a choć dostępne urządzenia pod wieloma względami są lepsze od iPhone’a, to nie są w stanie z nim rywalizować pod względem mody i popularności. Wyzwanie rzuca natomiast Google – wraz z HTC prezentują w 2008 roku smartfon HTC Dream/G1, pracujący w oparciu o nowy system Android. G1 jest urządzeniem, które trochę nie wie, czym chce być: ma dotykowy ekran w stylu iPhone’a, ale fizyczną, wysuwaną klawiaturę. Aparat 3,2 Mpix ma AF i jest lepszy od użytego w iPhonie, cóż z tego, skoro nie ma otoczki „iPhonografii”. HTC Dream popularności nie zyskał, w przeciwieństwie do systemu, ale by pojawił się godny rywal dla iPhone’a musiało minąć jeszcze trochę czasu.

HTC Dream, zdjęcie producenta

Kolejny iPhone, 3GS z 2009 roku ma w końcu poprawiony aparat fotograficzny. Matryca 3,2 Mpix pozwala już nie tylko na zdjęcia, ale także i filmy, a obiektyw został wyposażony w końcu w AF. W tymże roku dzieje się rzecz wydawałoby się niewyobrażalna – w statystykach serwisu Flickr iPhone 3 GS staje się najpopularniejszym aparatem fotograficznym, spychając na drugie miejsce amatorską lustrzankę Canon EOS 400D. Pod koniec roku debiutuje aplikacja Hipstamatic – płatny serwis „do psucia fotek” predefiniowanymi filtrami – i z miejsca okazuje się, że takie zdjęcia podobają się użytkownikom i pozwalają się wyróżnić z tłumu zwykłych fotek.

iPhone 4 z 2010 roku to już rozpędzony walec. Jak zwykle szybszy od poprzednika, pod względem fotograficznym przynosi sensor główny 5 Mpix i przedni VGA, służący teoretycznie do rozmów w FaceTime, a praktycznie do masowego produkowania selfie. Główna matryca CMOS po raz pierwszy jest typu BSI, czyli ze ścieżkami sterującymi przeniesionymi na tył mikroukładu. Sensele mogą być większe i efektywniej wykorzystują światło, co bardzo poprawia jakość fotografii. Dioda doświetlająca umożliwiła wykonywanie zdjęć w gorszych warunkach, a nagrywane filmy mogą mieć już rozdzielczość 720p.  Hipstamaticowi wyrasta konkurent – Instagram potrafi to samo, ale nie trzeba za niego płacić i rezultat jest nieunikniony – rząd dusz przechodzi w nowe ręce.

W 2010 roku pojawia się – wreszcie – sensowna konkurencja. Motorola Milestone, HTC Desire, Google Nexus One i Samsung Galaxy S – żaden z nich pojedynczo nie ma co się mierzyć ze smartfonem Apple’a, ale w kupie to co innego. Samsung budzi szczególną furię Steve’a Jobsa, gdyż dość bezczelnie upodabnia zarówno sam telefon jak i system do swojego konkurenta – procesy o to będą trwać długo po tym, jak klienci zapomną zarówno o Galaxy S, jak i o iPhonie 4. Fotograficznie Galaxy S także mocno przypomina rywala, mając podobną matrycę i jakość zdjęć.

Autor na zdjęciu wykonanym za pomocą Samsunga Galaxy S, fot. Agnieszka Libiszewska

W 2012 roku pojawia się Instagram na Androida – pośród fanów Apple nie brak było z tego powodu patetycznych gestów, demonstracyjnego odinstalowywania aplikacji przez co bardziej wrażliwe dusze i masy złośliwych hashtagów. Serwis puchnie od zdjęć użytkowników próbujących udowodnić jakościową przepaść między ich ulubionym iPhonem a konkurencją – wszystko na próżno, użytkownicy Androida ignorują irytujące bzyczenie i robią swoje. Rozrośnięty Instagram natomiast w tym samym roku trafia w ręce Facebooka – za okrągły miliard dolarów.

W tym samym roku premierę ma tez smartfon Nokia 808 PureView. Przedziwne to urządzenie posiadało system operacyjny wywodzący się przestarzałego Symbiana, przystosowanego do obowiązującego sposobu obsługi i nie miało większych szans na wyjście z niszy, lecz aparat fotograficzny był konstrukcją niewątpliwie pionierską. Matryca o rozmiarze 1/1.2” (10,67 x 8 mm) posiadała aż 41 Mpix, a oprogramowanie aparatu pozwalało zarówno na zdjęcia z pełną rozdzielczością, jak i z łączeniem czterech pikseli w jeden. Uzyskane w ten sposób 10 Mpix posiadało niespotykaną wcześniej w smartfonach dynamikę, a użycie wycinków z sensora pozwoliło na zoom cyfrowy o nieosiągalnej do tej pory jakości. Możliwości filmowe także robiły wrażenie: FullHD z cyfrowym zoomem dobrej jakości wyróżniało Nokię 808 spośród innych urządzeń.

Nokia 808 PureView, zdjęcie producenta

Nokia 808 PureView mimo swoich możliwości była skazana od początku na porażkę. W 2012 roku jedynie najwięksi fanatycy myśleli jeszcze o Symbianie i to oprogramowanie (a raczej jego brak) stało się gwoździem do trumny tej bardzo interesującej konstrukcji. Niezrozumiała niechęć do Androida i kiepska ogólna sytuacja finansowa Nokii wpychają ją w ręce Microsoftu i nowego Windows Phone. Najwyższe modele nowych smartfonów Lumia czerpią z doświadczeń z modelem 808 – Lumia 1020 ma również ma sensor 41 Mpix (ale o rozmiarze 2/3”), współpracuje ze stabilizowanym obiektywem Zeissa i ma podobne możliwości jak pierwowzór. Sytuacja Nokii jednak dalej się pogarsza i wkrótce Microsoft całkowicie przejmuje niegdyś potężny dział mobilny Nokii. Pod nowym szyldem ukazują się dwa modele PureView, Lumia 950 i 950 XL, ale są tylko cieniem poprzedników: mała matryca 1/2,4 i 20 Mpix w rzeczywistości jest jakościową degradacją.

Obiektywem i algorytmem

Huawei P9 z 2016 roku jako pierwszy smartfon posiada dwa obiektywy 27 mm. Jedna z matryc pracuje w klasycznym układzie Bayera, druga natomiast służy wyłącznie do zdjęć monochromatycznych. Jakkolwiek interesujący, pomysł nie został doceniony przez klientów i pierwszym naprawdę popularnym smartfonem dwuobiektywowym został zaprezentowany w tym samym roku iPhone 7 Plus. Część fotograficzną stanowią dwie matryce 12 Mpix, szerokokątny stabilizowany obiektyw 28 mm f/1.8 i standardowy 56 mm f/2.8. Aparat oferował poza dwukrotnym, ściśle optycznym „zoomem” także wartości pośrednie i wyższe, wyliczane z obu matryc. Po raz pierwszy w smartfonie pojawił się tryb portretowy, działający dla ogniskowej 56 mm i programowo symulujący bokeh charakterystyczny dla jasnych obiektywów. Wraz ze zdjęciem zapisywana była informacja o głębi, co w późniejszych wersjach umożliwiło edycję już zapisanego efektu i zmianę punktu ostrości zdjęcia.

iPhone 7 Plus i iPhone 11 Pro, fot. Andrzej Libiszewski

Wkrótce większość producentów proponuje własne konstrukcje dwuobiektywowe, a w 2018 roku Huawei P20 Pro proponuje także trzeci, monochromatyczny, wraca przy tym do technik znanych z Nokii 808 PureView, gdyż główna matryca posiada sensor 41 Mpix pracujący w układzie QuadBayer. Ilość obiektywów staje się kolejnym tematem intensywnie eksploatowanym przez marketing, co prowadzi do sytuacji absurdalnych: smartfon spoza najwyższej półki ma 4 obiektywy, z tego jeden jest rzeczywiście w miarę dobry, jeden słaby, ale od biedy się do czegoś nadaje, a dwa pozostałe to najczęściej symboliczne oczko do makrofotografii tragicznej jakości i aparat do detekcji głębi, który często pełni wyłącznie rolę atrapy, gdyż nie jest do niczego wykorzystywany.

Huawei Mate 40 Pro, fot. Andrzej Libiszewski

HMD Global, po przejęciu marki Nokia podjęła próbę reanimacji smartfonów PureView. Zaprezentowany w 2019 roku model Nokia 9 PureView posiada aż 6 modułów aparatów. Smartfon wzorowany jest na koncepcyjnym aparacie Light L16 – posiadającym 16 matryc 13 Mpix, w układzie obiektywów 5 x 28mm f/2, 5 x 70 mm f/2 i 6 x 150 mm f/2.4, lecz smartfon posiada znacznie uboższy układ 5 x 12 Mpix z obiektywami 28 mm f/1.8 Zeissa i sensor ToF. Dwie matryce posiadają filtr kolorów Bayera, trzy są monochromatyczne – wynikowe zdjęcie powstaje z połączenia i przetworzenia danych zebranych ze wszystkich modułów.

Nokia 9 PureView, zdjęcie producenta

Producent obiecuje możliwość wykonywania zmian punktu ostrości w gotowych zdjęciach, wsparcie wynikowych plików RAW w Lightroomie i niesamowitą, przekraczającą 12 EV dynamikę. Niestety na obietnicach się kończy – Nokia 9 podczas robienia zdjęć pożera niesamowite ilości energii, grzeje się jak smok w letnie upały, przetwarzanie obrazu trwa bardzo długo, a co gorsza, chociaż jakość istotnie jest bardzo dobra, to niestety nie lepsza od rozwiązań konkurencji z mniej przekombinowanymi rozwiązaniami. Także zdjęcia RAW nie okazują się przełomem – dla uzyskania przekonującego efektu wymagają dość pracochłonnej obróbki. Gwoździem do trumny Nokii 9 PureView staje się tylko jedna dostępna ogniskowa, podczas gdy w innych urządzeniach standardem staje się dodatkowy obiektyw ultraszerokokątny i teleobiektyw (w wariancie minimum jeden z nich) i brak trybu nocnego. Klienci głosują portfelami i Nokia 9 zostaje tylko kosztowną ciekawostką bez praktycznego znaczenia. Jest to jednak pierwsze urządzenie, w którym dostępna jest edycja RAW wstępnie przetworzonych ekspozycji.

Fotografia mobilna staje się w coraz większym stopniu efektem obliczeń, a coraz mniej rezultatem doskonałości technicznej komponentów. Standardem dziś jest wielokrotna ekspozycja pozwalająca na redukcję szumów matrycy, zwiększenie dynamiki tonalnej i na uzyskanie zdjęć nocnych „z ręki”. Łączenie obiektywów o różnych ogniskowych i pojawienie się peryskopowych teleobiektywów pozwoliło nawet na trzydziestokrotny hybrydowy zoom dobrej jakości (oferowany jest i większy, ale już nie tak dobry).

iPhone 13 Pro, fot. Andrzej Libiszewski

Tak uzbrojony smartfon całkowicie zniszczył tanie kompakty i z dużym sukcesem podgryzł rynek prostszych bezlusterkowców i lustrzanek. W 2020 roku w iPhonie 12 Apple powraca do koncepcji z Nokii 9, czyli zapisu do formatu DNG połączenia surowych danych z matrycy z algorytmami przetwarzania obrazu – wynikowy plik można edytować jak typowy RAW w Lightroomie. iPhone pozwala na użycie ProRAW dla każdego z wbudowanych aparatów, także dla trybu nocnego. Efekty są bardzo dobre – na tyle, że dla wymagających użytkowników w 2022 roku Samsung prezentuje własne rozwiązanie tego typu, zwane Expert RAW – dostępne jako osobna aplikacja fotograficzna obok zwykłej.

Oppo Find X5 Pro powstał we współpracy z firmą Hasselblad, fot. Andrzej Libiszewski

Po wielu nieudanych próbach połączenia smartfonu i klasycznego aparatu, innowacje ze smartfonów zaczęły też „przeciekać” do większego sprzętu: bezlusterkowiec OM System OM-1 z 2022 roku posiada matrycę QuadBayer i sporo rozwiązań spotykanych dotychczas wyłącznie w smartfonach – nie próbując ich zresztą w żaden sposób udawać.

Wzajemne przenikanie się rozwiązań widać także w innych aspektach i dzisiejsze smartfony znów często poza własnym logo mają też mniej lub bardziej dyskretne drugie – partnera, będącego fotograficzną firmą z tradycjami. Oppo chlubi się partnerstwem z Hasselbladem, Sony z Zeissem. Huawei i Xaomi flirtują z Leicą. Zakres współpracy bywa bardzo różny, ale najważniejsze jest chyba to, że żadna z tych potęg nie uznaje tego za coś niewłaściwego…

Vivo X80 Pro z optyką Zeiss Tessar, fot. Andrzej Libiszewski

Technika i sztuka

Lata 2020-2022 nie były łatwe dla rynku elektroniki. Globalne zagrożenie pandemią COVID-19 doprowadziło (mniejsza o detale) do ogromnych perturbacji w dostawach układów elektronicznych, niezbędnych dla aparatów fotograficznych, kuchenek, samochodów – i w ogóle wszystkiego. Za naszą wschodnią granicą zaczęła się wojna, której globalne skutki są w tej chwili nie do przewidzenia. Jest zatem niepewność.

Wilderness, California. Afternoon Thunderstorm, Garnet Lake, fot. Ansel Adams

A tymczasem fotografia od początku towarzyszy człowiekowi we wszystkim, co robi. Od życia codziennego do wojny, od codzienności do artystycznych uniesień. Fotografia jest rzemiosłem i sztuką. Może być „pstrykactwem” bez wartości lub zamrożoną chwilą najwyższego artystycznego uniesienia. Potężne narzędzie krojenia i utrwalania rzeczywistości mamy niemal zawsze przy sobie i tylko od nas zależy, jak go użyjemy. W tym tekście może zbyt mocno skupiłem się na technicznej stronie fotografii, a przecież to trochę tak, jakby próbować napisać historię młotka – narzędzia.

Krk, Żagle w słońcu (Lato nad Adriatykiem), fot. Tadeusz Wański

Fotografia tymczasem sama jest historią i służy do jej opowiadania. Tylko od nas zależy, czy sięgniemy po nudną opowieść o urlopie wuja opowiedzianą tysiącem podobnych pstryków, czy po opowieść Ansela Adamsa o wspaniałości amerykańskich parków narodowych, Włodzimierza Puchalskiego o polskiej (i nie tylko) przyrodzie lub Jana Bułhaka o dawnej Polsce. Możemy też wreszcie sami zostać autorami…