Zaprojektowanie dobrego obiektywu w dzisiejszych czasach zdaje się być
nadzwyczaj proste - wystarczy uruchomić na potężnym komputerze potezny program
do projektowania obiektywów, wziąć z archiwów jeden z dziesiątków tysięcy
istniejących, opatentowanych projektów lub jeden z tysięcy dostępnych publicznie
i dokładnie opisanych, wpisać jego dane do komputera i kazać mu tak dobrać
parametry, żeby otrzymać najlepiej skorygowany, najlepszy obiektyw oparty o dany
schemat.
Czy rzeczywiscie jest to takie proste?
W żadnym wypadku - i wciąż najpotężniejszym narzędziem projektanta pozostaje to,
co tkwi między jego uszami. Poszczególne podstawowe rodzaje obiektywów mają
pewne charakterystyczne cechy i przypisane im wady, które można jedynie
zmniejszyć, ale nigdy - wyeliminować.
Jest jednak znacznie poważniejszy problem - sama optymalizacja. Wyobraźmy soie
komputer próbujacy tak zmieniać parametry układu, żeby powstały obiektyw miał
jak najmniejsze wady. Metodą kolejnych przybliżeń znajduje on takie krzywizny
powierzchni soczewek, ich materiały i odstępy między nimi, że wady optyczne
układu są najmniejsze z możliwych. Czy faktycznie?
Wyobraźmy sobie satelitę szukającego najwyższego wzniesienia na planecie.
Przesuwa się nad nią, cały czas mierząc czas powrotu sygnału. W pewnej chwili
czas powrotu sygnału jest najkrótszy - STOP! Czy faktycznie jest to najwyższa
góra na planecie? W tym celu musielibyśmy kazać satelicie zbadać ją całą - a na
to nie mamy czasu ani pieniędzy.
Podobnie jest z optymalizacją układu optycznego - nie wiemy czy nie da się
zmniejszyć wad optycznych jeszcze bardziej, nie wiemy czy to co znaleźliśmy
jest najkorzystniejszym układem. Tylko doświadczony projektant układów
optycznych jest być może w stanie zdecydować 'szukamy dalej' czy 'lepiej nie
będzie'. A i to nie jest pewne.
Czas pracy komputera kosztuje, jeszcze więcej kosztuje szkło optyczne,
szczególnie jego bardziej egzotyczne gatunki. Projekt, który opracuje projektant
może nie być wykonalny technicznie - choćby ze względu np. na małą tolerancję
układu na błędy wykonania. Tylko firmy sprzedające bardzo drogie obiektywy moga
sobie pozwolić na tolerancję wykonania rzędu 0.01mm w produkcji seryjnej.
Obiektyw składa się z soczewek, zakrzywiających wpadający do niego promień
światła w określony sposób, zależny od współczynnika załamania szkła, z którego
te soczewki są zrobione, ich krzywizn i wzajemnych odległości. Stosując proste
zasady optyki geometrycznej ze szkoly podstawowej, można wykreślic drogę takiego
promienia światła z łatwościa. Czyżby projektowanie obiektywu było naprawdę
takie proste? Bynajmniej.
Każde punktowe źródło światła emituje we wszystkich kierunkach kwanty energii
- fotony. Tylko część tej energii trafia do obiektywu. Projektant obiektywu
upraszcza istniejącą sytuację, traktując wszystkie promienie które wpadły do
obiektywu jako skończoną liczbę promieni świetlnych i śledzi ich drogę w
elementach układu.
Praca projektanta zaczyna się zwykle śledzeniem kilku promieni, wychodzących z
punktu świetlnego położonego na osi optycznej układu. Teraz projektant stara się
tak dobrać paramety układu, aby promienie przechodzące przez obiektyw na powrót
skupiły się w jednym punkcie. Jest to matemattycznie proste zadanie, choć
obliczenia muszą być prowadzone z bardzo dużą dokładnością - 5 do 8 miejsc
dziesiętnych.
Przed wynalezieniem maszyn liczących, prace te wykonywano korzystajac z tablic
logarytmicznych - robiły to zespoły kilku- kilkunastu kobiet pod kierownictwem
wyszkolonego projektanta. Typowy szesciosoczewkowy układ optyczny wymagał
liczenia przebiegu 200 promieni dla każdej powierzchni optycznej - trzech
tysięcy dla całego układu - około 3 miesięcy pracy zespołu. Powyższe obliczenia
pozwalają stwierdzić jak zachowuje się układ dla promieni przechodzących blisko
osi optycznej - co z tymi przy brzegach?
Wszystkie promienie wpadające do obiektywu możemy rozłożyć na dwa promienie: leżące na płaszczyźnie zawierającej oś optyczną (tangencjalne) i te, które leżą na płaszczyźnie prostopadłej do osi optycznej (sagittalne). Promienie tangencjalne można śledzić korzystając z równań optyki geometrycznej. Promienie sagittalne można śledzić tylko korzystając ze specjalnych, bardzo skomplikowanych matematycznie równań, praktycznie niemożliwych do obliczenia bez pomocy komputerów.
Jak każdy zapewne wie, światło wpadające do obiektywu jest złożone z fali o
różnej częstotliwości. Fale o różnych częstotliwościach są załamywane w różny
sposób na danej powierzchni optycznej. W efekcie obraz obiektu jest obarczony
błędami (aberracjami), takimi jak koma, aberracja sfeyczna i chromatyczna, koma
czy astygmatyzm.
Bieg promieni światła o różnych długościach fali daje się również obliczyć,
a poprzez porównanie go z biegiem promieni wyliczonych na początku możemy badać
i poprawiać aberracje układu.
Już w latach trzydziestych istniały podstawy matematyczne i wzory pozwalające
badać aberracje i stosowano je, choć w niewielkim zakresie, do poprawiania
układów optycznych. Każda aberracja manifestuje się w określony sposob:
aberracja sferyczna jest najlepiej widoczna na osi optycznej, krzywizna pola i
koma w rogach, itd. Jest to jednak pewne uproszczenie - każda aberracja wpływa,
mniej lub bardziej, na jakość całego obrazu, a to, co zasadniczo robią, to
rozpraszanie energii punktu świetlnego w pewnym określonym obszarze. Owo
rozproszenie energii jest nieregularne i niejednakowe dla różnych długości fali.
Aberracji jest wiele, a dzieli się je ze względu na stopień (potęgę), w której występują w równaniach aberracyjnych. Aberracje pierwszego rzędu (trzeciej potęgi) są znane jako aberracje Seidela, na cześć człowieka, który opracował ich teorie i równania pozwalające je wyliczyć. Są one bardzo trudne do skorygowania - a nawet jeśli uda się je sprowadzić do niskiego poziomu, czyhają na projektanta aberracje drugiego i trzeciego rzędu (piątej i siódmej potęgi).
Z racji skomplikowania procesu projektowania, do lat sześćdziesiątych (późnych lat sześćdziesiątych w przypadku producentów japońskich) liczono zazwyczaj tylko aberracje seidlowskie, także z wykorzystaniem komputerów (rozpoczęła to Leica/Leitz na początku 1960 roku). Obiektywy produkowane wtedy, były optymalizowane głównie dla promieni bliskich osi optycznej, a aberracje drugiego rzędu były często pomijane. Klasycznym pzykładem jest tu np. Zeiss Sonnar 2/85 i jego rosyjska kopia - Jupiter 9. Przy pełnym otworze obraz jest miękki - za przyczyną aberracji sferycznej drugiego rzędu, bardzo dobrze zauważalnej przy tak jasnym obiektywie. Po przymknięciu obiektyw jest bardzo ostry, z racji dobrej korekcji aberacji seidlowskich.
W latach siedemdziesiątych i osiemdziesiątych zaczęto prace nad komputerową optymalizacją istniejących układów optycznych - jednocześnie udoskonalona technologia pozwoliła na składanie obiektywów z mniejszymi tolerancjami mechanicznymi. Przede wszystkim zaś, zaczęto zwracać uwagę na korekcję ukladów dla całego widma świetlnego - z tych czasów wywodzą się takie obiektywy, jak Leica APO Elmarit R 2.8/100 - który dla światła monochromatycznego jest GORSZY niż stary Elmarit R 4/100, ale dla światła białego dalej znacznie lepszy obraz. Z tych czasów wywodzą się też takie obiektywy jak Noctilux 1/50 - który praktycznie nie poprawia się przy przymykaniu przysłony - typowy przykład doskonale obliczonego układu. Nawiasem mówiąc, Noctilux cechuje się dość silną komą - nie wpływającą jednak na jakość obrazu w typowych sytuacjach fotograficznych.
Ale lata te nie były tak różowe - zwłaszcza gdy stwierdzono, że różne długości fali dają najwiekszy kontrast obrazu przy różnych położeniach plaszczyzny obrazu - jedynym wyjściem było projektowanie obiektywu przy założeniu, że pewne kolory będą ważniejsze niż inne. Obecnie wyraźnie widać powolny postęp w ulepszaniu istniejących układów, przy zachowaniu ich w miarę niskiej ceny - jest to wyraźny wpływ działów marketingu na podukcję obiektywów. Najwyraźniej jest on wioczny w tanich obiektywach - projektowanych tak, aby dawały zadowalający obraz za niewielką cenę (przykładem są tu tanie obiektywy 50 mm Canona czy Nikona), impulsem jest tu także niezbyt duża dokładność układów AF, gwarantujących jedynie 50 lpmm na filmie.
Ciekawa sytuacja wytworzyła się pomiędzy dwiema potęgami optycznymi - Zeissem i Leica. Zeiss stara się produkować obiektywy równoważąc cenę i jakość, jak pisze Herr Woltge, poprzedni szef zespołu projektantów Zeissa o Planarze 1.4/50: 'The lens is optimised fully within the design parameters, and better quality is only possible when one employs more expensive glass'. W przeciwnym kierunku poszła Leica, projektując Summiluxa R 1.4/50 - ale widać to rownież w jego cenie.
Ciekawym przykładem możliwości udoskonalenia starych układów optycznych jest
Cosina/Voigtlander Heliar 3.5/50, przeprojektowany i dopracowany przy użyciu
najnowszych technik obliczeniowych Tessar - przy pełnym otworze obiektyw daje
100 lpmm od środka optycznego aż do krańców obrazu, nie ma śladu astygmatyzmu,
jedynie niewielkie błędy chromatyczne. Praktycznie od f/3.5 do f/16 jakość
obrazu jest jednakowa, pomijając naturalne ograniczenie rozdzielczości przez
dyfrakcje.
Innym jest Summarit f/2.4/40 użyty w Leicy Minilux - jest to praktycznie
granica możliwości udoskonalenia układu Gaussa: przy pełnym otworze jakość
obrazu jet bardzo dobra w środkowych 10 mm, dalej widać płynny spadek kontrastu.
Flara praktycznie nie istnieje - przy f/4 obraz poprawia się, a przy f/5.6 do
f/8 mamy ponad 50% kontrast dla rozdzielczości 50 lpmm.