Einzelpartikel‐Rekonstruktion biologischer Moleküle – Geschichte in einer Probe (Nobel‐Aufsatz)
2018; Wiley; Volume: 130; Issue: 34 Linguagem: Alemão
10.1002/ange.201802770
ISSN1521-3757
Autores Tópico(s)Bacterial Genetics and Biotechnology
ResumoEin Bild sagt mehr als tausend Worte: Die Entwicklung der Einzelpartikel-Kryoelektronenmikroskopie schuf die Grundlage für die hochaufgelöste Strukturbestimmung biologischer Moleküle. In seinem Nobel-Aufsatz beschreibt J. Frank die bahnbrechenden Entdeckungen, die die Entwicklung der Kryo-EM ermöglicht haben. Die Methode hat die Biochemie in ein neues Zeitalter geführt. Ich entwickelte ein Interesse an Elektronenoptik, als ich an meiner Diplomarbeit bei Ernst Kinder an der Universität München arbeitete. Thema meiner Arbeit war die Rückstreuung von Elektronen von der Oberfläche von flüssigem Gold. Es war ein ehrgeiziges Unterfangen, für das ich eine Vakuumkammer mit Elektronenkanone, Detektor und einem Schmelztiegel zur Erhitzung des Goldes zu bauen hatte. Kinder selbst hatte bereits 1946 mit dem Elektronenmikroskop Schmetterlingsflügel studiert. Deren leuchtende Farben kamen, wie er herausfand, durch Lichtinterferenz an Beugungsgittern zustande, die durch winzige, regelmäßig angeordnete Schuppen an den Flügeloberflächen gebildet wurden. Danach meldete ich mich für meine Doktorarbeit bei Walter Hoppe (Abbildung 1) am Max-Planck-Institut für Eiweiß- und Lederforschung in München an. Hoppe war ein Röntgenkristallograph, dessen Interesse sich der Elektronenmikroskopie zugewandt hatte mit dem Ziel, Biomoleküle zu untersuchen. Er betrachtete das Elektronenmikroskop als Diffraktometer, das im Unterschied zur Röntgenkristallographie nicht nur die Amplituden der gebeugten Elektronen, sondern auch deren Phasen messen konnte. Dies war eine andere Art zu sagen, dass Elektronenmikroskope Bilder erzeugen. Walter Hoppe (1917–1986) mit dem Siemens Elmiskop 102. Photographie aus dem Archiv der Max-Planck-Gesellschaft, Berlin. An diesem Punkt ist es notwendig, auf den Stand der Technik der molekularen Elektronenmikroskopie in den späten 1960er und frühen 70er Jahren zurückzublicken. Während der Anfangsjahre, den späten 30ern bis zu den 50ern, hatten sich die Beiträge der EM hauptsächlich auf die Untersuchung von Geweben bei relativ niedriger Auflösung beschränkt. Ernsthafte Vorstöße zur quantitativen Visualisierung molekularer Strukturen begannen erst in den 1960er Jahren und beschränkten sich zunächst auf drei Gruppen: die Gruppe von Aaron Klug am Labor für Molekularbiologie des Medical Research Council (MRC) in Cambridge, die Gruppe meines Mentors Walter Hoppe am Max-Planck-Institut in München, sowie die Gruppe von Edward Kellenberger am Biozentrum in Basel. Falls keine Symmetrien vorhanden sind, erfordert die dreidimensionale Rekonstruktion eines Objekts die Kombination seiner Projektionen über einen weiten Winkelbereich. Die frühesten erfolgreichen Pionierarbeiten der molekularen Strukturforschung mit dem Elektronenmikroskop waren die dreidimensionale (3D) Rekonstruktion eines Bakteriophagen-Schwanzes mit helikaler Symmetrie im Jahr 1968 durch DeRosier und Klug1 sowie die erste Rekonstruktion eines ikosaedrischen Virus im Jahr 1970 durch Tony Crowther.2, 3 In dieser Zeit war es nicht möglich, biologische Moleküle nahe ihrem nativen Zustand abzubilden. Negativkontrastierung war die einzige verfügbare Möglichkeit, Kontrast zu erzeugen; sie bestand darin, die Moleküle in eine Lache von Schwermetallsalz einzubetten, bevor das Präparat an Luft getrocknet wird. Andererseits war es bekannt, dass biologische Moleküle sehr empfindlich sind und die Bewahrung ihrer Struktur eine vollständig hydratisierte Umgebung erfordern würde. Als ich meine Arbeit als Doktorand bei Walter Hoppe begann, im Jahr 1967, wurde ich bald mit intensiven wissenschaftlichen Diskussionen konfrontiert, zunächst in einem Workshop in Hirschegg in den Tiroler Alpen, der von Walter Hoppe gemeinsam mit Max Perutz 1968 organisiert wurde, später fortgesetzt in Tagungen in Hirschegg 1970 und Alpbach 1976. Dies waren die ersten Tagungen, die Proteinkristallographen und Elektronenmikroskopiker zusammenbrachten.4 In meiner Doktorarbeit analysierte ich elektronenmikroskopische Aufnahmen und erklärte Muster, die man im Fall von Drift bei Thon-Ringen beobachtet;5 sie sind dann moduliert mit einer Kosinus-Funktion, sichtbar als sogenannte Youngsche Streifen.6 Ich untersuchte auch die statistischen Eigenschaften digitalisierter Aufnahmen. Für die Digitalisierung benutzte ich ein im Institut gebautes Densitometer, das die Bilder auf einem Lochstreifen ausgab, mit dessen Hilfe sie dann in den Computer gefüttert wurden. In meinen ersten Anwendungen der digitalen Bildverarbeitung in der EM erkundete ich die Anwendung von Korrelationsfunktionen zur Alignierung von Bildern.7 Ein weiterer Gegenstand meiner Dissertation war die Degradierung der Information durch die Kontrastübertragungsfunktion (KÜF, engl. CTF), die durch die Linsenfehler des Elektronenmikroskops verursacht wird,8 sowie ihre Wiederherstellung durch CTF-Korrektion.9 Nach Abschluss meiner Dissertation, 1970, ging ich für zwei Jahre in die USA mit einem Harkness-Stipendium. Der Besuch in drei Labors, die ich auswählte, war in mehrfacher Hinsicht ein Augenöffner für mich. Das Jet Propulsion Lab (JPL) in Pasadena war zu dieser Zeit sicherlich das am weitesten fortgeschrittene Labor im Bereich Bildverarbeitungs-Hardware und -Software. In einem Projekt zur Korrektur der Kontrastübertragungsfunktion mit Hilfe einer Defokussierungsserie (d. h. einer Reihe von Aufnahmen mit unterschiedlicher Defokussierung) benutzte ich deren Scanner zur Digitalisierung von Aufnahmen negativ kontrastierter DNA, die mir von Walter Stoeckenius von der University of California at San Francisco (UCSF) zur Verfügung gestellt wurden. Außerdem passte ich meine eigenen Programme an das VICAR-System des JPL an. VICAR war ein modulares Bildverarbeitungssystem, das zur Prozessierung von Bildern der Jupiter-Vorbeiflugmission verwendet wurde; es diente mir später als Modell für die Entwicklung des SPIDER-Bildverarbeitungssystems. Das zweite Labor, das ich besuchte, war das Donner Lab in Berkeley, wo Robert M. Glaeser den Einfluss der Strahlschädigung biologischer Moleküle durch die abbildenden Elektronen untersuchte.10 Er begann auch mit der Entwicklung von Techniken, mit denen man Moleküle gefroren-hydratisiert in das Elektronenmikroskop einbringen konnte.11 Das dritte Labor war das von Benjamin Siegel in Clark Hall, Cornell University, wo ein experimentelles Mikroskop im Mittelspannungsbereich (600 kV) aufgebaut wurde. Dort traf ich erstmals Ken Downing, der an optischen Methoden zur Wiederherstellung von Information wie etwa Einseitenband-Holographie arbeitete, sowie William Goldfarb, der später an mein Labor kam. Die zahlreichen Probleme, mit denen man es zu tun hat, wenn man biologische Moleküle im EM abbilden möchte, wurden auf einem Workshop diskutiert, den Edward Kellenberger 1973 in Gais in den Schweizer Alpen organisierte. Der damalige Stand der Technik spiegelte sich im Titel eines Tagungsbeitrags wider,12 wobei alle Resultate mit einer Auflösung besser als 30 Å als "Hochauflösung" eingeordnet wurden. Besonders wichtig auf diesem Workshop war die Suche nach einer Methode, die die Moleküle vollständig hydratisiert halten würde, während sie dem Elektronenstrahl ausgesetzt sind. Außerdem wurde, entsprechend den Pionierarbeiten von Glaeser10 – es war gerade zu der Zeit, als ich sein Labor als Harkness Fellow besuchte –, die Strahlschädigung als Haupthindernis im Streben nach hoher Auflösung erkannt. Mittelung über eine große Zahl sich wiederholender Strukturen, die mit sehr geringer Dosis belichtet wurden, wurde als beste Möglichkeit zur Lösung dieses Problems angesehen. Dieses Treffen war der Ausgangspunkt für eine grundlegende Arbeit von Richard Henderson und Nigel Unwin:13 die Rekonstruktion von zweidimensional (2D) geordnetem Bakteriorhodopsin aus der Purpurmembran von Halobacter, eingebettet in Glukose, unter fast-nativen Bedingungen mit einer Auflösung von 7 Å. Die Zusammenführung neuer Techniken in drei Bereichen, nämlich der Probenvorbereitung, der Datensammlung bei extrem niedriger Dosis ( 3/[Kontrast2 × Auflösung (als Länge)× kritische Elektronendosis] Eine detaillierte Untersuchung dieser Abhängigkeit wurder später von Richard Henderson unternommen.19b Meine Einstellung 1975 als Senior Research Scientist in der Division of Laboratories and Research des New York State Department of Health (DLR, später als Wadsworth Center bezeichnet) in Albany, New York, eröffnete mir die Möglichkeit, diese Idee in praktischen Anwendungen zu erkunden. (Donald Parsons, ein Wissenschaftler aus Roswell Park, Buffalo, der gerade nach Albany in die DLR umzog und dort eine Hochspannungsmikroskopie-Abteilung installierte, hatte mich gebeten, dort eine Bildverarbeitungsgruppe aufzubauen.) Unter Verwendung von Mikrographien, die mir von David Eisenberg, Tim Baker, Peter Zingsheim und Miloslav Boublik zur Verfügung gestellt wurden, war ich in der Lage, für mehrere Moleküle zu zeigen, dass man aus den Bildern zweidimensionale Mittelungen mit wesentlich verbesserten Merkmalen erhalten konnte. Untersucht wurden Glutamin-Synthetase (Abbildung 5),18, 20 Acetylcholin-Rezeptor (Abbildung 6)21 sowie ribosomale 40S-Untereinheiten aus HeLa-Zellen (Abbildung 7).22 Einzelpartikel-Mittelungen, die aus Bildern von negativ kontrastierter Glutamin-Synthetase erhalten wurden. Links: Galerie von ausgeschnittenen und alignierten Partikeln. Rechts: Mittelungen mit und ohne sechszählige Symmetrisierung. (Abdruck aus Lit. 20.) Einzelpartikel-Mittelungen, die aus Bildern von negativ kontrastiertem Acetylcholin-Rezeptor von Torpedo marmorata erhalten wurden. Oben: Beispiele von ausgeschnittenen Partikelbildern. Unten: Zwei Halbmittelungen und eine Vollmittelung (rechts). Das gemittelte Partikel zeigt eine deutliche Abweichung von der fünfzähligen Symmetrie, die andere Gruppen aus 2D-Kristall-Mittelungen mit niedrigerer Auflösung erschlossen hatten. (Abdruck mit Genehmigung aus Lit. 21.) Einzelpartikel-Mittelungen, die aus Bildern von ribosomalen 40S-Untereinheiten aus HeLa-Zellen erhalten wurden. Oben: Mikrographie mit 40S-Untereinheiten in zwei Ansichten, links-gerichtet (L) und rechts-gerichtet (R). Unten, von links nach rechts: zwei Halbmittelungen, Varianzkarte und Vollmittelung von 81 Partikeln in L-Ansicht. (Abdruck mit Genehmigung aus Lit. 22.) Von diesen Mittelungen zeigten die der 40S-Untereinheit am überzeugendsten das Potential der Einzelpartikel-Mittelungstechnik. Die Ergebnisse erwiesen sich als wichtig, um Forschungsmittel von den National Institutes of Health zu erhalten. Dennoch stieß die Präsentation der Ergebnisse für Glutamin-Synthetase, Acetylcholin-Rezeptor und Ribosom durch mich und zwei meiner Mitarbeiter, Martin Kessel und Peter Zingsheim, auf einer durch Wolfgang Baumeister organisierten Tagung in Burg Gemen auf große Skepsis. Ein Problem, mit dem man sich, wie bereits erwähnt, beschäftigen musste, betraf die Tatsache, dass keine kristalline Ordnung vorlag und darum die Fourier-Transformation einer Mittelung von alignierten Molekülbildern keine Reflexe aufweist; deshalb fehlt ein inhärentes Maß für die Auflösung. Ohne ein solches Maß aber ließ sich eine Qualitätsverbesserung nicht verfolgen und zwischen verschiedenen Gruppen vergleichen. Bezugnehmend auf eine frühere Untersuchung während meiner Doktorarbeit über den Effekt von Drift auf ein elektronenmikroskopisches Bild6 wurde mir klar, dass sich die Signalbandbreite in der Ausdehnung reproduzierbarer Information im Fourier-Raum zeigt,23 wie zum Beispiel in den Youngschen Streifen, die im optischen Beugungsmuster auftreten, wenn man zwei aufeinander folgende Bilder desselben Objektbereichs mit einer leichten Verschiebung überlagert (Abbildung 8). Reproduzierbarkeit des Signalinhalts zweier aufeinander folgender EM-Bilder von Kohlefilm, demonstriert für drei verschiedene Defokuswerte. Obere Reihe: Optische Beugungsmuster von jeweils einem der EM-Bilder mit Thon-Ringen. Untere Reihe: Youngsche Streifen, die man erhält, wenn man die Bildpaare erst aligniert und dann jeweils geringfügig gegeneinander verschiebt. (Abdruck aus Lit. 17.) Wie konnte man diese Idee in ein quantitatives Maß übertragen? Man kann die Ausdehnung der Reproduzierbarkeit im Fourierraum rechnerisch quantifizieren, indem man die Partikelbilder, die in eine Mittelung eingehen, zufallsmäßig in zwei Hälften aufteilt und dann die Fouriertransformationen der Halbmittelungen in Ringbereichen im Fourierraum vergleicht. Als Auflösung wird dann der Ringradius definiert, bei dem ein Vergleichsmaß, etwa das Phasenresidual, oder R-Faktor,22 oder der Kreuzkorrelationskoeffizient ("Fourier-Ring-Korrelation")24, 25 einen kritischen Wert über- bzw. unterschreitet (Abbildung 9). Das entsprechenden Vergleichsmaß, allerdings berechnet über Kugelschalen, sollte sich später als wichtig für die Abschätzung der Auflösung von 3D-Rekonstruktionen erweisen.26 Auflösungs-Definition von Einzelpartikel-Mittelungen mittels der Reproduzierbarkeit von Halbmittelungen im Fourierraum. Gezeigt wird das differentielle Phasenresidual als Funktion des Ringradius im Fourierraum für die Halbmittelungen der ribosomalen 40S-Untereinheiten von HeLa-Zellen. Als Auflösung wird der Ringradius definiert, bei dem das Phasenresidual 45° überschreitet. (Abdruck mit Genehmigung aus Lit. 22.) Diese ersten Studien der Bildmittelung warfen sofort das Problem der Heterogenität auf – ausschließlich solche Molekülbilder konnten vernünftigerweise in eine Mittelung aufgenommen werden, die von Molekülen gleicher Struktur und gleicher Orientierung stammten. Zu dieser Zeit besuchte ein Student aus der Gruppe Ernst van Bruggens, Marin van Heel, mein Labor und brachte Bilder von Haemocyanin aus Limulus polyphemus mit, einem Oligomer mit ausgeprägter Architektur, das mit Negativkontrastierung eine Reihe von bevorzugten Ansichten in elektronenmikroskopischen Aufnahmen zeigte (Abbildung 10 a). Diese Aufnahmen boten deshalb ein perfektes Beispiel für Heterogenität. Bevor man diese Bilder mitteln konnte, mussten sie in gleichartige Untergruppen sortiert, oder klassifiziert, werden. Die Lösung zu diesem Problem27 kam aus der Einsicht, dass Bilder, wenn sie aufeinander aligniert sind, als Vektoren in einem N-dimensionalen Raum betrachtet werden können, wobei N die Zahl der Pixel ist. Gruppen ähnlicher Bilder werden in diesem Raum Cluster bilden. Ähnliche Probleme des Auffindens von Clustern in einem hochdimensionalen Raum waren bereits in vielen Bereichen der Wissenschaft aufgetreten und hatten zur Entwicklung der multivariaten statistischen Analyse (MSA) geführt, eines Verfahrens, das einen kompakten niedrigdimensionalen, auf das Problem zugeschnittenen Unterraum bestimmt. Mit der Unterstützung von Jean-Pierre Bretaudiere, einem Wissenschaftler des Wadsworth Centers, der in der Laboratoriumsmedizin arbeitete, waren wir in der Lage, ein zur Sortierung von Blutproben verwendetes Programm auf die Sortierung von Bildern anzuwenden (siehe Lit. 28, wo über diese Episode berichtet wird). Die Anwendung auf Haemocyanin erwies sich sofort als Erfolg (Abbildung 10 b,c). Sortierung von Hämocyanin-Molekülen durch Korrespondenzanalyse, einem Teilbereich der multivariaten statistischen Analyse. Oben: Aufbau des dodekameren Moleküls von Hämocyanin aus Limulus polyphemus. Die leicht rhombische, verdrehte Anordnung der Untereinheiten erzeugt eine nichtplanare Architektur, die sich in verschiedenen Schaukelpositionen auf dem Trägerfilm ausdrückt. Mitte: Mikrographie von negativ kontrastierten Molekülen in verschiedenen räumlichen Orientierungen, die durch Kippen oder Schaukeln auseinander hervorgehen. Unten: In der Faktorenkarte, die man durch multivariate statistische Analyse der alignierten Molekülbilder erhält, sind die Bilder auf vier Cluster verteilt. (Abdruck mit Genehmigung aus Lit. 27.) Von früh an, als ich mit der Einzelpartikeltechnik zur Strukturbestimmung begann, wurde mir klar, dass für den systematischen Fortschritt in der Entwicklung von Algorithmen und Computerprogrammen mit ständig wechselnden und sich erweiternden Zielen eine Werkbank mit einem großen Satz vor Werkzeugen benötigt würde. Dafür entwickelte ich ein modulares Bildverarbeitungssystem mit Namen SPIDER (für: System for Processing of Image Data in Electron microscopy and Related fields).20, 29 Dies ermöglichte den Entwurf komplexer Prozeduren aus vorgeformten Programmeinheiten unter Benutzung einer einfachen Script-Sprache. Beispielsweise würde der Befehl WI eine Routine zum Ausschneiden eines rechteckigen Bereichs aus einem Bild aufrufen, FT würde die Fouriertransformation aufrufen, und AC würde die Autokorrelation eines Bildes berechnen. Hunderte von Befehlen wurden im Laufe der nächsten Jahre implementiert. Alle Programme wurden in Fortran kodiert, der damals fortgeschrittensten Programmiersprache. Im größten Teil der anfänglichen Programmierung wurde ich durch Helen Dowse, einer Studentin der Computerwissenschaft in der State University NY in Albany, sowie durch Brian Shimkin, einem beginnenden Studenten unterstützt. Als sich die Funktionalität von SPIDER ausweitete, wurde seine Script-Sprache zur lingua franca in meinem Labor und, mit der Verbreitung der Programmsuite auch in anderen Labors, in einer wachsenden Nutzergemeinde. Wie bereits erwähnt, führe ich die dem SPIDER-System zugrunde liegende Idee und seinen modularen Aufbau auf meinen Aufenthalt im Jet Propulsion Lab im Jahr 1970 zurück, wo ich mit JPLs eigenem VICAR-Bildverarbeitungssystem vertraut wurde. Um die 3D-Struktur eines Objekts aus seinen Projektionen zu bestimmen, benötigt man eine hinreichend gleichmäßige Abdeckung des gesamten Blickwinkelbereichs, und man muss die Winkel jeder Projektion kennen. In der Tat war die Bestimmung der Winkel von Molekülen, die in durch Zufall gegebener Orientierung abgebildet wurden, das wichtigste und zugleich am schwierigsten zu lösende Problem der Einzelpartikeltechnik. Die Lösung kam aus der Einsicht, dass zwei Mikrographien des gleichen Objektbereichs, eine davon mit nicht verkippten Partikeln, die zweite um einen großen Winkel gekippt, alle Information enthielt, um jedem gekippten Partikel Eulerwinkel zuzuordnen.20, 30, 31 Falls die Partikel in gleicher Orientierung auf dem Trägerfilm adsorbiert sind, sich in ihrer Orientierung daher nur durch eine Drehung um eine zum Trägerfilm senkrechte Achse unterscheiden, liegen bei dieser Geometrie (Abbildung 11 a) die Winkel der gekippten Partikel auf einem Konus mit zufällig verteilten Azimutwinkeln (Abbildung 11 b). Aufgrund dieser Eigenschaft wurde später die Bezeichnung "Random-Conical Tilt Reconstruction" eingeführt. Geometrie der Datensammlung für die Random-Conical Tilt Reconstruction. Oben: Konzept. Ein ungekippter Trägerfilm ist gezeigt mit Molekülen, die mit derselben Oberfläche, aber verschiedenen Azimutwinkeln adsorbiert sind. Kippung des Trägerfilms um einen großen Winkel führt für jedes Partikel zu einer Projektion in einer ganz bestimmten Richtung. Im Fourierraum entsprechen die Projektionen sich schneidenden zentralen Schnitten (Frank, 1979; Handskizze auf einer Overhead-Folie, unveröffentlicht). Unten: Illustration der Datensammlung sowie die äquivalente konische Geometrie. (Abdruck mit Genehmigung aus Lit. 32.) 1982 kam der Physiker Michael Radermacher in meine Gruppe, ebenfalls ein Schüler von Walter Hoppe, der in seiner Dissertation über Algorithmen zur 3D-Rekonstruktion aus regelmäßig in einer konischen Geometrie angeordneten Projektionen gearbeitet hatte. Er brachte daher die perfekten Voraussetzungen zur Entwicklung von Computerprogrammen mit, die das Konzept der Random-Conical Tilt Reconstruction implementierten. Ein wichtiger Schritt fehlte jedoch noch: die Verallgemeinerung des 3D-Rekonstruktions-Algorithmus, der konische Kippung mit gleichverteilten Winkeln annahm, auf den Fall von auf dem Konus zufällig verteilten Winkeln. Als das erreicht war, wie 1986 in einer Kurzveröffentlichung berichtet,30 erhielten wir die erste Einzelpartikel-Rekonstruktion mit der Random-Conical Tilt Reconstruction Methode: die 50S-Untereinheit des E. coli-Ribosoms (Abbildung 12).33 Sie ist jetzt permanent ausgestellt im Nobel-Museum in Stockholm in Form eines transparenten, in einem hölzernen Rahmen befestigten Konturstapels. Erste Einzelpartikel-Rekonstruktion eines asymmetrischen Moleküls: die 50S-Untereinheit des E. coli-Ribosoms, aus einer Präparation in Negativkontrast.33a Maßstabsbalken 100 Å. Die Teilbilder zeigen das Molekül mit ansteigender Dichteschwelle unter Benutzung einer damals neuen Oberflächen-Darstellungstechnik.33b Die Qualität dieser Rekonstruktion war jedoch begrenzt durch zwei Faktoren: ein Faktor war die in einem konischen Bereich der Fourier-Transformation fehlende Information, was zu Verzerrungs-Artefakten in der 3D-Dichteverteilung führte, der zweite waren Präparationsartefakte der Probe aufgrund der Negativkontrastierung und Lufttrocknung. Beide Begrenzungen wurden bald darauf überwunden: das Problem der in dem konischen Bereich fehlenden Information wurde gelöst durch Zusammenfügung der Daten von drei oder mehr Sätzen von unterschiedlich zum Trägerfilm ausgerichteten Partikeln,34 und die Probenpräparation in Negativkontrastierung wurde ersetzt durch die Kryoeinbettung in vitrifiziertes (d. h. glasartiges, amorphes) Eis. Wir folgten damit dem spektakulären Erfolg von Jacques Dubochets Vitrifizierungs-Technik durch Einschießen (d. h. Einfrieren mit einer Fall-Vorrichtung) in flüssiges Ethan35 in Anwendung auf Viren (Abbildung 13).36 Schema der Einzelpartikel-Datensammlung für Moleküle mit zufälliger Orientierung und Einbettung in vitrifiziertes Eis. Die Moleküle sind vollständig hydratisiert in einem wässrigen Medium und, im Unterschied zur Negativkontrastierung und Lufttrocknung von Abbildung 2, sind sie nicht geschrumpft in Richtung senkrecht zur Ebene des Trägerfilms. Noch ein weiteres Problem, das behandelt werden musste, weil es die Qualität aller Rekonstruktionen aus EM-Daten beeinträchigte, war die Modulation der Fouriertransformierten der Bilder durch die Kontrastübertragungsfunktion des Mikroskops. Ich hatte mich erstmals mit diesem Problem während meiner Dissertation befasst, später durch Beiträge zu gewissen Teilfragen.37-39 Das Problem und seine auflösungsbegrenzenden Effekte wurden überwunden durch Zusammenführung von Daten mit unterschiedlichen Fokuswerten mit Hilfe eines Wiener-Filter-Algorithmus (Abbildung 14).40, 41 Korrektur der Kontrastübertragungsfunktion (CTF) durch Wiener-Filterung. Die Fouriertransformierte des korrigierten Bildes erhält man als gewichtete Summe der Fouriertransformierten der Defokus-Serie. Die Gewichte Wn sind gegeben durch das Wiener-Filter; sie sind proportional zu der Kontrastübertragungsfunktion Hn, gewichtet mit dem Signal-Rausch-Verhältnis SNRn. Die Dämpfung du
Referência(s)