Senf ist Würzmittel und Heilpflanze zugleich. Schon seit Jahrhunderten werden viele Speisen mit dem gesunden Scharfmacher Senf verfeinert. Die bESSERwisser haben recherchiert, wie die Würzpaste hergestellt wird, wie vielfältig Senf sein kann, warum er bis heute als sehr gesund gilt und warum man ihn einer Salatmarinade zugeben sollte.
Herstellung von Speisesenf
Im alltäglichen Sprachgebrauch ist meist dann von Senf die Rede, wenn die in Tuben oder Gläsern zum Verkauf angebotene Senfpaste, auch Mostrich genannt, gemeint ist. Genau genommen bezeichnet Senf jedoch ursprünglich die Senfpflanze, die zur Gattung der Kreuzblütengewächse gehört. Zur Herstellung von Senf werden die Samen der Senfpflanze, die Senfkörner, verwendet. Die Gewürzpaste wird je nach Senfart aus Körnern des Weißen, Gelben oder Schwarzen beziehungsweise heutzutage vermehrt Braunen Senfs hergestellt.[1]
Bereits von den Römern wurde ein Rezept für Senf überliefert: Schon damals wurde eine Senfpaste aus Senfkörnern, Olivenöl, Honig und vergorenem Most hergestellt. Diese Mischung wurde als mustum ardens, was so viel wie „brennender Most“ bedeutet, bezeichnet. Daraus entwickelten sich später die Bezeichnung Mostrich sowie das englische Wort für Senf, „mustard“.[1]
Heutzutage werden zur Herstellung von der Gewürzpaste neben Senfkörnern üblicherweise Wasser, Essig und Salz verwendet. Das Verhältnis dieser Zutaten, die Art der Senfkörner und weitere zugegebene Ingredienzien variieren je nach Senfart.[2]
In den Senfkörnern sind bis zu 36 Prozent Öle enthalten, die in nussig schmeckende Pflanzenöle und in die für die Schärfe verantwortlichen ätherischen Senföle unterteilt werden können.[1] Allerdings schmeckt Senf an sich, auch in bereits gemahlener Form, nicht scharf.[3] Die im ätherischen Senföl enthaltenen Senfölglycoside, die zu den sekundären Pflanzenstoffen zählen und unter anderem auch in Kren und Kresse vorkommen, entfalten ihre Schärfe erst durch das Mahlen der Körner und den Kontakt mit Flüssigkeit. Dabei wandeln sich die Senfölglycoside in andere Stoffe um, darunter das scharf schmeckende Isothiocyanat, das auch zu den Senfölen zählt [3].
Der Anteil verschiedener Senföle beziehungsweise Senfölglycoside in den Senfpflanzen ist unterschiedlich, wodurch sich die Senfarten im Geschmack unterscheiden. Weißer Senf ist verhältnismäßig mild, während Schwarzer Senf besonders scharf ist.[3]
Senfarten
Heute gibt es eine große Auswahl an Speisesenfen, die folgendermaßen unterteilt werden können:
Dijonsenf: Im 13.Jahrhundert hatte die französische Stadt Dijon das Monopol auf die Senfherstellung [3]. Bis heute muss der Dijonsenf bestimmte Kriterien erfüllen, um die offizielle Bezeichnung tragen zu dürfen – schon bei geringen Abweichungen vom Originalrezept wird das Produkt nur mit dem Siegel „nach Dijon Art“ gekennzeichnet. Klassischerweise wird Dijonsenf aus gemahlenen Schwarzen Senfkörnern, Salz und anderen Gewürzen und Wein oder Sauermost anstelle von Essig hergestellt.[2]
Englischer Senf: Gelbwurzel, auch Kurkuma genannt, gibt diesem Produkt seine charakteristische gelbe Farbe. Ansonsten enthält Englischer Senf fast ausschließlich gemahlenes, helles Senfpulver und Wasser und gilt daher als besonders reiner Gewürzpaste, der einen scharfen Geschmack aufweist.[2]
Scharfer Senf: Für diese Senfsorte verwendet man hauptsächlich dunkle Senfkörner , so dass er eine besonders intensive Schärfe erhält.[2]
Mittelscharfer Senf: Dieser klassische Bratwurst-Senf wird aus einer Mischung von dunklen und hellen Senfkörnern zubereitet, manchmal wird dieser Art auch Kren hinzugefügt.[2]
Süßer Senf: In Süddeutschland und Österreich wird Süßer Senf als klassischer Weißwurstsenf verwendet. Für seine Herstellung werden Gelbe und Braune Senfkörner zuerst geröstet, wodurch ein nussiger Geschmack entsteht. Durch die Zugabe von Zucker, Honig, Apfelmus oder Süßstoff schmeckt das Produkt süßlich. Außerdem mengen Senfproduzenten teils Wacholderbeeren bei.[2]
Estragon-Senf: Bei der Herstellung dieser Gewürzpaste werden neben Senf- und Pfefferkörnern Weinessig, Salz, Zucker und das Küchenkraut Estragon, das dem Endprodukt den Namen gibt, verwendet. Das frische Kraut aus der Beifußfamilie gibt dem besonders aromatischen Senf seinen typisch würzigen und gleichzeitig süßen Geschmack.[4]
Senf ist vielfältig in der Küche einsetzbar
Typischerweise wird Senf in Europa zu Bratwürsten oder Frankfurtern gegessen. Doch auch für Salatmarinaden wird er häufig verwendet. Bei der Zubereitung von Vinaigrette – einer Marinade aus Öl, Essig, Salz und weiteren Zutaten – wird Senf nicht nur für den Geschmack, sondern auch aus einem anderen Grund zugegeben: Senf ermöglicht die Emulsion von Essig und Öl, welche sich aufgrund ihrer chemischen Eigenschaften ohne seine Zugabe nicht vermischen würden. Für das Vermischen sind die in der Gewürzpaste enthaltenen Senföle verantwortlich. Diese Moleküle besitzen hydrophile, also wasserliebende, Teile, die mit Essig wechselwirken, und hydrophobe, also wasserabstoßende, Bereiche, welche sich mit Öl verbinden. So wird Senf zum idealen Vermittler zwischen Essig und Öl, er ist ein sogenannter Emulgator. Verwendet man also eine senfhaltige Vinaigrette für den Salat, verteilen sich alle Geschmacksstoffe – sowohl die fettlöslichen aus dem Öl als auch die wasserlöslichen aus dem Essig – gleichmäßig.[5]
Auch dass Senf gerne zu Grillfleisch gegessen wird, ist keineswegs unbegründet – selbst wenn uns die Wirkung vielleicht gar nicht bewusst ist. Manche Stoffe aus der Gewürzpaste machen Benzpyrene, welche beim Braten und Grillen durch die Maillard-Reaktion (Bräunungs-Reaktion) bei hohen Temperaturen entstehen können, weniger schädlich. So macht es Sinn, Senf zu gebräuntem Fleisch zu verzehren, um mögliche kanzerogene Benzpyrene zu neutralisieren.[5]
Senfkörner werden allerdings nicht nur zu einer Gewürzpaste verarbeitet, sie kommen auch unverarbeitet als Würzmittel zum Einsatz. Üblich ist beispielsweise die Zugabe beim Einlegen von Gewürzgurken oder süß-saurem Gemüse. Auch bei der Herstellung von Fischfonds kann man sie beimengen, genau wie bei anderen hellen Saucen oder im Kartoffelsalat.[2]
Senf wird auch in gemahlener Form – als Senfpulver oder Senfmehl bezeichnet – verkauft. So kann man daraus ganz einfach selbst seinen eigenen Senf herstellen, in dem man das Pulver mit Wasser verrührt. Aber auch zum Würzen von Saucen oder Currys kann man Senfpulver verwenden.[2]
Hätten Sie’s gewusst?
Senf ist sehr wärmeempfindlich. Schon bei einer Lagerung bei Raumtemperatur verliert er nach und nach seine Schärfe. Auch offener Senf im Kühlschrank sollte rasch verbraucht werden, da er den eigentlichen Geschmack bald einbüßt.[3]
Außerdem geht durch das Erhitzen beim Kochen die Schärfe des Senfs mit der Zeit verloren.[3] Darum darf man zum Bestreichen von Fleisch oder Gemüse vor der Zubereitung gerne etwas mehr von der Würzpaste verwenden.
Senf hat positive Wirkung auf Körper
Schon im Mittelalter war Senf in der Küche beliebt, da er neben Kren das einzig scharfe Gewürz in der europäischen Kultur war – Pfeffer und Chili wurden erst später für eine breite Bevölkerung verfügbar, Senf war verhältnismäßig billig zu erwerben.[1] Bereits damals verwendete man Senf beim Pökeln von Fleisch, da man wusste, dass Senf den Speichelfluss und die Magensaftproduktion anregt und dadurch die Verdauung ankurbelt. Grund dafür sind die im Senf vorhandenen ätherischen Öle.[3] Bereits seit dem Mittelalter wurde die Heilpflanze daher als Medizin in Apotheken verkauft.
Heute weiß man, dass die beliebte Gewürzpaste auch krebsvorbeugende und antimikrobielle Wirkungen im Darm hat.[2][3][6][7] Eine Forschungsgruppe von der Universität Flensburg konnte 2011 beispielsweise zeigen, dass der Konsum von 20 Gramm scharfem Senf pro Tag auf Dauer das Krebsrisiko senken kann und das sogar langfristig, nicht nur während der Zeit des Konsums. Durch den Verzehr von Senf konnten die weißen Blutkörperchen krebsauslösende Stoffe im Blut der Probanden schneller bekämpfen. Dem dürfte das für die Schärfe verantwortliche Isothiocyanat aus verarbeitetem Senf zugrunde liegen, welches für seine entgiftende Wirkung bekannt ist [8][9]. Interessant war außerdem, dass die Probanden nach Senfkonsum auch signifikant niedrigere Cholesterinwerte aufwiesen – ein weiterer Hinweis auf die gesundheitsfördernde Wirkung von Senf. Übrigens: Schon in Vorversuchen zeigten die Forscher, dass gilt: Je schärfer der Senf, desto höher ist seine krebsvorbeugende Wirkung.[6]
Senf soll außerdem durchblutungsfördernd wirken und die Fettverbrennung anregen.[3] Laut aktuellem Stand der Wissenschaft scheint die Gewürzpaste nicht nur vielfältig, sondern auch gesund zu sein – die Wirkungsweise der in den Senfkörnern enthaltenen Stoffe wird auch in Zukunft in der Forschung weiter untersucht werden.[10]
Warum wir (unseren) Senf dazugeben
Übrigens: Im 17. Jahrhundert galt Senf als besonders kostbar und wurde daher von Köchen sehr vielen Gerichten zugegeben, um diese wertvoller erscheinen zu lassen. Die Gewürzpaste wurde damals auch Speisen, zu denen er geschmacklich gar nicht passte, beigefügt also selbst dann, wenn der Geschmack nicht erwünscht war. Aus dieser Zeit kommt deshalb auch die Redewendung „seinen Senf“ dazugeben dabei bekommt man nämlich etwas zu hören, das man gar nicht wissen will.[11]
Auf der Verpackung vieler Hülsenfrüchte findet man die Empfehlung: „Erst nach Ende der Garzeit salzen“. Die gängige Annahme ist, dass sich die Kochzeit sonst deutlich verlängern würde. Ungeklärt bleibt, ob dieser Mythos wirklich wahr ist. Deshalb haben die bESSERwisser nachgeforscht und selbst experimentiert…
Hülsenfrüchte – Wichtige Eiweißlieferanten
Hülsenfrüchte tragen einen großen Teil zur weltweiten Eiweißversorgung bei. Aus diesem Grund zählen sie im mittleren Osten, Südamerika, Afrika und Asien zu den wichtigsten Grundnahrungsmitteln. Die bei uns am häufigsten konsumierten Hülsenfrüchte sind Linsen, Bohnen, Erbsen und Kichererbsen. Hülsenfrüchte enthalten 20-35% Eiweiß und kommen den Werten von tierischen Produkten damit sehr nahe. Ihre Samen sind außerdem reich an löslichen Ballaststoffen, die sich positiv auf die Verdauungstätigkeit auswirken. Die Ballaststoffe verringern auch die körpereigene Cholesterinproduktion, was eine Senkung der Blutfette bewirkt. Linsen & Co bremsen den Anstieg des Blutzuckerspiegels und bringen eine längere Sättigung mit sich. Hülsenfrüchte sind auch reich an Mineralstoffen und Vitaminen. Das macht sie zur wichtigen Quelle für Eisen, Zink und Folsäure für Vegetarier [1].
Vor dem Kochen salzen?
Thomas Vilgis [2], ein theoretischer Physiker und Wissenschaftskommunikator, hat sich dem Problem bereits angenommen. Der vielfache Buchautor meint: In Salzwasser gegarte Hülsenfrüchte sind schneller weich und gar [3]. Grund dafür ist die Zusammensetzung ihrer Schale, die zu großen Teilen aus Pektinketten besteht.
Pektine sind pflanzliche Polysaccharide, also langkettrige Zuckermoleküle. Diese Molekülketten bilden ein dichtes Netz und somit die harte Schale der Hülsenfrüchte. Beim Kochen soll dieses Netz gelockert und vom Wasser durchsetzt werden. Dadurch werden die Hülsenfrüchte weich und essbar [4].
Durch das Kochen wird die thermische Energie der Zuckermolekülketten erhöht und die Eigenbewegung der Moleküle infolgedessen angeregt. Das schnellere Schwingen der einzelnen Teilchen lockert die Bindungen, und die dicht verwobene Netzstruktur wird destabilisiert. Dieser Vorgang kann durch die Beigabe von Salz unterstützt werden. Salz besteht aus Natrium und Chlorid (Na+Cl-). Es löst sich im Wasser in diese Bestandteile auf, die sich in den Pektinketten einlagern. Dadurch wird das Netz gelockert, und die molekulare Struktur verändert sich. Somit ist die Schale der Hülsenfrüchte bereits früher durchlässig für das Wasser.
Das Experiment
Um die Frage „Salz ins Kochwasser – ja oder nein“ zu testen, haben die bESSErwisser ein kleines Experiment vorbereitet. Über Nacht in Wasser eingeweichte Kichererbsen wurden auf zwei verschiedene Töpfe aufgeteilt. Die eine Hälfte der Kichererbsen wurden in gut gesalzenem, die andere Hälfte in ungesalzenem Wasser gekocht. Nach 45 Minuten waren die Hülsenfrüchte in beiden Töpfen fast durch. Laut subjektivem Eindruck waren die Kichererbsen aus dem gesalzenen Wasser ein wenig weicher. Nach 60 Minuten waren beide Varianten gar, und auch hier waren die mit Salz gekochten Kichererbsen etwas weicher und weniger bröselig als die ohne Salz gekochten. Von der Kochzeit her gab es keinen Unterschied – beide Varianten waren durch und genießbar. Fazit: Das Salzen bringt zwar keine Zeitersparnis, erhöht aber den Genuss-Faktor.
Die zwei Testportionen – einmal gesalzen, einmal ungesalzen.
Fazit – Salzen oder nicht salzen?
Die bESSERwisser sind sich einig: Das Salzen bringt zwar keine Zeitersparnis, erhöht aber den Genuss-Faktor.
Es ist oft schwierig, eine Portion Nudeln, Kartoffeln oder Reis für eine Mahlzeit korrekt einzuschätzen, und oft bleibt etwas übrig. Beim Abkühlen dieser Lebensmittel entsteht dann resistente Stärke. Resteessen von Pasta und anderen stärkehaltigen Lebensmitteln ist gut für die Gesundheit und kann auch beim Abnehmen helfen. Warum das so ist, erklären die bESSERwisser in diesem Artikel.
In vielen Kulturen sind Reis, verarbeiteter Weizen, Mais oder Kartoffeln fixer Bestandteil der Mahlzeiten – und somit kommt auch eine reichliche Portion Stärke auf den Teller [1,2]. Personen mit herkömmlicher Ernährungsweise nehmen bis zu einem Viertel ihrer Kalorien über dieses Kohlenhydrat zu sich, Vegetarier noch mehr [3].
Während Pasta und Kartoffel generell als Dickmacher gelten, verhält es sich mit diesen Lebensmitteln in abgekühlter Form ganz anders: Sie sollen das Abnehmen erleichtern und auch noch gut für die Gesundheit sein.
Stärke – ein Vielfachzucker
Stärke ist ein Vielfachzucker (Polysaccharid), der aus einzelnen miteinander verknüpften Glukoseeinheiten (Traubenzucker) aufgebaut ist. Im menschlichen Dünndarm wird Stärke in ihre kleineren Zuckerbestandteile aufgespalten und in Form von Glukose vom Körper aufgenommen. Für diesen Prozess sind spezielle Verdauungsenzyme zuständig: Amylasen und Amyloglukosidasen.
Manche Arten von Stärke können den Dünndarm jedoch unverdaut passieren, man spricht in so einem Fall von so genannter resistenter Stärke. Diese gelangt dann als Vielfachzucker in den Dickdarm, wo unser Darmmikrobiom – eine Vielzahl an diversen Bakterien – schon darauf wartet und sie verarbeitet [4]. Da resistente Stärke vom menschlichen Verdauungssystem nicht oder nur teilweise abgebaut werden kann, wird sie zu den Ballaststoffen gerechnet.
Resistente Stärke weist eine komplexe Struktur auf, und es sind nicht alle Mikroorganismen in der Lage, sie abzubauen. Ruminococcus bromii oder Eubacterium rectale sind neben Firmicutes prausnitzii jene Bakteriengruppen im menschlichen Verdauungstrakt, die das schaffen [5].
Da resistente Stärke im Dünndarm nicht in ihre Glukose-Einheiten aufgespalten wird, steigt der Glukosespiegel nach ihrem Verzehr weniger stark an als bei herkömmlicher Stärke.
Verdaubarkeit von Stärke – eine Typenfrage
Resistente Stärke ist nicht gleich resistente Stärke, denn es gibt davon insgesamt fünf verschiedene Arten – so genannte Subtypen oder Fraktionen.
Typ1 der resistenten Stärke (RS 1) ist natürliche Stärke, die durch ihre kompakte Struktur für Verdauungsenzyme kaum bis gar nicht zugänglich ist. Durch Mahlen wird diese Stärke-Fraktion, die vor allem in ganzen Getreidekörnern, Samen, Saaten und Hülsenfrüchten zu finden ist, besser verdaulich.
Resistente Stärke des Typ 2 (RS 2) ist ebenfalls natürliche Stärke und kommt in granulärer Form in Stärkekörnern vor. Sie ist beispielsweise in ungekochten Kartoffeln, grünen Bananen oder Maisstärke enthalten [6]. RS 2 ist in kaltem Zustand gegenüber den menschlichen Verdauungsenzymen resistent und wird für diese erst nach dem Erhitzen zugänglich, wenn die Stärkekörner quellen und platzen [7, 8].
Resistente Stärke Typ 2 ist die Vorstufe der resistenten Stärke Typ 3 (RS3). Diese ist nicht in rohen Produkten enthalten und entsteht nur dann, wenn zuvor erhitzte stärkehaltige Lebensmittel erkalten. Ein Teil der Stärkemoleküle bildet dabei kristalline Strukturen aus, und die Stärke „verkleistert“ zur RS 3. Diese ist für die Verdauungsenzyme nicht mehr angreifbar und für den Menschen daher unverdaulich – für die Bakterien in unseren Darm aber nicht [9, 10]. Das Aufwärmen kann den Gehalt an resistenter Stärke wieder verringern [11, 12, 13]. Ein Beispiel für ein Gericht mit RS3 ist Kartoffel- oder Nudelsalat.
Beim Typ 4 der resistenten Stärke (RS 4) handelt es sich um chemisch modifizierte unverdauliche Stärke. Diese wird künstlich vernetzt oder mit bestimmten Molekülen versehen, um so ihre Eigenschaften zu verändern. Das Vernetzen der einzelnen Stärke-Moleküle wird hauptsächlich in der Pharma- und Lebensmittelindustrie eingesetzt. Diese Veränderung führt zu einer widerstandfähigeren Stärke, der Hitze, Säure und mechanische Kräfte weniger anhaben können [14]. Stärke des Typs 4 findet man beispielsweise in Ballaststoff-Drinks oder bestimmten Brot- und Kuchensorten.
Bei RS 5 handelt es sich wie bei RS4 um resistente Stärke, die nicht in natürlichen Lebensmitteln vorkommt. Sie liegt als Komplex aus Zucke rund Fetten vor und ist ebenfalls unverdaulich.
Kleine Untermieter im Darm – unser Darmmikrobiom
Der Mensch ist dicht mit Mikroorganismen besiedelt, die auch als menschliches Mikrobiom bezeichnet werden. Genaugenommen bestehen wir sogar zur Hälfte aus Mikroorganismen: Es wird geschätzt, dass ein Mensch im Durchschnitt aus 30 Billionen Zellen besteht. Dazu kommen dann noch einmal ungefähr 30 Billionen Mikroorganismen, die ihn innen und außen besiedeln [15]. Die meisten davon tummeln sich im Darm und werden als Darmmikrobiom bezeichnet.
Heute weiß man, dass die Zusammensetzung unseres Darmmikrobioms kann unseren Energiehaushalt und unsere Gesundheit beeinflussen kann [16, 17]. Die kleinen Untermieter in unserem Darm brauchen, ebenso wie wir, auch Nahrung und ernähren sich von dem, was bei ihnen im Darm landet. Essen, das im Dünndarm nicht verdaut wurde – vor allem Ballaststoffe – gelangt in den mittleren Teil des Dickdarms. Dort bietet es den Bakterien einen herausragenden Nährboden [18]. Dies erklärt, warum unsere Ernährung auch einen Einfluss auf die Zusammensetzung unseres Darmmikrobioms hat [19].
Gelangt resistente Stärke in den Dünndarm, wird der Prozess der anaeroben – also ohne Sauerstoff ablaufenden – Fermentation gestartet. Dabei stellen die Bakterien aus der Nahrung Alkohol, CO2 und organische Säuren her [20]. Durch die anaerobe Fermentation entstehen aus resistenter Stärke schließlich Salze von kurzkettigen Fettsäuren wie Buttersäure, Essigsäure und Propionsäure: Butyrat, Acetat und Propionat.
Nicht alle Arten resistenter Stärke wirken sich allerdings gleich auf die Zusammensetzung unseres Darmmikrobioms aus. So etwa lässt resistente Stärke vom Typ 2 andere Bakterien im Darm wachsen als Typ 4 [21, 22]. Um konkrete Aussagen zum Einfluss verschiedener Stärke-Typen auf die Biodiversität in unserem Darm machen zu können, bedarf es aber noch weiterer Studien.
Der Einfluss kurzer Fettsäuren auf unsere Gesundheit
Unsere Darmbakterien produzieren aus resistenter Stärke im Dickdarm unter anderem Acetat, welches im menschlichen Körper eine wichtige Rolle im Fett-Metabolismus spielt und entzündungshemmende Eigenschaften besitzt. Seine Rolle im Fett-Stoffwechsel ist aber eher negativ behaftet, denn eine erhöhte Produktion von Acetat geht mit größerem Appetit und einem höheren Risiko für Übergewicht einher [23].
Vom Propionat, das ebenfalls vom Darmmikrobiom im Dickdarm aus resistenter Stärke gebildet wird, wird jedoch angenommen, dass es der Gegenspieler zum Acetat ist und unseren Appetit zügelt. Propionat hat außerdem möglicherweise einen schützenden Einfluss auf unseren Blutkreislauf, indem es der Verstopfung der Arterien entgegenwirkt [24]. Sowohl Acetat als auch Propionat wirken entzündungshemmend, und beide können ins Gehirn gelangen [25, 26].
Buttersäure und ihre Derivate sind eine der Hauptenergiequellen der Darmepithelzellen und halten diese funktionsfähig, sodass keine ungewünschten Substanzen in unseren Kreislauf gelangen können. Diese Fettsäure schafft es auch, Entzündungsreaktionen im Darm herunterzuregulieren und hat möglicherweise einen gesundheitsfördernden Effekt [27, 28, 29]. Außerdem besitzt sie antioxidative Eigenschaften und einen möglichen Tumor-hemmenden Effekt, weshalb sie verstärkt in den Fokus der Wissenschaft gerückt ist. Durch eine Ernährung, die viel resistente Stärke enthält, kann man den Buttersäure-Spiegel erhöhen, was auch den Verlauf von Darmkrebs-Erkrankungen verbessern kann [30,31].
Darm-Hirn-Achse: Wie unser Bauch das Hirn beeinflusst
Kurze Fettsäuren, die Hauptprodukte der Fermentationsprozesse unserer Darmbakterien, können nicht nur unsere Gesundheit beeinflussen, sie wirken sich auch auf das Gehirn aus. Auch wenn die genauen Mechanismen noch unklar sind, konnte schon gezeigt werden: Ein Ungleichgewicht in unserem Darmmikrobiom kann Auswirkungen auf unser Hirn haben. Etliche Studien legen eine Verbindung zwischen einem gestörten Darmmikrobiom und neurologischen Krankheiten nahe – von Depressionen, Alzheimer, Parkinson bis hin zu Autismus [32, 33, 34, 35].
Eine mögliche Erklärung dafür: Acetat, das beim Abbau resistenter Stärke in unserem Darm entsteht, kann über den Blutstrom in unser Gehirn gelangen. Dort hat es nicht nur Einfluss auf unser Sättigungsgefühl, es ist auch wichtig für die Reifung von Mikroglia-Zellen im Gehirn. Diese speziellen Immunzellen fressen Fremdkörper oder schadhafte Gehirnzellen auf. Studien weisen des Weiteren darauf hin, dass durch Mikroorganismen erzeugtes Acetat dem Fortschreiten neurodegenerativer Erkrankungen entgegenwirken kann [36].
Auch Butyrat ist in der Lage, die Blut-Hirn-Schranke zu durchqueren, welche als Schutzbarriere zwischen Hirnsubstanz und Blutstrom dient, und gelangt so ins Gehirn. Dort kann es dann durch das Regulieren von Genen verschiedene positive Wirkungen haben. aher wird Butyrat in der Forschung als experimentelles Medikament für Studien zu neurologischen Erkrankungen – von Depression über neurodegenerative Erkrankungen bis hin zu kognitiven Beeinträchtigungen – eingesetzt [37, 38].
Resistente Stärke: Gut fürs Abnehmen?
Der Konsum von resistenter Stärke scheint auch gut fürs Abnehmen zu sein – zumindest bei Mäusen. Bei diesen konnte gezeigt werden, dass resistente Stärke von Kartoffeln zu einer geringeren Gewichtszunahme führte als bei Ernährung ohne resistente Stärke [39].
Beim Menschenaber scheint resistente Stärke bei gesunden Personen keinen Effekt auf die Gewichtsabnahme zu haben – zu diesem Ergebnis kam zumindest eine Zusammenfassung von mehreren Daten [40]. Da resistente Stärke die Fettverbrennung ankurbelt und die Speicherung von Fett in den Fettzellen verringert, betonen die Studienautor:innen aber, dass resistente Stärke übergewichtigen Menschen durchaus beim Abnehmen helfen könnte. Hinweise dafür gab es in einer Studie, bei der die Studienteilnehmenden 40 Gramm resistenter Stärke einnahmen und innerhalb von 8 Wochen 2,8 Kilogramm verloren. Das Problem dabei war jedoch, dass mit 37 übergewichtigen Studienteilnehmer:innen die Gruppe an Proband:innen ziemlich klein war. Des Weiteren wurde mit 40 Gramm die empfohlene Tagesdosis von 25-30 Gramm an Ballaststoffen, zu denen die resistente Stärke ja auch zählt, überschritten [41, 42].
Was auch noch bekannt ist: Resistente Stärke schafft es, den Glukose-Stoffwechsel im Körper anzuregen. Dies könnte für Diabetiker:innen interessant sein, um den Blutzuckerspiegel zu senken – hier benötigt es aber einer besseren Studienlage, um sichere Aussagen treffen zu können [43].
Fazit
Resistente Stärke, die beim Erkalten von zuvor gewärmten Nudeln, Kartoffeln, Reis und auch Süßkartoffeln entsteht, birgt großes Potential für unsere Gesundheit: Sie ist eine hervorragende Nahrungsgrundlage für die Bakterien in unserem Darm, die sie dann zu kurzen Fettsäuren weiterverarbeiten. Diese spielen eine Schlüsselrolle in der Regulation verschiedenster Stoffwechselprozesse und können Einfluss auf die Funktion unseres Gehirns, die Regulation des Blutzuckers, den Schutz des Blutkreislaufs bin hin zu potenzieller Prävention von Darmkrebs haben. Mit resistenter Stärke tun wird somit nicht nur unseren Darmbakterien etwas Gutes, sondern in weiterer Folge vermutlich auch unserem Wohlbefinden.
Des Weiteren wäre es möglich, dass resistente Stärke übergewichtigen Personen beim Abnehmen hilft, und auch im Zusammenhang mit Diabetes wird ihr Positives nachgesagt. Aktuell wird mit Hochtouren an diesen Themen geforscht, und es braucht noch mehr Studienergebnisse, um hier sichere Aussagen treffen zu können.
[2] Amagliani L., O’Regan J., Kelly AL and O’Mahony JA: Chemistry, structure, functionality and applications of rice starch (2016). J. Cereal Sci.;70:291–300. doi: 10.1016/j.jcs.2016.06.014.
[6] Jay-lin J., Zihau A., Duvick SA, Wiklund M., Yoo SH, Wong KS and Gardner C.: Structures of Amylopectin and Starch Granules: How Are They Synthesized? (2003), Journal of Applied Glycoscience, Volume 50, Issue 2, Pages 167-172. Doi: 10.5458/jag.50.167
[8] Jay-lin J, Zihau A., Duvick SA, Wiklund M., Yoo SH, Wong KS and Gardner C.: Structures of Amylopectin and Starch Granules: How Are They Synthesized? (2003), Journal of Applied Glycoscience, Volume 50, Issue 2, Pages 167-172. Doi: 10.5458/jag.50.167.
[14] Compart J., Singh A., Fettk, J. and Apriyanto A.: Customizing Starch Properties: A Review of Starch Modifications and Their Applications (2023). Polymers, 15(16), 3491. doi: 10.3390/polym15163491
[31] Maier TV, Luci, M., Lee LH, VerBerkmoes NC, Brislawn CJ, Bernhardt J., Lamendella R., McDermott JE, Bergeron N., Heinzmann SS, Morton JT, González A., Ackermann G., Knight R., Riedel K., Krauss RM, Schmitt-Kopplin P. and Jansson JK: Impact of Dietary Resistant Starch on the Human Gut Microbiome, Metaproteome, and Metabolome (2017). mBio. 2017 Oct 17;8(5):e01343-17. doi: 10.1128/mBio.01343-17.
Rinnende Nase, brennende Augen – wer kennt das nicht? Mit dem Aufblühen der Bäume, Sträucher und Gräser im Frühling beginnt zum Leidwesen der AllergikerInnen auch wieder die alljährliche Allergiesaison. Wussten Sie, dass sich aufgrund einer Pollenallergie auch eine Kreuzallergie auf bestimmte Lebensmittel entwickeln kann? Die bESSERwisser haben dazu recherchiert.
Allergie-Erkrankungen in Österreich
In den vergangenen Jahren hat die Zahl von Allergie-Erkrankungen weltweit zugenommen, und Allergien haben sich längst zur Volkskrankheit entwickelt. Laut dem erstem österreichischen Allergiebericht litt im Jahr 2006 bereits jede fünfte Person in Österreich an einer Allergie [1]. Innerhalb weniger Jahre gab es hier dann einen deutlichen Anstieg: Eine groß angelegte Langzeitstudie zeigte, dass im Jahr 2012 bereits rund 37 Prozent der ÖsterreicherInnen von Allergien betroffen waren – das entspricht in etwa jeder dritten Person [2]. Im Zuge derselben Studie wurde vier Jahre später erhoben, dass es bis zum Jahr 2016 bei den österreichischen AllergikerInnen zu einem weiteren Zuwachs von 13 Prozent kam [3].
Bei einer Allergie handelt es sich um eine Überreaktion des Körpers auf bestimmte Stoffe, die an sich harmlos sind. Das Immunsystem stuft diese als gefährlich ein und bekämpft sie. Eine Allergie entspricht funktionell einer fehlgeleiteten Entzündungsreaktion. Die winzigen Bestandteile von Stoffen, die Allergien hervorrufen können, werden als Allergene bezeichnet. Allergenquellen wiederum nennt man Stoffe, die Allergene enthalten. So etwa stellt der Pollen die Allergenquelle dar, und bestimmte Bestandteile davon das Allergen.
In Österreich stellt die Pollenallergie, auch als Heuschnupfen bekannt, die häufigste und am weitesten verbreitete Allergie dar: Eine Umfrage im Jahr 2019 ergab, dass rund 43 Prozent aller ÖsterreicherInnen unter den Pollen von Bäumen, Gräsern und anderen Pflanzen leiden [4]. Anzeichen für eine Allergie können juckende Augen und eine juckende Nase, häufiger Niesreiz oder Schnupfen sein.
Kreuzallergien
Bei vielen Menschen mit Pollenallergie bleibt es nicht bei dieser einen Allergie. Viele Betroffene reagieren irgendwann zusätzlich zu Baum- oder Gräserpollen auch auf bestimmte Obst- oder Gemüsesorten oder Gewürze allergisch. Man spricht von einer pollenassoziierten Nahrungsmittelallergie. Darunter leiden vor allem Personen, die auf Frühblüher (Hasel, Erle, Birke) allergisch reagieren [5]. Die pollenassoziierte Nahrungsmittelallergie beruht auf einer so genannten Kreuzallergie oder Kreuzreaktion, einem speziellen Fall einer allergischen Reaktion: Die Allergene von zwei Stoffen ähneln sich stark, und der Körper kann sie nicht voneinander unterscheiden. So kann sich bei bestehender Allergie gegen Pollen dann auch eine Allergie gegen Nahrungsmittel ausprägen. In vielen Fällen liegt einer Kreuzallergie eine botanische Verwandtschaft oder (bio-)chemisch ähnliche Struktur zugrunde, nicht immer sind die Gemeinsamkeiten jedoch bekannt. Beim Großteil der Betroffenen sind Kreuzallergien nicht an die Pollensaison gebunden und verursachen das ganze Jahr über allergische Reaktionen. Bei einem kleineren Teil der AllergikerInnen korrelieren die Allergiesymptome mit der Pollensaison [6].
Das bekannteste Beispiel für eine Kreuzallergie ist das Birkenpollen-Nuss-Kernobst-Syndrom: Personen mit Birkenpollenallergie vertragen oft auch keine rohen Äpfel, Haselnüsse, Kirschen, Karotten, Sellerie, Sojabohnen oder Erdnüsse. Sie reagieren allergisch auf den Verzehr dieser Lebensmittel, weil ihr Immunsystem darin enthaltene Strukturen mit dem Birkenpollen-Allergen verwechselt [7].
Kreuzreaktionen treten relativ häufig auf: Schätzungsweise 60 Prozent aller Nahrungsmittelallergien sind das Resultat einer Kreuzreaktion [8].
Wie bemerkt man eine Kreuzallergie?
Aufgrund möglicher Kreuzallergien sollten PollenallergikerInnen beim Genuss bestimmter Nahrungsmittel vorsichtig sein. Jucken oder Bläschenbildung im Mund- und Rachenraum könnten ebenso ein Hinweis auf eine Kreuzallergie sein wie Mund-, Zungen-, Hals- und Lippenschwellungen. Auch Heiserkeit, Taubheitsgefühl, Schwellung der Augenlider, Schnupfen und Bindehautentzündungen, Asthma oder Rötungen und Quaddeln auf der Haut können als Folge einer Kreuzallergie auftreten. Seltener kommt es zu Atem- oder Schluckbeschwerden, Bauchschmerzen und Erbrechen oder anaphylaktischen Reaktionen [7, 8]. Eine eindeutige Diagnose, ob es sich um eine Kreuzallergie handelt, kann allerdings nur der Arzt oder die Ärztin mithilfe eines Allergietests liefern.
Kreuzallergie bei Pollenallergie: Vorsicht mit diesen Lebensmitteln
Kreuzallergien mit folgenden Lebensmitteln kommen bei PollenallergikerInnen besonders häufig vor [6-11]:
Allergie gegen Baumpollen (z.B. Birke, Erle, Hasel)
Gemüse und Kräuter: Kartoffel, Tomate, Hülsenfrüchte, Mais, Zwiebel, Sellerie, Sojabohnen
Nüsse: Erdnüsse
Cerealien: Kleie, Weizen, Hafer, Roggen, Reis
Werden die genannten Lebensmittel jedoch gut vertragen, hilft ihr regelmäßiger Konsum, die Toleranz gegenüber den Allergenen aufrechtzuerhalten.
Übrigens: Auch bei anderen Allergien, wie beispielsweise gegen Hausstaubmilben, Latex oder Hühnerfedern, kann es zu Kreuzallergien mit bestimmten Lebensmitteln kommen [8, 12].
Tipps bei Kreuzallergien
Zunächst ist es wichtig, den eigenen Körper nach dem Verzehr „heikler“ Lebensmittel zu beobachten und die Lebensmittel zu identifizieren, die allergische Symptome auslösen. Am besten ist es, bei bestehender Pollenallergie nur kleine Mengen der möglicherweise allergieauslösenden Obst-, Gemüse-, Nuss- oder Cerealien-Sorte auszuprobieren. Hat der oder die Betroffene bereits heftig auf bestimmte Lebensmittel reagiert, sollten Experimente auf Kreuzallergien keinesfalls ohne ärztliche Aufsicht durchgeführt werden. Auch ob tatsächlich eine Kreuzallergie vorliegt, kann nur der Arzt oder die Ärztin bestätigen.
Bei ärztlich bestätigter Kreuzallergie sollte der Genuss der betroffenen Lebensmittel dann wenn möglich vermieden werden. Nicht bei allen Kreuzallergien ist jedoch ein gänzlicher Verzicht wie bei primären Lebensmittelallergien nötig [7]. Manche Lebensmittel sind nach dem Kochen, Backen oder Braten für KreuzallergikerInnen gut verträglich, da sich durch das starke Erhitzen die Struktur der Allergene verändert.
Kreuzallergie auf Äpfel
Dies kann etwa bei einer Apfelallergie der Fall sein, welche oft als Begleiterscheinung bei Personen mit Birkenpollen vorkommt: Viele Personen mit einer Apfelallergie reagieren zwar auf rohe Äpfel, vertragen aber meist verarbeitete Äpfel in Form von Apfelkuchen, -kompott oder -saft.
ApfelallergikerInnen können außerdem unterschiedlich auf verschiedene Apfelsorten reagieren. Manchmal genügt es daher schon, auf eine spezielle Sorte zu verzichten. Auch die Jahreszeit kann die Allergie beeinflussen: Es gibt ApfelallergikerInnen, die selbst auf rohe Früchte nur während der Pollensaison Symptome entwickeln und nur zu dieser Zeit darauf verzichten müssen.
Was auch interessant ist: Auf die gleiche Sorte muss eine Reaktion nicht immer gleich ausfallen, da die Zahl der Allergene im Apfel innerhalb derselben Sorte je nach Reifezeit und Lagerungsmethode schwanken kann.
Des Weiteren wirken einige alte Apfelsorten weniger allergen als die gängigen Supermarktäpfel. Neue Züchtungen zielen meist auf einen hohen Süßegrad ab, was durch eine Reduktion bestimmter Abwehrstoffe, der Polyphenole, erreicht wird, aber auch mir einem höheren Anteil an Allergenen verbunden ist. Erste Studien konnten nun zeigen, dass der regelmäßige Verzehr alter Apfelsorten die Beschwerden von AllergikerInnen lindern konnte und diese auch neue Apfelsorten wieder besser vertragen [13]. Früher war eben alles besser.
Referenzen:
[1] Dorner T., Lawrence K., Rieder A. und Kunze M.: Österreichischer Allergiebericht. In: Verein Altern mit Zukunft, Juni 2006.
[2] Breyer-Kohansal R., Breyer MK, Hartl S., Burghuber OC: The Austrian LEAD (Lung hEart sociAL boDy) Study: Background of the Austrian Longitudinal Cohort Study. Pneumologie. 2015;69(8):459-62.
[3] Breyer-Kohansal R., Hartl S., Burghuber OC, et al.: The LEAD (Lung, Heart, Social, Body) Study: Objectives, Methodology, and External Validity of the Population-Based Cohort Study. J Epidemiol. 2019;29(8):315-324. doi:10.2188/jea.JE20180039
Warum werden zu Ostern massenhaft Osterhasen aus Schokolade verschenkt und Hasen aus Mürbteig oder Sandmasse gebacken? Die bESSERwisser haben recherchiert, was Hasen eigentlich mit Ostern zu tun haben. Auch eine Antwort auf die Frage, ob übrige Schoko-Weihnachtsmänner tatsächlich zu Schoko-Osterhasen werden, gibt es hier.
Wie bereits ausgeführt, gibt es zum Osterfest sehr viel Traditionelles – sowohl Eier als auch spezielles Ostergebäck sind schon lange bekannt. Aber Osterhasen? Gleich vorweg: Eine sehr alte Tradition sind Osterhasen nicht. Diese können weder auf das christliche Fest und schon gar nicht auf sogenannte „uralte“ heidnische Bräuche zurückgeführt werden. In etlichen ländlichen Regionen waren Osterhasen oft noch bis zu Beginn des 20. Jahrhunderts praktisch unbekannt.
Der Osterhase – eine städtische Erfindung
Wir ahnen es also schon: Der Osterhase ist eine bürgerliche Erfindung. Und an seiner massenhaften Verbreitung hat die aufkommende Schokoladenindustrie einen ganz wesentlichen Anteil.
Erste historische Quellen zum Osterhasen gibt es seit der zweiten Hälfte des 17. Jahrhunderts, wo er beim städtischen protestantischen Bürgertum in Deutschland auftauchte. Im 18. wurde es in diesen Kreisen im deutschsprachigen Raum üblich, Eier zu verstecken und die Kinder danach suchen zu lassen – sozusagen Spiel und Unterhaltung im Familienkreis. Als Urheber der versteckten Eier wurde dabei der Osterhase präsentiert [1]. Durch Zeitschriften mit Illustrationen, Gedichten und Kinderliedern verbreitete sich dieses Bild. Im 19. Jahrhundert setzte sich der Osterhase, nun meist wie ein Mensch bekleidet dargestellt, ganz allgemein im Bürgertum durch. In Kinderliedern, Gedichten und Kinderbüchern sowie auf Oster-Postkarten bekam der fleißige Osterhase Familie und wurde beim Bemalen und Austragen der Eier dargestellt.
Schon im 19. Jahrhundert wurde – bedingt durch Nationalismus und Germanenschwärmerei – der Osterhase mit der germanischen Göttin Ostara in Verbindung gebracht. So zum Beispiel von Jacob Grimm in seiner Deutschen Mythologie (1835). Deutschnationale oder nationalsozialistische Volkskundler beförderten ihn dann später zum „uralten“ germanischen Brauch. Allerdings handelt es sich dabei um reine Spekulation – „Fake News“, wie man heute sagen würde.
Osterhasen aus Schokolade
Im 19. Jahrhundert entstanden erste Schokoladefabriken, die auch bereits Ostereier aus Schokolade produzierten. Diese waren allerdings hart und eher bitter. Durch die laufenden Verbesserungen in der Produktion wurde die Schokolade allmählich besser. Individuell gefertigte Hohlformen aus Weißblech wurden für Figuren aus Schokolade verwendet. Allerdings war noch relativ viel Handarbeit nötig, und Schokolade war sehr teuer. Erst durch das Aufkommen der Massenproduktion wurde Schokolade erschwinglich. Die Beliebtheit dieser Süßigkeit machte sie auch zum idealen Geschenkartikel. In den 1920iger Jahren wurden vollautomatische Produktionsanlagen für Hohlformen eingeführt, die Schokoladefiguren weiter verbilligten. Allerdings reduzierte das die Vielfalt an Osterhasenformen.
Vom Getränk zu ersten Schokolade-Tafeln
Kakaobäume stammen aus Zentralamerika und wachsen nur in tropischen Regenwäldern. Heute kommt der meiste Kakao aus Westafrika, besonders von der Elfenbeinküste und aus Ghana. Die Schokoladenproduktion ist aber in kühlen Ländern einfacher und billiger, da der Schmelzpunkt von Schokolade schon bei 36 Grad liegt.
Schokolade, wie wir sie heute kennen, ist erst sehr spät erfunden worden. Bis ins 19. Jahrhundert wurde sie nur als Getränk genossen, vorwiegend im katholischen südlichen Europa, da sie als Fastenspeise anerkannt war. Allerdings war sie sehr teuer und nur Wohlhabenden zugänglich. Für das Getränk mussten die Kakaobohnen gemahlen und die Kakaobutter, die etwa die Hälfte der Bohnen ausmacht, entfernt werden.
In den Niederlanden wurde 1828 erstmals eine hydraulische Presse zur Trennung der Kakaobutter verwendet und somit Kakaopulver mit hoher Qualität erzeugt. Was aber tun mit der Kakaobutter? In Großbritannien wurde unterdessen versucht, Schokolade in einer festen Form zu erzeugen. Und siehe da, es war die Zugabe der übrigen Kakaobutter, mit der man Schokoladetafeln erzeugen konnte. 1847 begann die Produktion von Schokoladetafeln in Großbritannien (Fry & Sons). Um diese Zeit wurden auch Kakaoplantagen in Afrika und Asien angelegt, und so konnten größere Mengen Kakaobohnen erzeugt werden. Der Preis für Kakaobohnen fiel.
Billige Qualitäts-Schokolade
Jetzt kamen die Schweizer ins Spiel: Erst erfanden sie Milchpulver (1875, Nestlé), das die Schokolade wesentlich haltbarer machte als jene, die mit Frischmilch erzeugt wurde. Und dann entwickelten sie das Conchieren (1879, Lindt), das Schokolade zu einem weicheren, zartschmelzenden Produkt macht. Beim Conchieren wurden die Zutaten der Schokolade erwärmt und mit Granitwalzen bearbeitet, sodass die Zuckerkristalle zerbrachen und die Masse geschmeidiger wurde. Zusätzlich verflüchtigten sich Bitterstoffe durch diesen Prozess. Während Schweizer Schokolade lange Zeit 72 Stunden lang conchiert wurde, konnte der Prozess inzwischen durch leistungsfähigere Conchiermaschinen auf 12 bis 48 Stunden verkürzt werden. Bis heute halten es die verschiedenen Länder anders mit dem Conchieren – in manchen Ländern ist es nicht beliebt, in manchen wird kürzer oder länger conchiert. Das trägt neben dem verschiedenen Anteil der Zutaten dazu bei, dass Schokolade nicht überall gleich schmeckt.
Durch die bessere Qualität und die Verbilligung aufgrund der industriellen Erzeugung wurde Schokolade um 1900 ein Produkt, das auch größere Teile der Bevölkerung erreichte. Und warum sollte diese Schokolade nicht in spezieller Form für allerlei Feste verkauft werden, bei denen Kinder beschenkt werden – wie zum Beispiel zum Nikolaus oder zu Ostern? Die Automatisierung in den Produktionsanlagen machte die Massenproduktion von Sonderformen deutlich billiger.
Schokoladenkonsum heute: Deutschsprachige Länder vorne
Schokolade wird heute hauptsächlich in Nordamerika und Europa konsumiert. Weltweit hatte die Schweiz lange die Nase beim Schokoladenessen mit jährlich rund 8,8 Kilogramm „Schoggi“ pro Kopf vorn. Inzwischen wurde sie von Deutschland überholt. Auch Österreich kann da gut mithalten: Der jährliche pro Kopf-Verbrauch von Schokolade in Österreich liegt über 8 Kilogramm [2]. Drei Viertel der Österreicher und Österreicherinnnen gaben 2020 an, mindestens einmal in der Woche Schokolade zu konsumieren.
Vor Ostern wird bei uns mehr Schokolade gekauft als zu Weihnachten. Deutschland und Österreich produzieren bei den Festtags-Schokoladen nicht nur für die eigene Bevölkerung: Die deutsche Süßwarenindustrie erzeugt rund 220 Millionen Osterhasen jährlich und exportiert davon beinahe die Hälfte. Von den in Österreich produzierten Schokolade-Saisonwaren gehen ebenfalls mehr als die Hälfte in den Export. Exportiert wird in andere europäische Länder sowie Nordamerika und teilweise auch Australien. In der Schweiz stehen etwa 16 Millionen Osterhasen jährlich in den Regalen – doppelt so viele wie Einwohner – und warten auf Käufer.
Bei Bio- und Fairtrade-Schokolade wird darauf geachtet, dass der Anbau und die Ernte der Kakaobohnen ohne Kinderarbeit erfolgt und keine Umweltgifte eingesetzt werden. Bio- und Fairtrade-Osterhasen sind jedoch noch eine winzige Marktnische und machen gerade einmal ein paar Prozent aus. Dem Großteil der Käufer sind hier Quantität und niedrige Preise wichtiger als Qualität und faire Erzeugung.
Werden Schoko-Weihnachtsmänner wirklich zu Schoko-Osterhasen?
Gerade im Coronajahr 2020 kam durch einen massiven Einbruch beim Kauf der Osterware wieder die Frage auf, was denn mit der nicht verkauften Osterware passiert. Die Hersteller versicherten, dass die übrige Ware an caritative Organisationen oder Krankenhäuser verschenkt wurde. Teilweise wird übrige Osterware auch stark verbilligt in nicht christliche Länder exportiert.
Doch was ist dran an dem Mythos, dass Weihnachtsmänner zu Osterhasen aus Schokolade umgepackt oder weiterverarbeitet werden? Das ist ein Märchen, da ausgelieferte Schokolade schon von Gesetzes wegen nicht zurück genommen werden darf. Außerdem würde dies extrem teure Handarbeit erfordern – die Produktion läuft ja weitgehend vollautomatisiert – und der Qualität schaden. Was nicht verschenkt oder weiterverkauft wird, landet im Müll, auch wenn das niemand zugeben möchte.
Um beim Sport genügend Energie zu haben und schneller Muskeln aufzubauen, wird eine Extraportion Protein benötigt – so die weitverbreitete Meinung. Deshalb greifen viele Sportler unter anderem zu Milchprodukten, die mit Protein angereichert sind. Aber wie viel Eiweiß braucht der Körper wirklich, und kann zu viel Eiweiß gar schaden? Die bESSERwisser haben die Antworten.
Eiweiß ist für Hobbysportler und Fitnessfanatiker schon längst unverzichtbar. Wer viel Sport macht, der braucht viel Protein – diese Meinung wird häufig vertreten. Viel Energie und schneller Muskelaufbau sind das Ziel. Dazu greifen Sportler häufig zu Proteinriegeln, Shakes & Co, die schon längst fixer Bestandteil vieler Supermarktregale sind. In den letzten Jahren wurde der Markt jedoch zunehmend von Milchprodukten erobert, die mit der Extraportion Protein werben – egal ob Milch, Joghurt oder Topfencreme. Auch Protein-Eis gibt es seit längerem zu kaufen. Das Versprechen all dieser Produkte: Schlank, fit und gesund dank einer Extraportion Eiweiß.
Was sind Proteine?
Eiweiße – auch Proteine genannt – sind stickstoffhaltige organische Substanzen, die aus vielen hintereinander angeordneten Aminosäuren bestehen und unterschiedlich langen Ketten bilden. Proteine erfüllen im menschlichen Körper wichtige Funktionen: Sie sind Baustoffe von Zellen, Gewebe – wie beispielsweise Muskelfasern – und Organen. Enzyme, Hormone und Antikörper sind ebenfalls Proteine. Auch die Blutgerinnung und der Transport von Vitaminen oder Eisen erfolgen über Proteine. Diese stellen außerdem wichtige Energielieferanten dar.
Die in der Nahrung enthaltenen Proteine sind aus insgesamt 20 verschiedenen Aminosäuren aufgebaut. Neun davon sind unentbehrlich und müssen mit der Nahrung aufgenommen werden. Auch die entbehrlichen, oder bedingt unentbehrlichen Aminosäuren werden vom Organismus benötigt, um körpereigene Proteine aufzubauen. Letztere kann der Körper in bestimmten Lebens- und Krankheitssituationen gar nicht oder unzureichend selbst synthetisieren.
Über unsere Ernährung nehmen wir Eiweiß durch eine Vielzahl tierischer und pflanzlicher Lebensmittel wie Fleisch, Eier oder Hülsenfrüchte auf. Die Empfehlung für die tägliche Proteinzufuhr liegt für gesunde Erwachsene bei 0,8 Gramm Eiweiß pro Kilogramm Körpergewicht [1]. Eine 70 kg schwere Person sollte demnach rund 56 Gramm Eiweiß pro Tag verzehren, was bereits mit einer Portion Fleisch von ungefähr 200 Gramm erfüllt wäre. Durch eine vollwertige Mischkost wird der tägliche Bedarf an Eiweiß also ohne Schwierigkeiten gedeckt.
Bei der Zufuhr spielt aber nicht nur die Quantität, sondern vor allem die Qualität eine entscheidende Rolle. Am besten kann der menschliche Körper tierisches Eiweiß für sich nutzen. Die so genannte biologische Wertigkeit dient der Abschätzung der Qualität von Proteinen in Lebensmitteln: Hühnereier besitzen mit einem Wert von 100 die höchste Eiweißqualität, dicht gefolgt von Schweinefleisch und Soja. Durch die Kombination verschiedener Nahrungsmittel verbessert sich die biologische Wertigkeit nochmals deutlich, ein gutes Beispiel ist der Klassiker Spinat mit Spiegelei und Kartoffeln [1].
Extraportion Protein: Nur bei Leistungssportlern sinnvoll
Viele Lebensmittelhersteller sehen in der Anreicherung von Lebensmitteln mit Protein das große Geschäft. Vor allem Milchprodukte mit extra zugesetztem Protein überschwemmen aktuell den Markt – und das, obwohl Milch schon von Natur aus Eiweiß enthält. Neben Milch, Joghurt und Topfencreme werden inzwischen aber auch Müsli und Brot mit zusätzlichem Protein aufgepeppt. Damit Produzenten mit Slogans wie „hoher Proteingehalt“ oder „Proteinquelle“ werben dürfen, müssen diese Produkte einen gewissen Anteil an Eiweiß enthalten. Der erforderliche Mindestgehalt ist in der europäischen „Health Claims-Verordnung“ festgelegt [2].
Tatsächlich sind mit Protein angereicherte Produkte für die meisten Konsumenten verzichtbar, da der Proteinbedarf durch eine ausgewogene Ernährung ohne Probleme gedeckt werden kann. Das zeigt auch der Österreichische Ernährungsbericht 2017, laut dem Frauen und Männer in Österreich genügend Protein zu sich nehmen [3]. Es stellt sich somit die Frage, ob eine Extraportion Eiweiß überhaupt benötigt wird. Es gibt ein paar Personengruppen, die darauf tatsächlich angewiesen sind. Dazu zählen Schwangere und Stillende sowie Leistungs- und Profisportler [1].
Im höchsten Leistungsbereich beim Sport steigt der Proteinbedarf von 0,8 auf 1,2 bis 1,7 Gramm Eiweiß pro Kilogramm Körpergewicht. Experten empfehlen allerdings, eine tägliche Zufuhr von 2 Gramm Eiweiß pro Kilogramm Körpergewicht nicht zu überschreiten. Bei Leistungssportlern ist daher eine Nahrungsergänzung mit Eiweiß durchaus sinnvoll, sollte aber unter ärztlicher Aufsicht erfolgen. Bei normal sportlich aktiven Menschen lässt sich der Bedarf allerdings noch problemlos über die Ernährung decken, da eine erhöhte Gesamtkalorienaufnahme auch automatisch zu einer höheren Zufuhr an Eiweiß führt. Selbst Menschen, die vier- bis fünfmal pro Woche Sport betreiben, können auf eine extra Portion Eiweiß in Form von angereicherten Lebensmitteln verzichten [4,5].
Zu viel Protein kann der Gesundheit schaden
Eine dauerhaft zu hohe Proteinzufuhr kann negative Auswirkungen auf den menschlichen Körper haben. So kann beispielsweise langfristig zu viel Eiweiß die Verdauung beeinflussen und zu Verstopfung führen. Sollte dieser Fall eintreten, ist es besonders wichtig, auf eine ausreichende Flüssigkeitszufuhr zu achten [5].
Auch die Nieren können betroffen sein, die Effekte sind hier jedoch vom individuellen Gesundheitszustand abhängig: Gesunde Erwachsene brauchen selbst bei täglichem Konsum von 1,8 Gramm Eiweiß pro Kilogramm Körpergewicht keine negativen Auswirkungen auf ihre Nierenfunktion befürchten. Aussagen über mögliche Langzeiteffekte können jedoch aufgrund fehlender Daten derzeit nicht getroffen werden [6].
Bei Personen mit unterdurchschnittlicher Nierenfunktion gibt es einen Zusammenhang von hohem Eiweißkonsum und dem langfristigen Risiko einer Verschlechterung der Nierenfunktion. Bei Personen mit fortschreitender Nierenerkrankung sollte die Proteinaufnahme jedenfalls eingeschränkt werden, um den Rückgang der Nierenfunktion einzudämmen. Eine Eiweißzufuhr nach den Empfehlungen ist hier ratsam [7].
Auch Allergiker müssen bei Protein-Zusätzen vorsichtig sein. Denn Hersteller müssen ihre Rezepturen anpassen, um einen gewissen Anteil an Protein im Endprodukt zu erreichen. Während Müsli beispielsweise mit Soja-, Erbsen- oder Weizen-Eiweiß angereichert wird, kommt bei Vanillemilch zusätzlich Milcheiweiß hinzu. Bei Smoothies werden häufig Soja-Proteine zugesetzt – ein großes Problem für Personen, die dagegen allergisch sind. Es lohnt sich also immer, ein Blick auf die Zutatenliste zu werfen [7].
Extraportion Protein: Vergleichsweise teuer
Abgesehen vom gesundheitlichen Aspekt spricht auch der hohe Preis von Protein-Produkten nicht gerade für deren Kauf. Wie die Marktanalyse der Konsumentenschutzorganisation foodwatch 2017 zeigte, müssen Konsumenten für die Extraportion Protein tief in die Tasche greifen: Die Produkte mancher Hersteller waren bis zu 2,5-mal so teuer wie vergleichbare Produkte ohne zugesetztem Protein. Seit 2009 zeichnet foodwatch Produkte, die mit besonders dreister Verbrauchertäuschung arbeiten, mit dem „Goldenen Windbeutel“ aus. Für die Wahl 2017 war unter anderem eine Protein-Vanillemilch für den Preis nominiert [2].
Mehr Protein bedeutet nicht mehr Muskeln
Ein bekannter heimischer Produzent preist seine Topfencreme als „optimalen Trainingsabschluss zum Löffeln“ an. Ein Vanilledrink aus den Supermarktregalen wiederum soll „den Muskelaufbau unterstützen“ und wird als sportliches Getränk für eine „fitnessorientierte und alltagsaktive Zielgruppe“ beworben [8]. Die Werbung richtet sich somit nicht an jene Verbraucher, die auf eine erhöhte Zufuhr angewiesen sind, sondern soll normal sportlich aktive Menschen zum Kauf bewegen.
Vor allem Hobbysportler, die schnell Fett verlieren und Muskeln aufbauen wollen, setzen auf proteinreiche Diät. Teilweise tun sie das zu Recht, denn es gibt mittlerweile wissenschaftlich fundierte Belege, die für eine zusätzlich Proteinzufuhr sprechen – allerdings nur in geringen Mengen: Eine Proteinsupplementation – also die zusätzliche Aufnahme von Nahrungsprotein – verbessert den Muskelzuwachs durch Krafttraining, wenn die tägliche Versorgung mit Eiweiß unter 1,6 Gramm pro Kilogramm Körpergewicht liegt. Der Einfluss des Krafttrainings auf den Zuwachs von Muskelmasse ist jedoch wesentlich größer als die Protein-Supplementation.
Eine weitere Strategie, die viele Sportler zum Aufbau von Muskelmasse verfolgen, ist eine Kalorienaufnahme über dem tatsächlichen Energiebedarf. Eine positive Energiebilanz scheint den Aufbau von Muskulatur aber nicht wesentlich zu fördern. Bei gesunden, übergewichtigen Personen oder Profisportlern, die nach einer Verletzung oder Saisonpause das Training wieder aufnehmen, wurde folgendes beobachtet: Krafttraining in Verbindung mit erhöhter Proteinzufuhr und negativer Energiebilanz – dh wenn mehr Kalorien verbrannt als zugeführt werden – hatte einen Zuwachs der Muskulatur und Abbau der Fettmasse zur Folge. Bei regelmäßig trainierenden Personen konnte dies jedoch nicht beobachtet werden [6].
Um die Muskulatur möglichst gut aufzubauen, setzen viele Sportler auch darauf, ihre Proteinaufnahme rund um die Zeit des Trainings zu planen. Es gibt jedoch Hinweise darauf, dass eine Verteilung der täglichen Proteinaufnahme auf mehrere Mahlzeiten alle drei bis fünf Stunden den Aufbau von Muskulatur fördert. Es bleibt jedoch unklar, ob dies im Rahmen einer ausgeglichenen oder positiven Energiebilanz der Fall ist [6].
Fazit
Von „Protein-Müsli“ bis „Eiweiß-Brot“ – die Bandbreite an Lebensmitteln, denen eine Extraportion Protein hinzufügt wurde, ist groß. Meist werden diese Produkte von den Herstellern als sportlich-gesunde Lebensmittel vermarktet – häufig zu überteuerten Preisen. Dabei ist das Extra-Protein meist völlig überflüssig. Gesunde Menschen, die sich ausgewogen ernähren, sind ohnehin mit ausreichend Eiweiß versorgt. Auch Erwachsene, die oft sportlich aktiv sind, können die empfohlene tägliche Proteinmenge problemlos über ihre Ernährung aufnehmen. Bei gleichbleibender Ernährung und Aktivität führt die Extraportion Protein nicht zu einem erhöhten Muskelaufbau.
Insgesamt ist es schwierig, die sehr hohe Proteinaufnahme einiger Kraftsportler zu rechtfertigen. Es fehlt derzeit an unterstützender Forschung, die eine eindeutige Verbesserung der positiven Auswirkungen von Krafttraining auf die Muskelmasse bestätigt.
Brotbacken ist wieder voll im Trend, und viele greifen dafür auf den guten alten Sauerteig zurück. Frisches Sauerteigbrot punktet vor allem mit seinem unvergleichlichen Duft und Geschmack. Aber was macht Sauerteig so besonders, und ist Sauerteigbrot gesünder als herkömmliches Brot, das mit Hefe gebacken wurde? Die bESSERwisser haben recherchiert.
Brotbacken: Vom antiken Ägypten bis heute
Brotbacken zählt zu den ältesten Errungenschaften der Menschheit. Dafür sind im Prinzip nur wenige Zutaten nötig: Wasser, Getreide (bzw. Mehl), Salz – und Triebkraft. Und diese kommt beim herkömmlichen Brot von der zugesetzten Hefe, und beim Sauerteigbrot von Milchsäurebakterien.
Es wird vermutet, dass Getreide bereits 700 v. Chr. von Menschen kultiviert wurde, um deren Überleben zu sichern. Schon im antiken Griechenland und Ägypten sowie bei den Römern und Babyloniern war Brot ein Teil der Ernährung. So war schon damals das Fladenbrot, das mit Hefe hergestellt wird, eine beliebte Form von Brot. Auch Sauerteigbrot hat eine lange Geschichte: Die Gärung von Weizen mit Hefe und Milchsäurebakterien ist ein uralter biochemischer Prozess, dessen Tradition im alten Ägypten seinen Ursprung hat.
Dank vielfältiger Technologien wird heute in weiten Teilen der Welt eine Vielzahl unterschiedlicher Brotarten gebacken. Auch das Sauerteigbrot hat sich bis zur jetzigen Zeit gehalten. Beim Brotbacken kommen neben Weizen auch andere Arten von Getreide zum Einsatz. Insgesamt werden weltweit über 30 Getreidesorten angebaut und konsumiert. Bei uns sind vor allem Weizen, Gerste, Reis, Roggen, Mais und Amaranth sowie Hirse bekannt [1].
Sauerteig: Einfache Herstellung aus Wasser und Mehl
Bei Sauerteig, einem der ältesten biologischen Triebmittel, handelt es sich im Prinzip um nichts anderes als ein fermentiertes Gemisch aus Mehl und Wasser. Die Herstellung von Sauerteig ist anfangs recht zeitaufwendig und beginnt mit dem Herstellen eines so genannten Starters, auch Anstellgut genannt: Dazu wird Wasser mit Mehl vermengt und zugedeckt bei Zimmertemperatur stehen gelassen. Alle 24 Stunden werden gleiche Mengen an Wasser und Mehl zugegeben. Damit Sauerteigbrot gelingt, ist es wichtig, dass der Sauerteig ausreichend aktiv ist. Das erkennt man daran, dass im Ansatz nach drei bis vier Tagen Luftbläschen sichtbar sind und er frisch säuerlich riecht. Für das Ansetzen von Sauerteig wird meist Weizen- oder Roggenmehl verwendet.
Ein Teil des Anstellguts kann dann ab dem dritten oder vierten Tag fürs Brotbacken verwendet werden. Der Rest der Sauerteig-Masse wird als Basis zum Weiterführen der Sauerteig-Kultur aufbewahrt. Diese muss regelmäßig mit Wasser und Mehl gefüttert werden. Ein Teil wird immer zum Brotbacken entnommen, und ein Teil wird weitergeführt. Es soll daher Sauerteige geben, die durch diesen Kreislauf schon mehrere Jahrzehnte alt sind.
Wird nicht wie beim Bäcker täglich Brot gebacken, kann der Ansatz im Kühlschrank gelagert werden, wo er länger haltbar ist und bis zu 14 Tage ohne „Füttern“ stehen kann. Zum Füttern nimmt man das Anstellgut aus dem Kühlschrank, vermengt es mit gleichen Teilen Mehl und Wasser und lässt das Ganze ein paar Stunden, wie gewohnt, bei Zimmertemperatur stehen. Sobald der Ansatz wieder Aktivität zeigt, kann er zurück in den Kühlschrank gestellt werden. Zum Backen nimmt man dann, je nach Rezept, einen Teil des Anstellguts aus dem Kühlschrank, um einen neuen Brotteig anzusetzen. Will man den Ansatz langfristig konservieren, kann er auch eingefroren oder getrocknet und als Trockensauerteig verwendet werden [1,2].
Säuerlicher Geschmack und Triebkraft des Sauerteigs durch Milchsäurebakterien
Mikroorganismen kommen heute standardmäßig bei der Lebensmittelproduktion zum Einsatz. Für das Gelingen von Sauerteig ist die Aktivität ganz bestimmter Mikroorganismen notwendig: Im Sauerteig finden sich vor allem Milchsäurebakterien, aber auch Essigsäurebakterien und Hefen. Die Milchsäurebakterien stammen aus dem verwendeten Wasser und dem Mehl. Die Mikroflora von Rohgetreide besteht aus Bakterien, Hefen und Pilzen und enthält die für den Sauerteig typischen Milchsäurebakterien.
Bei der Milchsäuregärung (Fermentation) wird das Mehl – genauer gesagt der Zucker aus dem Getreide – vergoren. Das saure Milieu und der anfangs niedrige pH-Wert von 5,0–6,2 bieten Milchsäurebakterien die idealen Bedingungen. Anhand ihres Gärungsstoffwechsels und der vorhandenen oder nicht vorhandenen Kohlenstoffdioxid-Produktion werden Milchsäurebakterien in verschiedene Gruppen eingeteilt. Man unterscheidet dabei zwischen homo- und heterofermentativen Arten. Homofermentative Bakterien produzieren bei der Fermentation ausschließlich Milchsäure, während bei der heterofermentativen Gärung zusätzlich Essigsäure, Kohlendioxid und Ethanol (Alkohol) entstehen. Im Sauerteig gibt es sowohl homo- als auch herterofermentative Milchsäurebakterien. Die typischen Arten im Sauerteig sind Lactobacillus plantarum (homofermentativ) und Lactobacillus brevis (heterofermentativ) [3,4].
Einfluss der Gärungsprodukte auf Geschmack und Konsistenz
Milch- und Essigsäure verleihen Backwaren aus Sauerteig letztendlich deren charakteristischen säuerlichen Geschmack. Das Kohlendioxid lockert als Triebmittel den Teig auf, weshalb heterofermentative Milchsäurebakterien bei der Sauerteigherstellung von größerer Bedeutung sind. Da bei schweren Hefe-Roggenteigen die Triebkraft der Hefe allein oft nicht ausreicht, werden noch zusätzlich Sauerteigkulturen beigemengt, um das Brot schön aufgehen zu lassen. Bei manchen Sauerteigrezepten wiederum kommt zusätzlich Hefe zum Einsatz. Durch die Zugabe von Hefe zum Sauerteig entstehen ebenfalls Kohlendioxid und Ethanol (Alkohol), welcher in Essigsäure umgewandelt wird [1,4].
Der Geschmack des Sauerteiges ist vom Verhältnis der gebildeten Milch- und Essigsäure abhängig. Dieses ist jedoch nicht immer gleich und hängt unter anderem von der Teigtemperatur bei der Teigführung ab. Hält man die Temperatur bei der Sauerteigherstellung niedriger – zwischen 24 und 28 Grad Celsius – wird der Teig saurer, da mehr Essigsäure entsteht. Bei höheren Temperaturen ab etwa 30 Grad Celsius überwiegt der Anteil an Milchsäure, und der Teig wird milder [5].
Auch die Konsistenz von Sauerteig ist nicht immer gleich. Sauerteig aus Roggenmehl erinnert in seiner Konsistenz an Schokoladenmousse, ein Weizensauerteig hingegen ist eher schaumig und leicht wabbelig. Es gibt aber auch andere Varianten, die auf Hafer, Gerste oder Mais basieren. Je nach verwendeter Getreideart variieren Geschmack, Nährwert und Haltbarkeit [2].
Vorteile von Brot aus Sauerteig
Die Milchsäuregärung beim Brotbacken ist traditionell, natürlich und nachhaltig. Die Verwendung von Sauerteig garantiert eine bessere Textur sowie Haltbarkeit im Vergleich zu konventionellem Brot aus Hefe. Das saure Milieu und die verschiedenen Metabolite – also Stoffwechselprodukte – von Mikroorganismen im Sauerteig tragen zur Hemmung des Wachstums von Schimmel und anderen schädlichen Mikroorganismen bei. Außerdem wird der Nährwert verschiedenster tierischer und pflanzlicher Lebensmittel durch die Fermentation mit Milchsäurebakterien verbessert [2,6]. Neueste Forschungen beschäftigen sich mit verschiedenen Getreidesorten als sogenanntes „functional food“. So werden Lebensmittel bezeichnet, die neben der Ernährung einen weiteren Zweck erfüllen und zusätzliche Vorteile für die Gesundheit bringen können. Darüber hinaus werden ernährungsphysiologische Vorteile von Sauerteig diskutiert [1]:
Höherer Gehalt an sekundären Pflanzenstoffen
Unter allen Verarbeitungsmöglichkeiten von Getreide hat die Sauerteigfermentation den größten Einfluss auf den Gehalt und die Bioverfügbarkeit von sekundären Pflanzenstoffen. Letztere beschreibt die Aufnahme von Stoffen über den Darm während der Verdauung. Im Vergleich zu anderen Herstellungsverfahren ist der Gehalt an sekundären Pflanzenstoffen in Backwaren aus Sauerteig wesentlich höher [6].
Niedriger glykämischer Index
Durch die Fermentierung sinkt der glykämische Index (GI) von Sauerteigbrot, und die Verdauung von Stärke wird erleichtert [6]. Der GI ist ein Maß für den Anstieg des Blutzuckers und der damit verbundenen Insulinausschüttung nach der Zufuhr von kohlenhydrathaltigen Lebensmitteln. Lebensmittel mit einem niedrigen GI sind beispielsweise Vollkornprodukte, Obst, Gemüse oder Hülsenfrüchte. Der Verzehr von diesen Lebensmitteln wirkt sich somit günstig auf den Langzeitblutzucker aus und hat eine präventive Wirkung auf die Entwicklung von Diabetes mellitus Typ 2 [7].
Bessere Aufnahme von Nährstoffen
Durch die Milchsäuregärung entsteht ein saures Milieu, der pH-Wert sinkt und der Gehalt an Phytinsäure wird um mehr als die Hälfte reduziert. Im Vergleich zu konventionellem Vollkornbrot enthält Sauerteigbrot also wesentlich weniger Phytinsäure. Dadurch sind Mineralien, Aminosäuren und Proteine besser bioverfügbar. [6,8].
Bessere Verträglichkeit bei Zöliakie
Durch Enzyme der Milchsäurebakterien werden Proteine im Getreide aufgespalten. Das wirkt sich wiederum positiv auf die Verträglichkeit von Backwaren bei Menschen mit Allergien und Unverträglichkeiten aus. Während der Sauerteigfermentation wird das Klebereiweiß Gluten im Weizenmehl aufgespalten. Studien zeigten beispielsweise eine generell bessere Bekömmlichkeit von Sauerteigbackwaren für Menschen mit Zöliakie (Glutenunverträglichkeit) [6].
Reduktion des Salzgehalts
Generell schmecken Backwaren aus Sauerteig von Natur aus salziger als herkömmliches Brot und Gebäck, da während der Fermentation durch Michsäurebakterien geschmacksbildende Fett- und Aminosäuren entstehen. Daher benötigt man weniger Salz, was sich wiederum positiv auf die Gesundheit auswirkt [6, 9].
Praxistipps: So gelingt das perfekte Sauerteigbrot
Für den Sauerteigansatz eignet sich am besten Bio-Mehl, das in der Steinmühle gemahlen wurde. Dieses enthält noch wertvolle Randschichten des Getreides, die zur Bildung des Sauerteiges wichtig sind.
Für besonders säuerliches und lockeres Sauerteig-Gebäck möglichst dunkles Mehl mit hoher Mehltype-Zahl verwenden. Diese Zahl gibt den so genannten Aschegehalt an – dafür werden 100 Gramm Mehl verbrannt, und die übrig gebliebene Asche wird gewogen. Je höher diese Zahl, umso höher ist auch der Mineralstoffgehalt des Mehls.
Sauerteig mag es warm. Daher sollte der Sauerteigansatz an einem konstant warmen Ort stehen, wie beispieslweise in der Nähe eines Heizkörpers. Alternativ kann man auch das Gefäß, in dem man den Sauerteig ansetzt, anwärmen. Im Sommer ist das nicht notwendig.
Den Sauerteigansatz sollte man auf jeden Fall abdecken, aber nicht luftdicht verschließen. Die Mikroorganismen brauchen etwas Sauerstoff, um zu arbeiten. Deshalb mit einem Tuch abdecken oder den Deckel eines Schraubglases lose auflegen.
Geduld, Geduld, Geduld. Wenn es beim ersten Mal nicht klappt, einfach einen neuen Versuch starten.
Für eine knusprige Brotkruste am besten den Laib vor dem Backen mit Wasser bestreichen, mit Mehl bestäuben und einritzen.
Tipp für Profis: Wer das Grundrezept beherrscht, kann sein Sauerteigbrot durch weitere Zutaten wie Nüsse, Kerne, Oliven, Apfel oder Speck aufpeppen.
Fazit
Die Herstellung von Sauerteig hat lange Tradition. Sauerteig besteht im Prinzip nur aus Mehl und Wasser und ist leicht zuzubereiten. Das Ansetzen und Verarbeiten verlangt jedoch etwas Zeit, Geduld und Übung. Seinen einzigartigen Geschmack und seine Textur erhält der Sauerteig vor allem durch die Milchsäuregärung der darin enthaltenen Bakterien. Das so entstehende saure Milieu beeinflusst auch maßgeblich die Haltbarkeit und den Nährstoffgehalt von Sauerteigbbackwaren. Im Gegensatz zu normalem Hefebrot ist Sauerteigbrot insgesamt gesünder und besser verträglich, auch für Menschen mit Allergien und Unverträglichkeiten.
Quellen
[1] Sakandar HA., Hussain R., Kubow S et al.: Sourdough bread: A contemporary cereal fermented product (2019). Journal of Food Processing and Preservation. DOI: 10.1111/jfpp.13883
[4] De Vuyst L. and Neysens P.: The sourdough microflora: biodiversity and metabolic interactions (2005). Trends in Food Science & Technology, 16(1-3), 43–56. doi:10.1016/j.tifs.2004.02.012
[5] Loderbauer J. Das Bäckerbuch in Lernfeldern. Verlag Handwerk und Technik, Hamburg, Deutschland, 2008.
[6] Gobetti M., De Angelis M., Di Cagno R. et al.: Novel insights on the functional/nutritional features of the sourdough fermentation (2019). International Journal of Food Microbiology, S. 103-113. DOI: 10.1016/j.ijfoodmicro.2018.05.018
[8] Koistinen VM, Matilla O., Katina K. et al.: Metabolic profiling of sourdough fermented wheat and rye bread (2018). Sci Rep 8, 5684.
[9] Gobbetti M., Rizzello CG, Di Cagno R. et al.: How the sourdough may affect the functional features of leavened baked goods (2004). Food Microbiology, 37, S. 30–40. DOI: 10.1016/j.fm.2013.04.012
Aufgrund steigender Antibiotikaresistenzen ist die Forschung stets auf der Suche nach neuen antimikrobiellen Wirkstoffen. Dabei spielen Naturstoffe, die schon in früheren Zeiten eingesetzt wurden, eine immer größere Rolle. So etwa gilt Kren – beziehungsweise die Krenwurzel – als natürliches Antibiotikum aus dem Garten. Doch wirkt Kren wirklich gegen Mikroben? Die bESSERwisser haben recherchiert.
Gesunde Wurzel
Kren, im deutschen Sprachraum auch als Meerrettich bekannt, gehört zur botanischen Familie der Kreuzblütler. Die scharfe Wurzel wird seit dem Mittelalter als Gemüse und Gewürz in der Küche verwendet und darf auf keiner Brettljause fehlen. Kren wird nach dem Frost im späten Herbst und während des Winters geerntet und kann im Garten leicht angebaut werden. Das gesunde Wintergemüse ist reich an den Vitaminen C und B und besitzt wertvolle Mineralstoffe, wie etwa Natrium, Kalium, Magnesium und Eisen. Das Interesse der Forschung und den Einsatz in der Pflanzenheilkunde verdankt der Kren jedoch den scharfen Senfölen, die in seinen Wurzeln enthalten sind.
Senföle schützen Kren vor Fraßfeinden
Die Senföle der Wurzeln – so genannte Glukosinolate – dienen dem Kren als Schutz vor Fraßfeinden. Glukosinolate sind bestimmte sekundäre Pflanzenstoffe, denen gesundheitsfördernde Wirkung nachgesagt wird. Senföle finden sich auch in anderen Kreuzblütengewächsen wie etwa der Kapuzinerkresse, Senf und vielen Kohlarten. Wird das Gewebe einer solchen Pflanze zerstört, kommt es zur Reaktion der Glukosinolate mit einem speziellen Enzym, das ebenfalls in den Pflanzenzellen gespeichert ist. Dieses Enzym – die Myrosinase – spaltet die Schwefel-Zucker Verbindung der Glukosinolate zu Isothiocyanat, welches den scharfen Geschmack und Geruch hervorruft. Isothiocyanat kann jedoch nur entstehen, wenn die Pflanzenzellen durch Schneiden oder Kauen zerkleinert werden. Gekochter, intakter Kren hat deshalb auch keinen stechend scharfen Geschmack. Übrigens: Gegen die beißenden Dämpfe beim Krenreiben helfen ähnliche Tricks wie beim Zwiebelschneiden.
Das bekannteste Senföl ist Sinigrin. Vor allem schwarze Senfsamen, Kren, Kresse und Kohlsprossen enthalten nennenswerte Mengen an Sinigrin. Weiße Senfsamen hingegen enthalten höhere Anteile an Sinalbin, einem weniger scharfen Senföl.
Antimikrobielle Wirkung
Neben ihrer kulinarischen Verwendung wird die Krenwurzel seit jeher auch zur Behandlung von Krankheiten, besonders von Entzündungen und Rheumatismus, eingesetzt. Seit dem frühen 20. Jahrhundert werden Kreuzblütengewächse wissenschaftlich auf ihre antimikrobiellen Eigenschaften hin untersucht. Die scharfen Senföle konnten sich wirksam gegen verschiedene Erreger zeigen. Neben Viren und infektiösen Pilzen konnten sie in Versuchen auch krankmachende Bakterien hemmen.
Die steigenden Antibiotikaresistenzen und der damit einhergehende dringende Bedarf an neuen Antibiotika macht die antibakterielle Wirkung von Senfölen besonders interessant. In den letzten Jahren konnten einige Studien wichtige Erkenntnisse zur Wirkung von Senfölen gegen Bakterien liefern und machen Kren somit als natürliches Antibiotikum interessant:
Kapuzinerkresse und Krenextrakte zeigten gute Wirkung gegen bakterielle Erreger im Mundraum, die etwa Zahnfleischentzündungen hervorrufen. In klinischen Studien hatten die Extrakte außerdem eine Wirkung gegen Atemwegsinfekte (Bronchitis) und leichte Harnwegsinfekte, die mit jener von klassischen Antibiotika vergleichbar war [1].
Interessanterweise war eine Mischung von Isothiozyanaten aus Kren und Kapuzinerkresse nicht nur gegen Keime, die auch mit herkömmlichen Antibiotika bekämpft werden können, wirksam, sondern auch gegen antibiotikaresistente Keime [2].
Eine weitere Studie zeigte, dass Isothiozyanate die Wirkung von klassischen Antibiotika unterstützen können. Das macht ihren Einsatz vielversprechend, da so vielleicht das Risiko der Bildung von resistenten Keimen verringert werden könnte. Bei einer Kombination mit natürlichen Isothiozyanaten könnten geringere Dosen von herkömmlichen Antibiotika eingesetzt werden [3].
Natürliches Antibiotikum mit Schärfe
Der Mechanismus, mit dem die in den Senfölen enthaltenen Isothiozyanate Bakterien schädigen, ist nicht vollständig geklärt. Es gibt jedoch Hinweise darauf, dass sie ähnlich wie Antibiotika die Zellmembranen von Bakterien, deren Proteinsynthese und ihren Metabolismus angreifen.
Ein Nachteil natürlicher Isothiozyanate im medizinischen Gebrauch ist deren scharfer Geschmack und die damit einhergehende Reizung des Verdauungstraktes. Eine Möglichkeit, dieses Problem zu umgehen, ist die Inaktivierung der in den Pflanzen enthaltenen Myrosinase durch Hitze. Die Glukosinolate werden dann nicht schon im Mund, sondern erst im Darm von den Myrosinasen der natürlich vorkommenden Darmbakterien zu Isothiozyanaten gespalten [4].
Einsatz von Kren: Ayurveda und Lebensmittelproduktion
Auch in der traditionellen indischen Heilkunst (Ayurveda) werden Senföle aus Pflanzen für die Ernährung und als Heilmittel eingesetzt. In Indien und Afrika findet vor allem der sogenannte Meerrettichbaum (Moringa oleifera), der Senfölglykoside in Blättern und Wurzeln enthält, gegen Entzündungen und Rheuma Anwendung [5].
Weiters wird der Einsatz von Isothiozyanaten gegen Pflanzenkrankheiten und als Konservierungsstoff für Lebensmittel diskutiert. Allylisothiocyanat aus natürlichen Quellen ist in Japan bereits als Konservierungsstoff für Lebensmittel zugelassen [4].
Da die Schärfe des Krens jedoch auf das Verdauungssystem leicht reizend wirkt, sollten Personen mit Magen- oder Darmgeschwüren Kren nicht zu gesundheitlichen Zwecken zu sich nehmen. Auch Patientinnen und Patienten mit Schilddrüsenfehlfunktion sollten Kren nicht in großen Mengen konsumieren, da hohe Mengen der Glukosinolate die Jodaufnahme der Schilddrüse beeinträchtigen können [6].
Quellen
[1] Eichel V., Schüller A., Biehler K. et al.: Antimicrobial effects of mustard oil-containing plants against oral pathogens. An in vitro study (2020). BMC complementary medicine and therapies 20 (1), S. 156. DOI: 10.1186/s12906-020-02953-0.
[2] Conrad A., Biehler D., Nobis T. et al.: Broad spectrum antibacterial activity of a mixture of isothiocyanates from nasturtium (Tropaeoli majoris herba) and horseradish (Armoraciae rusticanae radix) (2013). Drug Res (Stuttg). 2013 Feb;63(2):65-8. doi: 10.1055/s-0032-1331754
[3] Palaniappan K. and Holley RA: Use of natural antimicrobials to increase antibiotic susceptibility of drug resistant bacteria (2010). International journal of food microbiology 140 (2-3), S. 164–168. DOI: 10.1016/j.ijfoodmicro.2010.04.001.
[4] Dufour V., Stahl M. and Baysse C.: The antibacterial properties of isothiocyanates (2015). Microbiology (Reading, England) 161 (Pt 2), S. 229–243. DOI: 10.1099/mic.0.082362-0.
Von der Spitzengastronomie bis zum Würstelstand – die Mayonnaise ist eine Alleskönnerin. Für die Zubereitung von selbstgemachter Mayonnaise braucht es allerdings etwas Geschick. Die bESSERwisser sind hier dem Ursprung sowie der Chemie der beliebten Sauce auf der Spur und verraten, wie sie auch sicher gelingt.
Mayonnaise – eine historische Sauce
Man kann es leicht erraten: ihren Namen hat die Mayonnaise in Frankreich erhalten. Der Überlieferung nach eroberte 1756 der französische Marschall Richelieu die Hafenstadt Mahón auf den spanischen Balearen. Zur Feier dieses Sieges wurde die Sauce Mahonnese kreiert, deren Name sich im Laufe der Zeit zu Mayonnaise wandelte. In der französischen Küche spielen Saucen seit jeher eine wichtige Rolle. Typische Grundsaucen wie die Sauce Béchamel oder Veloutée (Kalbs/Geflügelfond) dienen vor allem der Verfeinerung warmer Speisen. Die kaltgerührte Mayonnaise hingegen wurde zum beliebten Dip zu warmen wie kalten Gerichten. Außerdem ist sie Basis für viele andere kalte Saucen, wie die Remoulade (mit Kapern, Essiggurken und Sardellen) oder die Sauce Tartare (mit gekochtem Eigelb und Schnittlauch).
Das Grundrezept
Zutaten: 1 Eidotter
1 EL Essig oder Zitronensaft
1 EL Senf
1 Prise Salz
250 ml pflanzliches Öl
Zubereitung: Eigelb, Senf, Salz, Pfeffer und Essig/Zitronensaft mit einem Mixer oder Schneebesen verrühren. Unter ständigem Rühren das Öl anfangs tropfenweise, danach laufend hinzufügen bis eine feste Konsistenz entsteht. Anschließend abschmecken und kühl stellen.
Emulsion
Das Geheimnis hinter der unvergleichlichen Konsistenz der Mayonnaise: Es handelt sich dabei um eine Emulsion.
Chemisch gesehen ist eine Emulsion ein fein verteiltes Gemisch von zwei Flüssigkeiten, die normalerweise nicht mischbar sind. Beim Mischen von Wasser und Öl entstehen feine Tröpfchen, die sich nach kurzer Zeit aber wieder trennen. Wegen ihrer chemischen Eigenschaften können das unpolare Öl und das polare Wasser nämlich keine Wechselwirkungen eingehen. Um dennoch eine Vermischung von Wasser und Öl zu erreichen, werden Hilfsstoffe – sogenannte Emulgatoren – benötigt. Sie können durch ihre Struktur an Wasser sowie an Fettmoleküle binden, da sie einen lipophilen (fettliebenden) und einen hydrophilen (wasserliebenden) Teil besitzen. Sie ordnen sich an der Oberfläche der Tröpfchen an, und stabilisieren so das feinverteilte Tröpfchengemisch von Wasser und Öl.
Bild: Schematische Darstellung der Emulsion in der Mayonnaise.
Open Science – Lebenswissenschaften im Dialog (CC BY-SA-ND 3.0 AT)
Für eine Mayonnaise muss eine kleine Menge Wasser (in Zitrone, Essig, Ei) mit einer große Menge Öl vermischt und stabilisiert werden. Die notwendigen Emulgatoren dafür stammen aus dem Eigelb. Die darin enthaltenen Phospholipide Lecithin und Cephalin ordnen sich an der Grenzfläche zwischen Wasser- und Öltröpfchen an. Dabei setzen sie die Oberflächenspannung herab und erhöhen so die Stabilität der Tröpfchen. Verschieden große Tröpfchen ordnen sich dicht an, so kann ein Fettgehalt von 80% und mehr entstehen. [1] Durch die Emulsion wird die Mayonnaise bis zu 1000-fach zähflüssiger als die Ausgangsmaterialien. Dieses Verhalten beschäftigt nicht nur KöchInnen sondern auch physikalische ChemikerInnen. Erst vor wenigen Jahren wurde der zu Grunde liegende ordnende Effekt und die Formel zur Berechnung dieses Phänomens im Journal of Physical Chemistry diskutiert [2].
Die Funktion der Zutaten
Mayonnaise benötigt wenige Zutaten, jede einzelne von ihnen spielt aber eine wichtige Rolle bei der Entstehung der Emulsion.
Öl: Der Hauptbestandteil der Mayonnaise ist pflanzliches Öl. Meistens wird geschmacksneutrales Öl wie Sonnenblumen- oder Rapsöl empfohlen. Selbst hergestellte Mayonnaisen kommen auf einen Fettgehalt von ca. 80%. Bei diesem Verhältnis ist die Emulsion am stabilsten. Die feinen Öltröpfchen mit einem Durchmesser von 1-10µm verschaffen der Mayonnaise die besondere Konsistenz.
Eidotter: Im Eidotter befinden sich die Phospholipide Lecithin und Cephalin, die als Emulgatoren wirken. Ein Eidotter ist bereits eine Emulsion, die beim Mischen der Mayonnaise durch langsames hinzufügen von Öl erhalten wird.
Salz: Das Salz in der Mayonnaise dient nicht nur zum Würzen, sondern hilft auch dabei, die Phospholipide – die Emulgatoren – aus dem Eidotter freizusetzen. Salz neutralisiert außerdem Proteinladungen und erleichtert so die Bildung der Öltröpfchen.
Zitrone/Essig: Zitrone oder Essig liefern die notwendige Säure. Bei einem ungefähren pH-Wert von 4 ist die Summe der positiven und negativen Ladungen der Proteine im Dotter ausgeglichen. So vermischen sich die Öltröpfchen optimal, und die Mayonnaise bleibt stabil. [3]
Eine weitere Funktion der Säure ist die Abwehr von Mikroorganismen. Eine Studie ergab, dass 20ml Essig (das entspricht etwa einem Esslöffel) pro Eigelb ausreichen, um Keime abzuhalten [4].
Senf: Auch Senf ist nicht nur ein gesundes und vielfältiges Würzmittel , sondern liefert weitere Emulgatoren und wehrt Keime ab.
Aufgrund der vielfältigen Funktionen der Zutaten macht es Sinn, schon vorab den Dotter mit der Säure, dem Salz und dem Senf zu mischen und dann erst das Öl langsam zuzugeben. Das andauernde Mixen bzw. Rühren erzeugt Scherkräfte, die notwendig sind, um möglichst kleine Tröpfchen zu erhalten.
Mayonnaise – Eine Sauce für Geübte
Die Herstellung von sämigen Saucen und Emulsionen zählt zu den eher schwierigen Praktiken in der Küche. Auch an der Mayonnaise sind schon viele verzweifelt, wenn sie einfach nicht fest werden will oder gerinnt. Oft liegt es daran, dass das Öl zu früh und zu schnell zugegeben wird. Wichtig ist, unter permanentem Rühren das Öl in einem kontinuierlichen, dünnen Strahl zuzugeben. Ein weiterer Tipp ist, vor dem Verrühren alle Zutaten auf Raumtemperatur zu bringen. Das erleichtert die Bildung der Emulsion. Wenn die Mayonnaise zu fest geworden ist, kann sie mit etwas Zitronensaft oder Wasser verdünnt werden. Ist sie zu flüssig, hilft es mehr Öl einzurühren oder sie kalt zu stellen. Wenn die Mayonnaise gerinnt, kann man noch einmal von vorne beginnen und die geronnene Mayonnaise in die neue einrühren.
Fazit
Im Supermarkt gibt es zwar eine Fülle von Sorten günstiger Mayonnaise, dennoch lohnt es sich, sich der Herausforderung einmal zu stellen und Mayonnaise selbst zuzubereiten. Das plötzliche Festwerden der zuvor flüssigen Zutaten bei der Entstehung der Emulsion ist immer wieder faszinierend. Mit Kräutern oder anderen Gewürzen kann man der Mayonnaise außerdem eine einzigartige persönliche Note verleihen.
Roth, K. (2008), Von der Sauce Vinaigrette zur Mayonnaise. Delikate Grenzflächen Teil 1. Chemie in unserer Zeit, 42: 160-172. doi:10.1002/ciuz.200800456
Wynne, K. (2017), The Mayonnaise Effect. The Journal of Physical Chemistry Letters 8 (24), 6189-6192. doi: 10.1021/acs.jpclett.7b03207
Mirzanajafi M, Yousefi M, Ehsani A. (2019) Challenges and approaches for production of a healthy and functional mayonnaise sauce. Food Sci Nutr. 7:2471–2484. https://doi.org/10.1002/fsn3.1132
Xiong, R., Xie, G., & Edmondson, A. S. (2000). Modelling the pH of mayonnaise by the ratio of egg to vinegar. Food Control, 11(1), 49–56. https ://doi.org/10.1016/S0956-7135(99)00064-X
Die richtige Ernährung ist ein entscheidender Faktor bei Missionen im Weltraum. Doch was essen Astronauten? Schmeckt das Essen in den Weiten des Weltalls überhaupt? Wäre Astronautennahrung auch für die Erde eine Option? Antworten auf diese Fragen liefern die bESSERwisser.
Vom ersten Satelliten zur bemannten Raumfahrt
Reisen und Transporte im Weltraum gibt es bereits seit Beginn des 20. Jahrhunderts. Schon in den 1930er-Jahren wurden erste Raketen erfolgreich getestet. 1957 wurde von Russland mit Sputnik 1 der erste künstliche Erdsatellit in die Erdumlaufbahn geschossen. Im selben Jahr trat mit der Hündin Laika dann auch das erste Lebewesen im russischen Forschungssatelliten Sputnik 2 in die Erdumlaufbahn ein.
Die bemannte Raumfahrt startete 1961, als der sowjetische Kosmonaut Juri Gagarin mit einem Raumschiff als erster Mensch die Erde umkreiste. 1962 brachten die USA John Glenn als ersten US-Amerikaner sicher in den Orbit und auch wieder zurück. Im Jahr 1969 schließlich landete Neil Armstrong mit dem amerikanischen Raumschiff Apollo 11 auf dem Mond und setzte als erster Mensch einen Fuß auf dessen Oberfläche. Eine Reihe weiterer Missionen zum Mond folgten. Der letzte bemannte Flug zum Mond fand 1972 statt, danach verließ kein Mensch mehr die unmittelbare Nähe der Erde. Danach verlagerte sich der Schwerpunkt der bemannten Raumfahrt hin zur Entwicklung von wieder verwendbaren Transportsystemen und Raumstationen. Der Einsatz von Space Shuttles ermöglichte den Aufbau der Internationalen Raumstation (ISS), die seit dem Jahr 2000 permanent bemannt ist.
Essen im All
Für die Besatzung von Raumfähren und Raumstationen stehen Schwerelosigkeit und Enge an der Tagesordnung. Es gibt prinzipiell wenig Platz und damit auch wenig Aufbewahrungsmöglichkeiten für Nahrungsmittel. Wasser ist limitiert, und die Crew hat wenig Zeit und Möglichkeiten, um sich Essen zuzubereiten. Somit ist auch die Auswahl bei Astronautennahrung beschränkt: Haltbare Einzelportionen von Produkten in ihrer natürlichen oder konservierten Form stehen im Weltraum am Speiseplan.
Die Häufigkeit der Mahlzeiten ist im Weltraum ähnlich wie auf der Erde, und auch Astronauten essen drei Mahlzeiten am Tag: Frühstück, Mittagessen und Abendessen. Dabei können sie sich rund zwanzig Prozent ihres Essens und Trinkens aussuchen, während die restlichen achtzig Prozent vorgegeben sind. So soll eine ausreichende Nährstoffversorgung zu gewährleistet werden. Mehrere Male jährlich stehen frische Früchte und Gemüse sowie semi-haltbare Produkte am Speiseplan – nämlich dann, wenn Raumstationen von der Erde beliefert werden. Diese Lieferungen stellen nicht nur kulinarisch, sondern auch psychologisch einen großen Nutzen für die Raumfahrer dar.
Wichtigstes Kriterium: platzsparend
Bei Astronautennahrung ist vor allem die Platzfrage vorrangig: Essen darf nur so wenig Platz wie möglich einnehmen. Dies wird bei zukünftigen Missionen zu weiter entfernten Zielen noch wichtiger werden.
Zu Beginn der Astronautennahrung in den 1960er-Jahren wurde diese noch in kleinen, gepressten Würfeln eingenommen. Protein, Fett und Vitamine waren die Hauptbestandteile. Häufig konsumierten die Astronauten auch Flüssignahrung wie sterilisiertes Apfelmus durch Strohhalme. Später wurde Nahrung in Tuben verpackt. So bestand das erste Drei-Gänge-Menü im Weltraum aus drei Tuben – einer mit pürierter Gemüsesuppe, einer mit Leberpastete und einer mit Johannisbeersaft.
Heute wird Astronautennahrung so platzsparend wie möglich für den Weltraum zubereitet. Sie wird auf der Erde gefriergetrocknet, sterilisiert und in flache, spezielle Dosen oder Klarsichtfolien verpackt. Dazu wird die Mahlzeit, die aus etwa 100 Komponenten besteht, erst im Autoklaven gegart. Dieser ermöglicht es, das Essen unter Druck präzise auf die gewünschte Temperatur zu erhitzen und danach wieder abzukühlen. So werden Geflügel und Gemüse zum Beispiel unter zehn Grad verarbeitet, bei Temperaturen zwischen 63 und 80 Grad gegart und bei 117 Grad sterilisiert. Die ESA schreibt ein ungekühltes Mindesthaltbarkeitsdatum von zwei Jahren für Astronautennahrung vor. Manche Speisen mischen die Astronauten mit Wasser zu einem homogenen Brei. Zum Erwärmen werden Dosen zwischen zwei Wärmeplatten erhitzt. Die Auswahl ist für Astronauten heute schon relativ groß: Bei der NASA beispielsweise gibt es für Weltraummenüs 74 Speisen und 20 Getränke zur Auswahl.
Ansprüche an Astronautennahrung
Astronautennahrung muss folgende Kriterien erfüllen: Sie sollte möglichst wenig Platz einnehmen, gleichzeitig jedoch hoch konzentrierte Nährstoffe liefern, um Mangelerscheinungen der Weltraumreisenden zu vermeiden. Die ideale Nährstoffdichte von Astronautenessen sollte idealerweise 2,4 Kilokalorien (kcal) pro Milliliter betragen, womit der durchschnittliche Tagesbedarf eines Menschen von 2000 Kilokalorien mit rund 830 Millilitern gedeckt werden kann. Flüssignahrung ist daher eine gute Option. Die Nahrung sollte außerdem kalziumreich sein und viel Vitamin D enthalten. Dies soll Muskelschwund und Knochenabbau entgegenwirken, da in der Schwerelosigkeit Muskeln und Knochen schneller abgebaut werden.
Bei der Essensplanung fürs All muss auch noch die Schwerelosigkeit berücksichtigt werden. So etwa könnten sogar Brotkrumen gefährlich werden: Winzige Brotstückchen könnten umherschweben und in den Lüftungsschlitzen oder Filtern des Raumschiffs oder in Augen, Mund oder Nase der Astronauten landen. Als gute Brotalternative haben sich hier Tortillas etabliert, da sie nicht bröckeln und keine kleinen Stückchen erzeugen.
Genuss im Weltraum?
All die Anforderungen an das Weltraumessen sollten idealerweise keine Geschmackseinbußen mit sich bringen – eine schwierige Aufgabe. Denn Weltraumessen sieht nicht nur unappetitlich aus, es schmeckt auch nicht sonderlich gut. Mit ein Grund dafür ist die Tatsache, dass in 400 Kilometern Höhe der Geschmackssinn nicht so wie auf der Erde funktioniert. Was für uns auf der Erde total versalzen schmecken würde, wäre im Weltall gerade richtig. In luftiger Höhe schmeckt alles eintönig und fad, und gerne würden die Astronauten mit Salz den Geschmack verbessern. Da Salz allerdings wieder Knochenschwund begünstigen würde, ist das nicht möglich. Um den Astronauten trotzdem genussvolles Essen zu ermöglichen, gibt es mittlerweile eigens ausgebildete Köche von der NASA, die alle Bedingungen und Gesundheitsvorschriften berücksichtigen und trotzdem Essen kreieren, das im All schmecken soll. So etwa sollen viele Kräuter das Essen schmackhafter machen. Ketchup, Senf oder Mayonnaise werden in flüssiger Form mitgenommen, und auch Pfeffer zählt zur Essens-Ausstattung fürs All. Zusätzlich gibt es Snacks und Nüsse. Säfte, Tee und Kaffee werden in pulverisierter Form mitgeführt, von den Astronauten mit Wasser gemischt und dann mit Strohhalmen geschlürft.
Weltraumessen ist übrigens teurer als jedes Luxusessen auf der Erde: Ein Kilo Proviant fürs All kommt auf etwa 20 000 Euro. Abfälle werden nach dem Essen im Weltraum in speziellen Behältern ins All geschickt und verglühen dann in der Erdatmosphäre.
Astronautennahrung auf der Erde
Gefriertrocknung kommt auch häufig für Nahrung auf der Erde zum Einsatz. Lösliches Kaffee-Granulat, Früchte im Müsli, Kräuter und Gewürze sowie Instantgetränke werden getrocknet und gefroren. Dadurch erhöht sich die Haltbarkeit, Geschmack und Inhaltsstoffe gehen aber nicht verloren.
In der Medizin findet das Prinzip der Astronautennahrung ebenfalls Anwendung: Flüssige, kalorienreiche Nahrung dient älteren Menschen als Aufbaunahrung oder wird im Krankenhaus verabreicht, um Patienten wieder aufzupäppeln. Bergsteiger können ebenso von dieser Nahrung profitieren wie Sportler, die Muskelaufbau fördern möchten, da bestimmte Inhaltsstoffe gezielt hoch konzentriert zugeführt werden können. Hersteller bieten neben der flüssigen Form auch eine Pulvervariante an.
Nahrung für die Reise zum Mars
Für die Zukunft hat die Weltraumforschung große Ziele: Die National Aeronautics and Space Administration (NASA) plant, noch in dieser Dekade die erste Frau auf den Mond zu schicken, und im Jahr 2030 sollen die ersten Menschen die Reise zum Mars antreten. Auch Elon Musk vom privaten Unternehmen SpaceX hat ähnliche Ambitionen und verfolgt den ehrgeizigen Plan, schon 2024 Menschen zum Mars zu bringen. Ist die Distanz der Erde zum Mond mit 384.400 Kilometern für die Raumfahrt noch überschaubar, nimmt eine Reise zum Mars schon andere Dimensionen an: Alle zwei Jahre kommen sich Erde und Mars auf ihren Bahnen besonders nahe, und alle 16 Jahre sind sie sich am nächsten – und sind dann „nur“ rund 56 Millionen Kilometer voneinander entfernt. Bei Mondmissionen waren Weltraumfahrer durchschnittlich ein bis zwei Wochen unterwegs. Bei Schätzungen der Dauer des ersten Fluges von der Erde zum Mars gehen die Meinungen auseinander: Von rund einem Jahr ist hier ebenso die Rede wie von 80 Tagen.
Da bei Missionen mit längeren Distanzen von der Erde kein Nachschub geliefert werden kann, stellen diese Pläne die Raumfahrt vor eine große Herausforderung: Schließlich muss während eines Fluges die ausreichende Versorgung der Astronauten mit Essen und den wichtigsten Nährstoffen gewährleistet sein. Astronautennahrung kann ein entscheidender Faktor für den Erfolg oder Misserfolg einer Mission sein [1]. Für eine Mission zum Mars wären wir aus heutiger Sicht ernährungstechnisch noch nicht bereit, und es müssten noch andere Lösungen für eine gesicherte Nahrungsversorgung geschaffen werden. Die Raumfahrer müssten etwa teilweise zu Selbstversorgern werden.
Das Mitführen von Speisefischen in einem Raumschiff-Aquarium wäre hier beispielsweise denkbar. Allerdings benötigen die Fische wiederum Futter, es müsste also eine kleine Nahrungskette – sozusagen ein Mini-Ökosystem – aufgebaut werden. Es könnte auch die Photosynthese von Pflanzen genutzt werden, der Anbau von Algen funktioniert beispielsweise schon. Das Problem liegt hier allerdings beim Geschmack, da eine Ernährung mit Algenbrei auf Dauer macht keine Freude macht. An Bord der ISS konnte auch Zwergweizen bereits gezüchtet werden. Die Pflanzen wachsen aufgrund der fehlenden Schwerkraft höher als auf der Erde. Die fehlende Schwerkraft ist allerdings auch problematisch, denn die Pflanzen wissen nicht, wo oben und wo unten ist. Ansätze zur Problemlösung gibt es hier bereits: Künstliches Licht von oben könnte die fehlende Erdanziehung vortäuschen. Alternativ könnte durch den Einsatz einer Zentrifuge die Schwerkraft imitiert werden.
Es bedarf allerdings in Zukunft noch einiger Versuche und Experimente dazu. Diese könnten gleichzeitig eine neue Grundlage für die zukünftige Ernährung der Erdbevölkerung liefern: Vielleicht können essbare Pflanzen auch außerhalb der Erde für die Menschheit kultiviert werden?
Fazit
Nahrung für Astronauten stellt für aktuelle Missionen kein Problem dar. Sie ist kulinarisch schon auf einem hohen Level, ihre Herstellung ist allerdings sehr aufwändig. Für lange Missionen müssen noch Selbstversorgungsmöglichkeiten der Astronauten an Bord entwickelt werden. Diese könnten zukünftig vielleicht bei Nahrungsknappheit auch zur Produktion von Lebensmitteln außerhalb der Erde genutzt werden.
Quellen
[1] Douglas GL, Zwart SR and Smith SM: Space Food for Thought: Challenges and Considerations for Food and Nutrition on Exploration Missions (2020). J Nutr. 2020 Sep 1;150(9):2242-2244.
[2] Perchonok M. and Bourland C.: NASA food systems: past, present, and future (2002). Nutrition . 2002 Oct;18(10):913-20. doi: 10.1016/s0899-9007(02)00910-3.
[3] Bourland C: Advances in food systems for space flight(1998). Life Support Biosph Sci. 1998;5(1):71-7. Life Support Biosph Sci
[4] Fu B. and Nelson P.: Conditions and constraints of food processing in space (1994). Food Technol. 1994 Sep;48(9):113-22, 127, 204.
[5]Zasypkin D. and Lee T.: Food processing on a space station: feasibility and opportunities (1999). Life Support Biosph Sci. 1999;6(1):39-52.
Viele kennen das Gefühl, wenn es einem im Mund „alles zusammenzieht“. Im Fachjargon ist dieses Phänomen als Adstringenz bekannt. Häufig haben Rotweine adstringierende Wirkung, aber auch Obst und andere Speisen können solch ein pelzig-raues Geschmackserlebnis hervorrufen. Verantwortlich dafür sind spezielle pflanzliche Gerbstoffe, die so genannten Tannine. Die bESSERwisser haben dazu recherchiert.
Was sind Tannine?
Tannine sind pflanzliche Gerbstoffe, was auch zu ihrer Namensgebung führte (franz. tanin = Gerbstoff). Als sogenannte sekundäre Pflanzenstoffe dienen sie nicht dem Energiestoffwechsel der Pflanze, sondern schützen diese vor Fressfeinden, Pathogenen oder Antioxidantien (UV-Strahlen). Weiters regulieren Tannine auch den pflanzlichen Stoffwechsel zur Anpassung an verschiedene Umweltbedingungen. Der Tannin-Gehalt einer Pflanze kann somit stark schwanken. Auch die chemischen Strukturen von Tanninen sind sehr unterschiedlich und variieren je nach der Pflanzenart, in deren Organellen sie produziert werden [1].
Die bekannteste Wirkung von Tanninen ist ihre Interaktion mit Eiweißen (Proteinen). Sie binden und fällen Proteine, reagieren aber auch mit Kohlenhydraten, organischen Stickstoffverbindungen und sogar mit Metallen. Da es sich bei den meisten Enzymen um Proteine handelt, interagieren Tannine auch mit ihnen. Während früher angenommen wurde, dass Tannine Enzymaktivitäten nur vermindern können, ist inzwischen klar, dass sie diese auch steigern können. Das hängt vor allem von der Konzentration der Tannine ab. Eine geringe Menge steigert, eine hohe Menge verringert die katalytische Aktivität von Enzymen [1].
Vorkommen in Lebensmitteln
Tannine finden sich vor allem in Rinden, Blättern und Früchten von Bäumen und Sträuchern. Deshalb kommen sie auch in einigen pflanzlichen Speisen und Getränken vor. Besonders hoch ist der Tanningehalt in Kakaobohnen, Tee und Rotwein. Aber auch viele Beeren, Nüsse, Hülsenfrüchte und Getreidesorten beinhalten diese sekundären Pflanzenstoffe.
Tannine haben einen starken Einfluss auf den Geschmack und das Mundgefühl von Speisen. Dank ihrer antioxidativen Wirkung verlängern sie außerdem die Haltbarkeit von Lebensmitteln. Die Aufnahme und Verstoffwechselung von Tanninen im Körper dürfte stark vom Mikrobiom im Darm abhängen, ist aber noch nicht zur Gänze erforscht [2].
Adstringierende Wirkung
Lebensmitteln mit hohem Tanningehalt verursachen beim Verzehr oft Adstringenz – eine Empfindung des Zusammenziehens und der Trockenheit im Mund, von manchen auch als herbes oder pelziges Gefühl beschrieben. Ursache dafür ist eine Fällung der im Speichel und den Mundschleimhäuten gelösten Proteinen durch die Tannine. Normalerweise wird der als eine angenehme Flüssigkeit wahrgenommen, die die Schleimhäute benetzt. Gelangen nun aber über Nahrung oder Getränke Gerbstoffe in den Mund und werden im Speichel gelöst, werden Proteine gefällt und verbinden sich zu größeren Komplexen. Das Fließverhalten des Speichels ändert sich, was mittels Trigeminusnerv wahrgenommen wird. Die adstringierende Wirkung hängt von der Anzahl der Hydroxylgruppen des Tannins ab, bei 1-5 solcher Gruppen steigert es sich, ab 7 Gruppen verringert sie sich wieder. [1,2]
Verwendung von Tanninen
Früher spielten Tannine vor allem in der Lederproduktion eine große Rolle. Bis ins 20. Jahrhundert wurden die in Eichenholz vorkommenden Tannine dazu verwendet, die Fasern in Tierhäuten zu vernetzen und das Leder haltbar zu machen. Heutzutage wird Leder vor allem mit Mineralsalzen gegerbt.
In der Lebensmittelindustrie werden Tannine heute aufgrund ihrer antioxidativen und antimikrobiellen Wirkung als Konservierungsstoffe eingesetzt.
In der Medizin wird ihre immunregulierende, entzündungshemmende, krebshemmende, Herz-Kreislauf-stärkende und antithrombotische Wirkung erforscht, ebenso wie stoffwechselregulierende und antidiabetische Eigenschaften. Das Problem dabei ist, dass Tannine sehr unterschiedlich sind und sich Resultate schwer vergleichen lassen. [2,3]
Vor allem in der Prävention von chronischen Krankheiten dürften Tannine ihre Wirkung entfalten, da sie anti-oxidativ, entzündungshemmend, antibakteriell und antiviral wirken. Zudem haben sie einen positiven Einfluss auf den Blutzucker und das Sättigungsgefühl und könnten auch als vorbeugendes Mittel gegen Übergewicht und Diabetes interessant werden. [3]
Fazit
Tannine sind pflanzliche Gerbstoffe, die mit Proteinen interagieren und diese zum Verklumpen bringen können. Sie sind für das „pelzige Gefühl“ und das „Zusammenziehen“ im Mund verantwortlich. Dieses wird oft durch Wein hervorgerufen und ist auch als Adstringenz bekannt. Eine mögliche medizinische Wirkung von Tanninen ist aktuell ein spannendes Forschungsgebiet.
Quellen:
[1] Adamczyk B., Simon J., Kitunen V. et al.: Tannins and Their Complex Interaction with Different Organic Nitrogen Compounds and Enzymes: Old Paradigms versus Recent Advances. Chemistry Open (2017), Volume6, Issue5, p610-614
[2] Smeriglio A., Barreca D. and Trombetta D.: Proanthocyanidins and hydrolysable tannins: occurrence, dietary intake and pharmacological effects. British Journal of Pharmacology (2017) 174 p1244-1262
[3] Barrett AH, Farhadi NF and Smith TJ: Slowing starch digestion and inhibiting digestive enzyme activity using plant flavanols/tannins— A review of efficacy and mechanisms. LWT (2018) Volume 87, p 394-399
Kurkuma erfreut sich nicht nur in zahlreichen Speisen, sondern auch in Getränken zunehmender Beliebtheit. Golden Milk und Kurkuma Latte zählen zu den neuen Trend-Getränken und gelten als wahres Superfood. Diesen Drinks wird positive Auswirkung auf die Gesundheit nachgesagt. Wer nicht gerade asiatisch kocht, hat sich wahrscheinlich noch nie Gedanken darüber gemacht, woher Kurkuma eigentlich stammt und wie die schöne gelbe Farbe dieses Gewürzes entsteht. Die bESSERwisser haben dazu recherchiert.
Kurkuma ist einer der Bestandteile von Curry-Gewürzmischungen und wird als solche in vielen Speisen verwendet. Seit einiger Zeit findet Kurkuma jedoch auch bei der Zubereitung von Getränken Einsatz. Golden Milk ist ein neues kurkumahaltiges In-Getränk, dem gesundheitsfördernde Wirkungen nachgesagt wird. Was im ersten Moment wie eine ausgefallene Hipster-Kreation klingt, hat in Wahrheit eine jahrhundertealte Tradition.
Botanische Zugehörigkeit und Ursprung
Die Kurkuma (Curcuma longa) ist eine Pflanzengattung innerhalb der Familie der Ingwergewächse (Zingiberaceae). Ihre Wurzel ähnelt stark der des Ingwers, ist jedoch deutlich intensiver und etwas dunkler gelb gefärbt. Deshalb ist Kurkuma auch unter den Namen gelber Ingwer, Safranwurz oder Gelbwurz bekannt. Bei der Verarbeitung ist Vorsicht geboten, da Kurkuma stark färbt. Am besten trägt man Handschuhe und arbeitet nicht mit Kunststoffgeräten. Flecken lassen sich auch nur sehr schwer wieder aus der Kleidung entfernen. Die Färbekraft von Kurkuma kann man sich aber auch zunutze machen und damit beispielsweise gelbe Ostereier zaubern.
Die Kurkuma-Pflanze selbst ist ursprünglich auf dem indischen Subkontinent und in Südostasien heimisch. In China, Indien, Thailand, Nepal und im Iran dient ihre pulverisierte Wurzel zur Verfeinerung vieler asiatischer Gerichte und verleiht den Speisen eine kräftige gelbe Färbung sowie eine erdige Geschmacksnote. Darüber hinaus wird das Gewürz gerne als Färbemittel, etwa für Lebensmittel wie Senf und Milchprodukte, verwendet. In der traditionellen ayurvedischen Medizin gilt Kurkuma seit knapp 4000 Jahren als umfassendes Heilmittel zahlreicher Krankheiten und kommt beispielsweise bei Atemwegsinfekten, Rheuma, Verdauungsbeschwerden oder Leberleiden zum Einsatz.
Geschmacks- und farbgebende Inhaltsstoffe von Kurkuma
Der typische Geschmack von Kurkuma entsteht vor allem durch so genannte Oleoresine. Das sind färbende oder geschmacksgebende Extrakte, die aus Samen, Wurzeln, Blättern, oder Früchten sowie ätherischen Ölen gewonnen werden können [1].
Für die gelbe Färbung der Kurkuma-Wurzel sind so genannte Curcuminoide verantwortlich. Zu diesen zählen neben Curcumin auch Demethoxycurcumin, Bisdemethoxycurcumin und Cyclocurcumin (Curcumin I bis IV). Bei Curcumin handelt es sich um ein natürliches Polyphenol, das erstmals im Jahr 1870 in purer, kristalliner Form extrahiert wurde [1,2].
Schlechte Aufnahme von Curcumin aus der Nahrung
Curcumin wird ein breites Spektrum an positiven Wirkungen auf die Gesundheit nachgesagt, welche hauptsächlich auf seiner anti-oxidativen und anti-inflammatorischen Wirkung im Körper beruhen . Curcumin ist jedoch chemisch instabil und verfügt über eine niedrige Wasserlöslichkeit, womit es nur schlecht ins Zellinnere sowie ins Blut aufgenommen werden kann. So wird letztendlich das wenige Curcumin aus der Nahrung, das im Dünndarm absorbiert wurde, in der Leber rasch verstoffwechselt und über die Gallenblase schnell ausgeschieden. Auch hohe Dosierungen von bis zu 12 Gramm Kurkuma-Pulver pro Tag – was deutlich mehr als der von der WHO empfohlenen Tagesdosis von maximal 3 Gramm entspricht – konnten daran nichts ändern [2,3].
Es gibt jedoch die Möglichkeit, die Verfügbarkeit von Curcumin für den Körper zu erhöhen:
So kann beispielsweise durch die gemeinsame Aufnahme von Curcumin und Piperin, dem Hauptwirkstoff in schwarzem Pfeffer, die Aufnahme von Curcumin ins Blut um 2000 % gesteigert werden. Dies ist jedoch von der Curcumin-Dosis und dem Gesundheitszustand der Person abhängig [2,3].
Auch verschiedene Arten der Wirkstoffverabreichung sowie nanotechnologie-basierte Systeme zum Wirkstofftransport sollen die therapeutische Wirksamkeit von Curcumin verbessern [4]. Ein Beispiel dafür ist das Abfüllen von Curcumin gemeinsam mit essenziellen Kurkuma-Ölen in Kapseln, um die Aufnahme vom Dünndarm ins Blut zu steigern [5].
Therapeutisches Potential wird diskutiert
Curcumin und seine Derivate haben im Lauf der letzten zwei Dekaden erhöhte Aufmerksamkeit in der Forschung bekommen [2,7]. Für neurodegenerative Erkrankungen, Krebs und Immunerkrankungen gilt Curcumin als vielversprechender Wirkstoff [3,6].
Auch ein Einsatz von Curcumin bei Krebs wird diskutiert. Krebs ist heute die zweithäufigste Todesursache weltweit. Trotz großer Fortschritte in der Krebstherapie sind sowohl die Zahl der Neuerkrankungen als auch die Sterblichkeitsrate hoch. Daher gehört die Suche nach effizienteren und weniger toxischen Behandlungsstrategien von Krebs zu den obersten Zielen der derzeitigen Forschung [7]. Curcumin gilt hier als vielversprechender Kandidat, eine effektive Wirkung gegen Krebs konnte jedoch bisher noch nicht bestätigt werden. Derzeit wird in verschiedenen klinischen Humanstudien die Wirksamkeit von Curcumin bei Brust- und Prostatakrebs erforscht:
Eine amerikanische Studie beschäftigt sich mit möglichen Veränderungen des Primärtumors von 20 Brustkrebspatientinnen im Zusammenhang mit der oralen Gabe von Curcumin [8].
Eine weitere Studie untersucht eine mögliche Reduzierung der Krebsprogression in 291 Prostatakrebspatienten, die unter aktiver ärztlicher Überwachung stehen. Curcumin wird den Probanden in Form eines Nahrungsergänzungsmittels namens Biocurcumax verabreicht [8].
Beide Studien werden in den nächsten Jahren abgeschlossen und man darf auf die Ergebnisse gespannt sein.
Studien weisen darauf hin, dass der positive Effekt von Curcumin auf die Gesundheit durch die Darmflora verstärkt wird. Die Mikroorganismen des Darms und Curcuma beeinflussen sich gegenseitig: Die Darmflora produziert aktive Stoffwechselprodukte aus Curcumin, was allerdings stark von der individuellen Bakterienbesiedelung einer Person abhängig ist. Andererseits gibt es Hinweise darauf, dass Curcumin einen positiven Einfluss auf die bakterielle Zusammensetzung der Darmflora hat. Das ist in Bezug auf neurodegenerative Erkrankungen, wie Alzheimer, wichtig, da bei diesen Erkrankungen eine veränderte Darmflora für das Auftreten von Symptomen verantwortlich ist. Etwaige Veränderungen der Darmflora im Menschen und die genauen Mechanismen dahinter sind Gegenstand zukünftiger Forschung.
Bei der Verwendung von Curcumin für therapeutische Zwecke wird empfohlen, dieses gemeinsam mit Milch oder Öl einzunehmen, um die Aufnahme im Körper zu erhöhen [6,9].
Golden Milk: Wahres Superfood?
Aufgrund der möglicherweise verbesserten Aufnahme von Curcumin in Kombination mit Milch erfreuen sich auch Golden Milk und Kurkuma Latte in letzter Zeit großer Beliebtheit. Unzählige Onlineshops bieten fertige Gewürzmischungen für die Zubereitung dieses Wunder-Getränks an. Obwohl sie in Indien schon seit Jahrhunderten Tradition haben, gelten diese Getränke in Europa erst seit kurzer Zeit als Trend und wahres Superfood. Wie der Name schon vermuten lässt, besteht das Getränk neben dem Kurkumapulver in erster Linie aus Milch oder pflanzlichen Alternativen aus Mandel, Soja, Cashew, Kokos oder Hafer. Propagiert werden neben anti-oxidativer und entzündungshemmender auch eine verdauungsfördernde Wirkung. Hier besteht jedoch aus wissenschaftlicher Seite noch reichlich Forschungsbedarf.
Tipps für Einkauf und Lagerung von Kurkuma
Frische Kurkuma-Wurzeln sind ganzjährig in Bioläden oder gut sortierten Supermärkten erhältlich. Beim Kauf ist es wichtig, darauf zu achten, dass die Wurzel schwer in der Hand liegt und keinesfalls runzelige oder feuchte Stellen aufweist. Die frische Wurzel lässt sich am besten im Kühlschrank in einer Dose oder einem verschließbaren Gefrierbeutel aufbewahren, wo sie mehrere Wochen frisch bleibt.
Kurkuma-Pulver sollte, wie auch andere Gewürze, trocken und kühl gelagert werden. Dazu eignen sich gut verschließbare Gefäße mit Schraubverschluss.
Fazit
Zur Farbgebung von Speisen und Getränken eignen sich frische Kurkuma-Wurzeln oder das daraus gewonnene Pulver gut als günstigere Alternative zu Safran. Auch als Bestandteil von Curry-Gewürzmischungen ist Kurkuma gut zum Verfeinern und Färben verschiedener Speisen geeignet. In Milch oder Pflanzendrinks aufgelöst kann man Kurkuma als wärmendes Getränk genießen. Ihrem Ruf als Superfood kann die Golden Milk aus wissenschaftlicher Sicht allerdings noch nicht gerecht werden. Mögliche positive Wirkungen von Curcumin – dem in Kurkuma enthalten Wirkstoff – auf die Verdauung sowie beim Einsatz bei Krebs sind wissenschaftlich noch nicht bestätigt. Die Kurkuma zugeschriebenen Eigenschaften als Wundermittel kommen also eher aus der Tradition als aus der Wissenschaft.
Referenzen:
[1] Nelson, KM, Dahlin JL, Bisson J. et al.: The Essential Medicinal Chemistry of Curcumin (2017). J Med Chem. 2017 Mar 9;60(5):1620-1637. doi: 10.1021/acs.jmedchem.6b00975.
[2] Dei Cas M. nad Ghidoni R.: Dietary Curcumin: Correlation between Bioavailability and Health Potential (2019). Nutrients. 2019 Sep 8;11(9). pii: E2147. doi: 10.3390/nu11092147.
[3] Anand P., Kunnumakkara AB, Newman RA et al.: Bioavailability of curcumin: problems and promises (2007). Mol Pharm. 2007 Nov-Dec;4(6):807-18. Epub 2007 Nov 14.
[4] Catanzaro M., Corsini E., Rosini M. et al.: Immunomodulators Inspired by Nature: A Review on Curcumin and Echinacea (2018). Molecules. 2018 Oct 26;23(11). pii: E2778. doi: 10.3390/molecules23112778.
[6] Pluta R., Januszewski S. and Ulamek-Koziol M.: Mutual Two-Way Interactions of Curcumin and Gut Microbiota (2020). Int. J. Mol. Sci. 2020, 21(3), 1055. doi: 10.3390/ijms21031055
[7] Tomeh MA , Hadianamrei R. and Zhao X.: A review of curcumin and its derivatives as anticancer agents (2019). Int J Mol Sci. 2019 Feb 27;20(5). pii: E1033. doi: 10.3390/ijms20051033.
[8] Giordano A. and Tommonaro G.: Curcumin and Cancer (2019). Nutrients. 2019 Oct; 11(10): 2376. doi: 10.3390/nu11102376
[9] Zam W.: Gut Microbiota as a Prospective Therapeutic Target for Curcumin: A Review of Mutual Influence (2018). J Nutr Metab. 2018; 2018: 1367984. doi: 10.1155/2018/136798
Im Frühling hat das Sammeln von Wildkräutern wieder Saison. Knospen, Samen, Triebe, Blüten, Wurzeln sowie die Pflanzen selbst können oft zu richtigen Delikatessen verarbeitet werden und liefern noch dazu wertvolle Nährstoffe. Auch zum Herstellen von Kosmetikprodukten sind Wildkräuter beliebt. Die bESSERwisser stellen hier Bärlauch, Brennessel, Brunnenkresse, Sauerampfer und Gundelrebe vor.
Bärlauch
Der Bärlauch ist eine Zwiebelpflanze, die in auf feuchten Böden in Laub- und Auwäldern wächst. Verwendet werden die Blätter, die bereits sehr früh – meist im März – noch vor der Blütenbildung gesammelt werden. Bärlauch liefert viel Vitamin C, zudem enthält er die Mineralstoffe Kalium, Kalzium und Eisen. Der typische knoblauchartige Geschmack und Geruch kommt durch die flüchtigen Schwefelverbindungen in seinem ätherischen Öl zustande. Wie bei Zwiebel und Knoblauch entfalten diese Stoffe erst nach dem Zerreiben bzw. Anschneiden ihre Wirkung. Ähnlich dem Knoblauch hat auch Bärlauch eine blutdrucksenkende Wirkung.
Bärlauch zählt zu den beliebtesten Wildkräutern. Er kann roh oder gekocht genossen werden. Seine Blätter werden für Kräuterbutter und -aufstriche, in Pestos, Suppen und Soßen oder im Salat verwendet. Man kann sie auch in Öl einlegen oder ähnlich wie Spinat zu Strudel, Quiches oder als Füllung für Ravioli verarbeiten. Gekochten Speisen wie Suppe sollte er erst gegen Ende der Kochzeit beigemengt werden, damit sein Aroma und seine Vitamine nicht verloren gehen.
Achtung: Bärlauch wird häufig mit giftigen Pflanzen wie Herbstzeitlosen, Maiglöckchen, geflecktem Aronstab, vielblütigem Weißwurz oder verwilderten Gartentulpen verwechselt. Vergiftungsfälle können tödlich enden! Also nur sammeln, wenn man sich ganz sicher ist und jedes Blatt einzeln pflücken. Zudem gibt es in Österreich zunehmend Warnungen vor Fuchsbandwurm-Eiern auf Bärlauch. Diese werden erst bei Temperaturen über 60 Grad C abgetötet, nicht jedoch durch Tiefkühlen. Deshalb Blätter immer gut unter heißem Wasser abwaschen. Falls man alle Risiken ausschließen möchte: Bärlauch kann man auch frisch im Handel kaufen, dieser stammt von landwirtschaftlichen Anbauflächen.
Brennesseln
Brennesseln sind wohl jedem bekannt. Essbar sind sowohl die jungen Pflanzen als auch die Triebspitzen schon älterer Pflanzen sowie die Samen. Die Blätter und Triebe können ähnlich wie frischer Spinat oder roh in Salaten verarbeitet werden. Beim Kochen fallen sie wie Spinat sehr stark zusammen. Roh sollten die von den Stängeln gezupften Blätter kurz heiß übergossen werden, um unangenehme s Brennen im Mund zu verhindern. Getrocknet sind Blätter und Triebe in Teemischungen beliebt.
Brennesseln finden schon lange in der Kräuterheilkunde Verwendung. Ihre harntreibende und stoffwechselfördernde Wirkung wird noch heute geschätzt. Aus den Wurzeln werden Mittel gegen Prostatabeschwerden hergestellt, und in Shampoos und Haarpflegemitteln sind Auszüge aus der kieselsäurereichen Pflanze enthalten. Die Brennessel enthält unter anderem ätherische Öle, organische Säuren, Vitamin C, B und K, Mineralien wie Kalium, Kalzium, Eisen und Kieselsäure, in den Blättern Flavonoide und das Cumarin Skopoletin, in den Wurzeln pflanzliche Steroidhormone und Lektine.
Die Brennhaare auf Blättern und Stängel, mit denen vermutlich alle schon Bekanntschaft gemacht haben, verursachen Brennen und Rötungen, manchmal auch Quaddeln. Bricht man die Brennhärchen ab, bohrt sich eine kanülenartige Spitze aus harter Kieselsäure in die Haut. Ein chemischer Cocktail, der unter anderem Histamin, Serotonin, Acetylcholin und Ameisensäure enthält, wird in die Haut gespritzt.
Sauerampfer
Früher war der Wiesen-Sauerampfer, der roh gekaut oder verkocht wurde, sehr beliebt. Heute ist bekannt, dass er neben Eiweiß, Flavonoiden, reichlich Vitamin C, Carotin, Eisen und Gerbstoffe auch viel freie Oxalsäure enthält – ähnlich wie Rhabarber. Deshalb sollte er nur in sehr kleinen Mengen roh genossen werden, ansonsten lieber nur gekocht, wie beispielsweise in Saucen. Oxalsäure gilt in größerern Mengen als nierenschädigend. Obwohl er viel Eisen enthält, sollte er nicht bei Eisenmangel eingesetzt werden, da die Oxalsäure die Eisenaufnahme hemmt.
Sauerampfer kann ähnlich wie Spinat zubereitet oder mit diesem gemischt werden, damit ein würzigerer Geschmack entsteht. Auch in Suppen wird er verwendet. Besonders beliebt ist die Ampfersuppe in Frankreich, aber auch in Polen und Litauen. Auch in Saucen findet Sauerampfer Verwendung. Es sollten nur junge, makellose Blätter der Pflanze verwendet werden, denn ältere – besonders solche mit Löchern – sind unbekömmlich. Zudem wird der säuerlich-herbe Geschmack des Sauerampfers im Laufe des Jahres immer bitterer.
Brunnenkresse
Die Brunnenkresse wurde bereits in einer sehr frühen irischen Dichtung aus dem 8. Jahrhundert als Nahrung für Einsiedler erwähnt. Sie war auch wichtig für an Skorbut erkrankte Seeleute, sobald diese wieder an Land waren .
Heute ist die Brunnenkresse leider nicht mehr so häufig wie früher zu finden. Sie wächst an fließenden Gewässern, Quellen, Bächen und Fließ-Brunnen. Man kann sowohl Blätter, Triebe als auch Blüten und Blütenknospen essen oder Keimlinge aus den Samen ziehen. Bedeutend war sie einst, als es noch keine Importwaren gab, als Quelle für Vitamin C. Sie eignet sich für den Rohgenuss, beispielsweise in Salaten oder Aufstrichen. Die Kleimlinge sind beliebte Microgreens. Neben Vitaminen enthält sie auch Bitter- und Gerbstoffe sowie ätherische Öle.
Gundelrebe
Die Gundelrebe (oder Gundermann) eignet sich besonders als Gewürzkraut. Ihr Geschmack ist leicht bitter, aber sehr intensiv. Sie passt in Suppen, Salate, Fleischspeisen, aber auch in Topfen- und andere Aufstriche. Sie enthält Flavonoide, Gerb- und Bitterstoffe und ätherische Öle und wirkt verdauungsfördernd. In den Blättern finden sich zudem Lektine, ähnlich jenen in Hülsenfrüchten. Für Menschen ist sie ungiftig, allerdings möglicherweise nicht für Pferde und Kaninchen. In der Landwirtschaft ist sie als Unkraut unbeliebt. Beim Sammeln kann sie leicht mit dem kriechenden Günsel verwechselt werden.
Die Gundelrebe wurde vor der Kultivierung des Hopfens aufgrund ihrer Bitterstoffe zur Konservierung von Bier genutzt. Der Name „Soldatenpetersilie“ weist auf ihre Beliebtheit als Gewürz hin. Bedeutung hatte sie in traditionellen Gründonnerstagsgerichten aus Kräutern wie grünen Saucen.
Nüsse lassen sich zwischendurch gut knabbern und kommen auch im Müsli, im Pesto oder als Nusskruste vom Fisch gerne auf den Teller. Man hört immer wieder, dass Nüsse dick machen sollen. Es wird ihnen aber auch nachgesagt, dass sie gesund sind und außerdem beim Abnehmen helfen sollen. Wie kann das zusammenpassen, und was stimmt von diesen Aussagen? Die bESSERwisser haben recherchiert.
Nüsse: Fettes Superfood
Nüsse sind in ihrem Aussehen sehr vielfältig. Als Nüsse werden allgemein rundliche Früchte mit harter, holziger Schale bezeichnet, deren ölhaltiger Kern meist essbar ist. Zu den Nusssorten, die zum Verzehr geeignet sind, zählen Haselnüsse, Walnüsse, Edelkastanien, Erdnüsse, Macadamianüsse, Cashewnüsse, Kokosnüsse, Mandeln, Paranüsse, Pekannüsse, und Pistazien.
Nüsse enthalten sehr viele Vitamine, Mineralstoffe und Spurenelemente. Ungesättigte Fettsäuren, wie zum Beispiel Linolsäure, pflanzliches Fett und pflanzliches Eiweiß sowie leicht verwertbare Kohlenhydrate und Ballaststoffe sorgen für einen funktionierenden Stoffwechsel. Zusätzlich sorgen Natrium, Kalium, Kalzium, Phosphor, Niacin, essentielle Aminosäuren, Fluor, Eisen, Kupfer, B-Vitamine, die Vitamine A, C, D, und E für Zellschutz und eine strahlende Haut. Nüsse sind auch besonders reich an Magnesium – einem Mineralstoff, der wesentlich an der Fettverbrennung beteiligt ist. Außerdem enthalten Nüsse Folsäure und das Spurenelement Mangan, das optimiert Stoffwechselvorgänge im Körper. Die meisten Nüsse sind kohlenhydratarm, sodass sie auch für eine Low Carb Ernährung geeignet sind.
Der durchschnittliche Fettgehalt von Nüssen beträgt 56g pro 100 Gramm – das entspricht mehr als der Hälfte – und sie enthalten im Durchschnitt 650 kcal pro 100 Gramm. Am fettreichsten sind Pekannüsse mit 72 Gramm Fett pro 100 Gramm. Die fettärmste Nuss ist die Kokosnuss mit immerhin noch 36 Gramm Fett pro 100 Gramm. Das ist im Verhältnis zu anderen Lebensmitteln sehr viel – sollte somit nicht bei Nusskonsum jede Diät scheitern?
Studien zu Nusskonsum und Übergewicht
2018 wurde eine groß angelegte, über fünf Jahre laufenden Studie zum Nusskonsum an 373.293 Frauen und Männern im Alter von 25 bis 70 Jahren durchgeführt. Diese konnte zeigen, dass ein höherer Nusskonsum die Wahrscheinlichkeit, übergewichtig oder fettleibig zu werden, um fünf Prozent senkte. [1]
Auch eine 2018 in China durchgeführte Studie kam zu dem Schluss, dass der Verzehr von Nüssen bei der Vorbeugung von Übergewicht hilfreich sein kann. Als Nebeneffekt des Nusskonsums sinkt auch das Risiko für Herz-Kreislauf-Erkrankungen. [2]
Eine ebenfalls 2018 durchgeführte Metaanalyse in China lieferte ähnliche Ergebnisse. Es zeigte sich, dass Baumnüsse einen positiven Einfluss auf den Fettstoffwechsel haben. Lediglich bei Erdnüssen konnte dieses Ergebnis nicht nachgewiesen werden. [3]
Eine Studie aus dem Jahr 2017 untersuchte übergewichtige und fettleibige Frauen und Männern aus Kalifornien. Bei einer mit Walnüssen angereicherten Standarddiät (15% der Energie) konnte die Gruppe der Probanden und Probandinnen genauso Körpergewicht und Taillenumfang reduzieren wie die jener, die eine Standarddiät mit reduzierter Energiedichte durchführten. Die Studienteilnehmer, die während der Diät Walnüsse verzehren durften, zeigten zusätzlich bessere LDL Cholesterin- und systolische Blutdruckwerte. [4]
Nüsse und ihre Besonderheiten
Haselnüsse sind eine der besten Quellen für Vitamin E, das als Antioxidans wirkt, und haben einen hohen Ballaststoffgehalt. Die eiweißreichen Strauchfrüchte weisen im Vergleich zu anderen Nüssen auch einen hohen Gehalt an Magnesium auf, welches das Nervensystem stärkt.
Walnüsse werden oft als Gehirnnahrung bezeichnet, und das liegt nicht nur daran, dass sie in ihrer Form an das menschliche Gehirn erinnern. Durch ihre Inhaltsstoffe wie Vitamin B und E, Omega-3-Fettsäuren, Linolsäure, Eisen, Kalium und Kalzium, Lecithin und Magnesium kurbeln sie Denkprozesse an.
Edelkastanien sind besonders reich an Kalium sowie B-Vitaminen, die die Bildung des „Glückshormons“ Serotonin im Gehirn fördern. Die mehrfach ungesättigten Fettsäuren, sekundären Pflanzenstoffe und komplexen Kohlenhydrate sind gesund und sättigen langanhaltend.
Erdnüsse zählen eigentlich zu den Hülsenfrüchten. Sie enthalten antioxidative Polyphenole und hochwertiges pflanzliches Protein, in dem die Aminosäure Lysin enthalten ist. Diese kann der menschliche Körper besonders gut verwerten.
Macadamianüsse haben den höchsten Fettgehalt. Sie punkten aber mit vielen gesunden Fettsäuren, die besonders reich an Omega-3- und Omega-6- Fettsäuren sind.
Cashewnüsse, die botanisch als große Samenkörner gelten, darf man nicht roh verzehren. Sie wachsen am Baum und sind von einer Schale umhüllt, die das giftige Öl Kardol enthält. Erst durch das Rösten werden Cashewnüsse genießbar. Sie enthalten besonders viel Magnesium, Eisen, Zink, Kalium und Vitamine, sowie Tryptophan und Serotonin, die das Schlafhormon Melatonin aktivieren. Dieses unterstützt über Nacht die Fettverbrennung.
Mandeln zählen zu den ältesten Snacks der Welt. Sie sättigen gut, weil sie viele Ballaststoffe enthalten. Diese sorgen dafür, dass die in ihnen enthaltenen Fette nur teilweise vom Körper aufgenommen werden und Heißhunger vermieden wird. Durch den Verzehr von Mandeln sinkt außerdem der Appetit auf kurzkettige Kohlenhydrate, wie zum Beispiel Naschereien mit hohem Zuckergehalt. Das macht sie während einer Diät zu einer perfekten Zwischenmahlzeit. Der relativ hohe Eisengehalt, B-Vitamine und das optimale Verhältnis von Kalzium zu Magnesium machen Mandeln auch bei Veganern sehr beliebt. Der Vitamin E-Gehalt versorgt den Körper mit Antioxidantien. Bereits 30 Gramm Mandeln decken ein Drittel des Tagesbedarfs an Kupfer, Mangan und Magnesium sowie mehr als die Hälfte von Biotin. Im Handel findet man meist Süßmandeln mit oder solche ohne Schale sowie Mandelmehl und Mandelmilch. Bittermandeln sind roh giftig, da sie Blausäure enthalten, und werden nur in geringen Mengen mit dem Hinweis auf Verwendung zum Backen verkauft.
Kokosnüsse gehören zu den Steinfrüchten und enthalten neben Wasser und Fett – hauptsächlich in Form gesättigter Fettsäuren – viele Mineralstoffe und Spurenelemente. Gegessen werden das Fruchtfleisch und das Kokoswasser. Die Stämme und Fasern der Samenhülle werden zu Baumaterial oder Seilen verarbeitet. Durch ihren Natrium- und Kaliumgehalt wirkt Kokoswasser im menschlichen Körper isotonisch und wurde im Zweiten Weltkrieg als Ersatz für Blutplasma verwendet. Heutzutage liegen Kokosprodukte im Trend. Presst man das Fruchtfleisch aus, entsteht Kokosmilch, die sich für asiatische Gerichte oder als Schlagobers-Ersatz eignet. Der harte Anteil der Früchte kann zu Kokosflocken zerkleinert werden. Kokosöl gilt als Allrounder – es wirkt sogar leicht desinfizierend. In der Küche wird es gerne als MCT Öl (mittelkettige Fettsäuren, die die Fettverbrennung ankurbeln) verwendet, und es wird auch zur Hautpflege verwendet. Die Blüten der Kokosnuss werden ebenfalls verwendet: Kokosblütenzucker wird gerne als Zuckerersatz eingesetzt, weil der Insulinspiegel nach dessen Genuss niedrig bleibt. Bei 200 Grad im Backofen für 15 bis 20 Minuten springt die Kokosnuss von alleine auf, und man spart sich das mühsame Öffnen.
Paranüsse sind reich an Selen und Magnesium und werden auch als Amazonasmandel bezeichnet. Sie enthalten besonders viel Kalzium, Eisen, Magnesium, Kalium, Phosphor, Zink, Selen und mehrfach ungesättigte Fettsäuren. Paranüsse sind sehr anfällig für den Befall durch Schimmelpilze, und es kann zur Bildung von giftigem Alfatoxin kommen. Daher ist es wichtig, sie kühl und trocken zu lagern. Wenn sie leicht modrig riechen, sollte man sie lieber wegwerfen.
Pekannüsse sind mit Walnüssen verwandt. Sie enthalten besonders viele ungesättigte Fettsäuren und Vitamin A, sind aber die kalorienreichsten Nüsse. 100 Gramm Pekannüsse enthalten 702 kcal. Wer abnehmen möchte, sollte nur eine kleine Menge davon in den Speiseplan einbauen.
Pistazien zählen zu den Steinfrüchten und sind kurioserweise mit dem Pfirsich verwandt. Unter der dünnen, harten Schale befindet sich der grüne, essbare Samen. Die oft rötliche Haut darüber dient zum Schutz der Keimlinge. Die Qualität der Pistazien lässt sich anhand der intensiv grünen Blätter feststellen. Pistazien enthalten die Karatinoide Lutein und Zeaxanthin, die als Zellschutz dienen. [5][6]
Fazit
Solange man es nicht übertreibt und nicht zu viel davon isst, können Nüsse tatsächlich beim gesunden Abnehmen helfen. Proteine und Fett in den Nüssen sättigt und beugt Heißhungerattacken vor. Weil Nüsse keinen Zucker enthalten, fördern sie keine Insulinreaktion und stehen dem Körper als reiner Energielieferant zur Verfügung. Die positiven Auswirkungen auf die Gesundheit lassen eine Diät leichter durchhalten. Möchte man durch den Nusskonsum nicht zunehmen, so gilt: Etwa eine Hand voll Nüsse, naturbelassen und ungesalzen, sind pro Tag erlaubt.
Jeder mag es anders. Der eine kann ohne Frühstück das Haus nicht verlassen, und der andere bringt in der Früh keinen Bissen hinunter. Wie verhält es sich mit Sport ohne Frühstück? Plant man in der Früh Sport, ergibt sich oft die Frage: Sollte man sich vor dem ersten Essen am Tag auspowern, oder lieber erst Energie zuführen und danach seine Muskeln fordern? Was ist effizienter für erfolgreiches Abnehmen? Die bESSERwisser haben recherchiert.
Der Energiestoffwechsel
Wer abnehmen will, sollte möglichst Fett verbrennen, jedoch keine Muskelmasse verlieren. Bei jeder Bewegung arbeiten alle Energiegewinnungsmotoren im Körper. Allerdings ist der Anteil der Gewinnung aus Fettreserven zu Beginn der Belastung anteilsmäßig eher gering.
Hier erscheint es logisch, dass ohne Frühstück sofort mehr Fett verbrannt wird. Ob bei Sport ohne Frühstück der Fettverbrennungsanteil des Trainings tatsächlich insgesamt höher ist, haben mehrere Studien getestet.
Der menschliche Körper gewinnt Energie aus pflanzlichen und tierischen Nahrungsmitteln. Um diese Energie zu nutzen, wandelt der Körper diese Energie in mechanische Energie, wie muskuläre Bewegung um. Diese Energie wird genutzt, um die Grundfunktionen des Lebens aufrechtzuerhalten, wie zum Beispiel Herzschlag oder Atmung. Zusätzlich wird diese Energie auch für körperliche Aktivität genutzt.
Die Energielieferanten aus der Nahrung sind:
1) Kohlenhydrate (Stärke, Zucker)
2) Fette (pflanzlichen und tierischen Ursprungs)
3) Proteine (Eiweiße)
Was der Körper aus der Nahrung nicht sofort verbraucht, speichert er:
Fettspeicher: Fett wird in der Unterhaut gespeichert und ist der größte Energiespeicher. Normalgewichtige haben etwa 80 000 bis 100 000 kcal in Form von Fett gespeichert.
Kohlenhydratspeicher: Kohlenhydrate werden in Form von Glykogen in den Muskelzellen und in der Leber gespeichert. Normalgewichtige haben etwa 1500 bis 2000 kcal in Form von Kohlenhydraten gespeichert.
Eiweißspeicher: Eiweiß dient in erster Linie dem Aufbau von körpereigenen Strukturen. Eiweiße können kaum gespeichert werden.
Wie und wann wird die Energie verbraucht? Unser Körper holt sich Energie als Antrieb für jede Bewegung aus den Energiespeichern, die angezapft werden, sobald die körpereigene Reserve aufgebraucht ist. Der körpereigene Phosphatspeicher mit Adenosintriphosphat (ATP) und Creatine-Phosphat (CP) ist schnell aufgebraucht, und liefert nur für wenige Sekunden Energie. Diese Form der Energiegewinnung ist vor allem bei Sprints oder Kraftsport relevant. Der Körper bildet diese Form der Energie eigenständig nach.
Beim Glykogenspeicher werden gespeicherte Kohlenhydrate mittels Glykolyse in Energie umgewandelt. Diese Energiequelle reicht für mehrere Stunden. Erst nach dieser Zeit greift der Körper zu 100% auf die Fettspeicher zurück. Wenn alle Speicher aufgebraucht sind, wird der Proteinstoffwechsel als Energielieferant herangezogen. Hierbei kommt es auch zum Muskelabbau.
Studien zu Sport ohne Frühstück
Studie zu Laufen am Morgen
In einer Studie der Universität Birmingham aus dem Jahr 2013 wurde getestet, wie sich Radfahren und Laufen am Morgen ohne Frühstück oder mit Frühstück auswirken. Die eine Gruppe an Probanden durfte vor dem Training beliebig essen und trinken, die zweite Gruppe musste nüchtern trainieren. Die Nüchternsportler verbrannten tatsächlich insgesamt mehr Fett als Kohlenhydrate, waren aber nicht so leistungsfähig.
Studie zur Fettverbrennung
Eine 2017 durchgeführte Studie der Universität Bath in Großbritanien untersuchte ebenfalls die Auswirkung von Sport und Nahrungsaufnahme auf die Fettverbrennung. Übergewichtigen wurden nach einem 60- minütigen, eher langsamen Lauf mit leerem Magen Blut und Gewebeproben entnommen. Das Ergebnis war eine Fettverbrennung auf mehreren Ebenen. Zahlreiche Gene wurden aktiviert, die fettverbrennende und fettregulierende Enzyme beeinflussten. Die Enzymkonzentration von PDK4 und HSL war messbar erhöht. PDK4 und HSL zerlegen im Körper gespeicherte Fette und stellen diese dann als Energie zur Verfügung. Die Ausschüttung von Insulin wird über das Enzym IRS2 reguliert. Weniger Insulin im Blut bedeutet auch weniger Einlagerung von Fett in die Depots. Isst man vor dem Sport, sinkt die Konzentration dieser Enzyme, und die Energie kommt von der Mahlzeit, nicht aus den Fettdepots.
Nüchternes Training: schnellere Fettverbrennung
Unsere innere Uhr bewirkt, dass über Nacht der Leberglykogenspiegel absinkt. Dieser ist für die Aufrechterhaltung des Blutzuckerspiegels zuständig. Auch das Gehirn, die roten Blutkörperchen, und die Nervenzellen versorgt das Leberglykogen mit Energie. Ist dieser Speicher leer, holt sich der Körper die Energie für diese Systeme sofort aus dem Fettstoffwechsel. Trainiert man nun ohne Frühstück, bleibt der Blutzuckerspiegel sehr niedrig, und eine Folge können Kreislaufprobleme beim Training sein. Dadurch, dass diese Form der Energiegewinnung sehr aufwändig für den Körper ist, darf man sich keine Höchstleistungen erwarten, und sollte das nüchterne Training auf maximal 90 Minuten begrenzen.
Der Snack nach dem Sport sollte Protein und Kohlenhydrate enthalten, damit die Glykogenreserven wieder aufgefüllt werden und es zu keinem Muskelabbau kommt. Sehr gut geeignet sind dazu komplexe Kohlenhydrate wie Naturreis, Vollkornnudeln, Süßkartoffeln oder Getreide, wie zum Beispiel Quinoa. Als gute Proteinquellen gelten Eier, Fisch, Fleisch, Tofu, aber auch Hülsenfrüchte wie Bohnen, Erbsen, Linsen und Soja.
Wer regelmäßig nüchtern Ausdauersport betreibt, trainiert seinen Fettstoffwechsel, und die Dichte der Mitochondrien wird erhöht. Dadurch steigt die Leistungskurve. Experten empfehlen, zweimal wöchentlich im Rahmen des Trainingspensums Sport ohne Frühstück zu betreiben.
Fazit
Sport ohne Frühstück kann den Organismus effizienter in der Fettverbrennung machen. Beim Workout ohne Essen davor wird mehr Fett verbrannt, und zusätzlich werden Enzyme aktiviert, die Energie verstärkt aus gespeichertem Fett ziehen. Das kann eine Diät erfolgreicher machen, vorausgesetzt es werden mehr Kalorien verbrannt als danach zugeführt.
Viele kennen ihn aus ihrer Kindheit, den Mythos Spinat essen sei besonders gesund, weil das Blattgemüse besonders viel Eisen enthält. Popeye, der Spinat-essende Trickfilm-Matrose, trug vermeintlich zu diesem Irrtum bei. 1981 wurde der Mythos durch eine Publikation entlarvt, die zeigte, dass die Eisenmessungen in den 1930er Jahren falsch waren und lediglich eine Dezimalstelle verrutscht war. Doch auch diese Feststellung traf nicht des Pudels Kern – es entstand ein Mythos um den Mythos. Die bESSERwisser haben die Geschichte genauer beleuchtet und zum Thema Eisen und Ernährung recherchiert.
Die Mär vom Eisengehalt im Spinat und der Dezimalstellenfehler
Trickfilmfigur Popeye ernährte sich ausschließlich von Spinat, deswegen war er so besonders stark, so die Story. Mit ihm als Vorbild wurden Kinder jahrzehntelang mit dem Mythos konfrontiert, dass der Konsum von viel Spinat unseren Eisenbedarf deckt und damit zu guter Gesundheit beiträgt. Doch wenn man genauer recherchiert, sagt Popeye im Cartoon von EC Segar: „Spinach is full of Vitamin A. An’ tha’s what make hoomans strong an’ helty!“. Der schlaue Popeye also wusste sehr wohl, dass Spinat nicht etwa sehr viel Eisen sondern vielmehr besonders viel Vitamin A enthält. 1981 veröffentlichte Professor Terence Hamblin im British Medical Journal, dass bei der Bestimmung des Eisengehaltes im Spinat in den 1930er Jahren versehentlich das Komma um eine Stelle nach rechts verrutscht sei und somit Spinat ein unnatürlich hoher Eisengehalt verschafft wurde. Dieser Dezimalstellenmythos ist heute noch in vielen Publikationen rund um das Thema Eisengehalt im Spinat präsent. Tatsächlich aber wurden bereits Jahre zuvor zu hohe Eisenmengen im Spinat von Wissenschaftlern festgestellt. Dem Fehler lagen Eisen-Kontaminationen, die durch das Erhitzen von Speisen entstanden, zugrunde, und ähnlichen Fehler ergaben sich bei den Erhebungen. Spinat hat einen ähnlich hohen Eisengehalt wie anderes dunkelgrünes Blattgemüse. Der Grund, warum Spinat tatsächlich kein besonders guter Eisenlieferant ist: Die in Spinat enthaltene Oxalsäure bzw. ihre Salze (Oxalate) beeinträchtigen die Resorption von Eisen im Darm. [1]
Spurenelement Eisen und die Eisenverarbeitung im Körper
Im August 2015 wurden beim forum ernährung heute-Mythen-Check [2] 508 Personen zu Ernährungsmythen befragt. 66,1 % der Befragten gaben an, auf jeden Fall oder zumindest teilweise zu glauben, dass Spinat reichlich viel Eisen enthält. Der Mythos zeigt sich stand fest, doch warum beschäftigen wir uns eigentlich so intensiv mit unserem Eisenbedarf?
Eisen ist ein sogenanntes Spurenelement, der Körper kann es nicht produzieren und benötigt es in „Spuren“, also verglichen mit anderen Stoffen wie beispielsweise Aminosäuren relativ wenig davon. Es kommt in mehreren Oxidationsstufen vor, wobei jedoch nur Fe2+ – zweiwertiges Eisen, und Fe3+ – dreiwertiges Eisen eine Bedeutung für den Organismus haben. Zweiwertiges Eisen kann rasch zu schwerlöslichem dreiwertigem Eisen oxidieren, daher besitzen Organismen Proteine wie Hämoglobin, Transferrin oder Ferritin, die Eisen binden. Nur so bleibt Eisen biologisch verfügbar. Circa 80 % des Eisens liegen als sogenanntes Funktionseisen vor. Dieses Funktionseisen ist größtenteils sogenanntes Hämeisen, liegt also im Eisen-Protein-Komplex vor – das bekannteste Hämprotein ist Hämoglobin, aber auch Myoglobin und Zytochrome sind Hämproteine im Körper. [3,4,5]
Eisen ist zentraler Baustein von Hämoglobin in den roten Blutkörperchen und bindet Sauerstoff, um ihn im Blut zu transportieren. Beispielweise versorgt es damit Muskeln mit Sauerstoff. Niedrige Eisenlevel gehen oft mit Kraftlosigkeit und Müdigkeit einher, weil die Sauerstoffbereitstellung nicht gewährleistetet ist. In tierischen Lebensmitteln, insbesondere in Fleisch, liegt der Großteil des Eisens als Hämeisen vor. Dieses Zweiwertige Eisen wird aufgrund seiner guten Löslichkeit etwa dreimal so gut resorbiert als Nicht-Hämeisen, das vor allem in pflanzlichen Nahrungsmitteln vorkommt. Man kann jedoch gute Eisenquellen wie Hülsenfrüchte oder Vollkorngetreide mit Vitamin C-reichen Nahrungsmitteln kombinieren – damit nimmt der Körper es besser auf. Tee oder Kaffee verschlechtern übrigens die Eisenaufnahme, sie enthalten Polyphenole und Phytate, welche die Aufnahme inhibieren. Milch- und Eiproteine hemmen die Absorption ebenso wie Rhabarber, der besonders viel Oxalsäure enthält. [3,4,5,6,7,8]
Eisenmangel und Eisenspeicherkrankheit
Die drei wichtigsten labordiagnostische Messgröße zur Beurteilung des Eisenstoffwechsels sind Eisen, Ferritin und Transferrin. Eisen gibt den messbaren Eisenwert im Blut an, ist aber als Wert alleine für die Diagnose einer Eisenmangelanämie nicht aussagekräftig. Ferritin ist ein Protein und ein Maß für die Eisenspeicherung im Körper, Transferrin ist ebenso ein Eiweiß und transportiert Eisen. Bei einem Eisenmangel liegt das Eisen- und Ferritinlevel unter den geltenden Referenzwerten, Transferrin ist meist erhöht. Gemeinsam mit den Blut- und Vitaminwerten (z.B. Folsäure) und Lebensumständen wie Schwangerschaft, kann der Eisenstatus und gegebenenfalls ein zusätzlicher Bedarf an Eisen durch Mediziner beurteilt werden. [9,10]
Nicht immer müssen Ernährung oder Lebensumstände an einem gestörten Eisenhaushalt schuld sein. Die Eisenspeicherkrankheit, auch Hämochromatose oder Bronzediabetes genannt, resultiert in einer erbliche bedingten gesteigerten Eisenaufnahme im Dünndarm. Dabei lagert sich überschüssiges Eisen in den Geweben ab und schädigt diese. Die Krankheit kommt mit einer Häufigkeit von 2-5 Betroffenen pro 1000 Personen vor. Die Betroffenen weißen meist Leberschädigungen oder Schädigungen der Bauchspeicheldrüse auf, letzteres resultiert oft in einer Zuckerkrankheit (Diabetes Mellitus). Zu unterscheiden ist diese primäre genetisch bedingte Eisenspeicherkrankheit von der sekundären Hämochromatose, bei der die Eisenüberladung eine Folge anderer Erkrankungen ist. Heutzutage kann die Eisenspeicherkrankheit bei Verdacht des behandelnden Arztes durch eine genetische Untersuchung des HFE-Gens diagnostiziert werden. [11,12]
Eisenversorgung von Kindern
Kinder wachsen rasch und haben deswegen spezielle Anforderungen an die Ernährung. Eisenmangel bei Kindern ist eine weit verbreitete Mangelkrankheit und das auch in Industrieländern. Eisen ist für die Blutbildung essentiell und eine gute Versorgung ist vor allem in Wachstumsphasen wichtig. Eine Eisenanämie, also Unterversorgung, kann sowohl die körperliche als auch geistige Entwicklung stören. Eine Studie [13] von 2017 zeigte, dass spezielle Kindermilch den Bedarf an Eisen besser decken kann als Kuhmilch. Kindermilch basiert auf Kuhmilcheiweiß und ist mit verschiedenen Zucker/Kohlenstoffarten, pflanzlichen Ölen, Vitaminen sowie Spurenelementen wie Eisen angereichert. Da vom Eisenmangel nicht nur Kleinkinder betroffen sein können, sondern auch Teenager, sollten eisenreiche Nahrungsmittel wie Fleisch, Eier, Vollkornprodukte, Hülsenfrüchte und eisenreiches Gemüse auf dem Speiseplan stehen. [14]
Fazit
Es ranken sich viele Mythen um das Thema Eisen in Lebensmittel- allen voran um Eisen im Spinat. Das zeigt, dass der Eisenhaushalt für die Menschen eine wichtige Rolle spielt. Eisenmangel spiegelt sich in Müdigkeit und Antriebslosigkeit wieder, eine erhöhte Zufuhr an Eisen durch eisenreiche Nahrungsmittel kann dem entgegenwirken. Vor allem Kleinkinder und Jugendliche haben in den Wachstumsphasen einen erhöhten Eisenbedarf, hier ist Kindermilch bzw. in der Pubertät eine eisenreiche Ernährung essentiell, um Schäden vorzubeugen. Nicht immer kann der Eisenhaushalt mit der Ernährung optimiert werden: die Eisenspeicherkrankheit bedingt eine gesteigerte Eisenaufnahme im Darm und Ablagerung von Eisen im Gewebe und ist genetisch bedingt. Sie muss frühzeitig diagnostiziert und behandelt werden.
Quellen:
[1]Sutton M. How the spinach, Popeye and iron decimal point error myth was finally bust. HealthWatch Newsletter 2016;101:7
[5] Leitzmann C, Müller C, Michel P, Brehme U, Hahn A, Laube H: Ernährung in Prävention und Therapie. 68-70. Hippokrates Verlag in MVS Medizinverlage Stuttgart GmbH & Co. KG 2005
[13] Akkermans MD et al.: Iron and Vitamin D Deficiency in Healthy Young Children in Western Europe Despite Current Nutritional Recommendations. J Pediatr Gastroenterol Nutr. 62: 635-642 (2016)
Das Bewusstsein von Konsumenten für gesunde Ernährung hat im Laufe der letzten Jahrzehnte zugenommen. Im Zusammenhang damit setzt sich schön langsam ein neuer Trend durch: immer mehr Menschen lassen ihre DNA analysieren, um Aufschluss über genetisch bedingte Verarbeitung von Nährstoffen zu erhalten. Gemeinsam mit anderen Lifestyle-Gentests ist die Personalisierte Ernährung im Kommen – die bESSERwisser haben dazu recherchiert.
Gene und Ernährung
Menschen können sich von Individuum zu Individuum stark darin unterscheiden, wie Nahrung von ihrem Körper aufgenommen und verwertet wird. So etwa kann die gleiche Kost bei einer Person zur Gewichtszunahme führen, während eine andere Person damit ihr Gewicht hält. Außerdem kann jemand, der sich hauptsächlich von Schnitzel und Pommes ernährt, durchaus einen niedrigeren BMI (Body Mass Index oder Körpermasseindex) aufweisen als jemand, der auf ausgewogene Kost achtet. Ebenso kann Kaffee bei verschiedenen Personen den Blutdruck völlig unterschiedlich beeinflussen. Somit funktioniert es nicht, eine Generalaussage über die Wirkung von Inhaltsstoffen von Nahrungsmitteln zu treffen. Zu einem gewissen Maß spielt hier unsere genetische Veranlagung eine wichtige Rolle, Wissenschaft aber auch kommerzielle Anbieter widmen sich in letzter Zeit verstärkt dieser Thematik.
Genanalysen von Anfang an?
In unserer Gesellschaft wird bereits früh versucht, das Bewusstsein für gesunde Ernährung zu schaffen. Schon unsere Kinder lernen die Ernährungspyramide [1] kennen und wissen, was gut und was schlecht für sie ist. Zahlreiche Programme unseres Gesundheitssystems setzen beim Thema Ernährung und Gesundheit früh an. Initiativen wie beispielsweise „Richtig Essen von Anfang an“ [2] vermitteln grundlegendes Wissen für Schwangere und Stillende zu ihrer Ernährung und der von Babys und Kleinkindern. Trotz solcher Maßnahmen ist Übergewicht bei Kindern und Jugendlichen heute weit verbreitet. Übergewicht und Fettleibigkeit (Adipositas) können verschiedene Ursachen haben und entstehen durch ein komplexes Zusammenspiel genetischer, verhaltens- wie auch verhältnisbezogener Faktoren [3]. Als verhaltensbezogen bezeichnet man personenbezogene Faktoren, während die externen Faktoren im Lebensumfeld einer Person als verhältnisbezogen beschrieben werden.
Die gezielte Aufklärungsarbeit im Bildungsbereich bewirkt in vielen Fällen eine gewisse Sensibilität für gesunde Ernährung. Was jedoch kaum beachtet wird ist die Tatsache, dass auch genetische Einflüsse Auswirkungen darauf haben, wie die Nahrung von einem Individuum aufgenommen und verwertet wird. Projekte wie Food4Me [4] versuchen systematisch Daten zum Zusammenspiel von Genen und Ernährung zu sammeln. Immer mehr Menschen nehmen aber die Analysen auch selbst in die Hand: der Markt für genetische Tests aus dem Internet blüht [5], und hier gibt es auch ein großes Angebot an Ernährungs-Gentests. Einige dieser Gentests haben auch Kinder als Zielgruppe und untersuchen beispielsweise Gene für Fettleibigkeit [6,7].
Die Nutrigenomik
Der Forschungszweig der Nutrigenomik befasst sich mit dem Zusammenspiel von unseren Genen und der Ernährung. Jeder von uns hat ein individuelles Genprofil, das mitbestimmt, welche Nahrungsmittel der Körper gut oder auch schlecht verarbeiten kann. Nicht nur die DNA ist relevant, auch die daraus entstehenden Proteine (Proteomics) und Stoffwechselprodukte (Metabolomics) finden hier Berücksichtigung. Die Nutrigenetik ist ein Teilbereich der Nutrigenomik und beschäftigt sich mit genetischen Abweichungen, die sich auf den Stoffwechsel und den Nährstoffbedarf auswirken. In der Nutri-Epigenetik wiederum wird die Regulation von ernährungsrelevanten Genen und die Wirkung von Ernährungsweisen auf die DNA und Genregulation untersucht [8].
Heute weiß man, dass je nach genetischer Ausstattung eines Menschen Nährstoffe unterschiedlich auf ihn wirken können. Obwohl wir Menschen genetisch zu 99,9 % ident sind, machen die restlichen 0,1% den Unterschied von Individuum zu Individuum aus [9]. Konkret können minimale Abweichungen in der Buchstabenreihenfolge der DNA – den Basen Adenin, Cytosin, Guanin, und Thymin – große Auswirkungen haben, denn sie sind die Bauanleitung für Eiweiße (Proteine). Proteine haben bei allen Vorgängen in unserem Körper wichtige Aufgaben, so auch bei der Aufnahme und Verwertung von Nahrung. Veränderungen in der DNA-Sequenz können somit zu Unterschieden bei der Nahrungsverwertung führen. Eine bestimmte Basenabfolge in der DNA kann etwa bewirken, dass Fruktosetransporter falsch gebaut werden und somit keine Fruktose mehr in die Zelle aufgenommen werden kann. Allerdings stellt eine Variantion der DNA-Basensequenz eine Mutationen dar, man spricht hier von einem sogenannten Polymorphismus. Polymorphismen sind Abweichungen der Basenabfolge der DNA, die in der Bevölkerung häufig vorkommen und bei denen oft nicht mehr definiert ist, was die „normale“ Variante ist. Molekularbiologen sprechen hier von einem häufigeren und einem weniger häufigen Allel (Ausprägungsform eines Gens).
Die Laktoseintoleranz – ein prominentes Beispiel der Nutrigenetik
Die Verträglichkeit von Milchzucker – auch als Laktosetoleranz bekannt – hat sich in Europa nach jahrtausendelanger Milchviehzucht als genetische Variante durchgesetzt. Ihr verdanken wir es, dass hierzulande auch die meisten Erwachsenen Milchzucker (Laktose) verdauen können. Die Laktoseintoleranz ist eine Nahrungsmittelunverträglichkeit (also keine Allergie), die etwa 75 % der Weltbevölkerung betrifft [10].
Dass der Mensch im Erwachsenenalter keine Milch verträgt, ist also global gesehen der Normalfall. Die Österreicher haben, ähnlich wie andere Europäer, historisch bedingt eine um ein Vielfaches höhere Laktosetoleranz von etwa 80 %. [11,12]
Neugeborene besitzen die Fähigkeit, dank des Enzyms Laktase-Phlorizin-Hydrolase (LPH, Genname LCT) die in der Muttermilch vorhandene Laktose (Milchzucker) abzubauen. Die Fähigkeit, größere Mengen an Laktose aus Milchprodukten und Milch zu verarbeiten, bleibt aber nach dem Abstillen nicht unbedingt bei allen Menschen erhalten. Die resultierende primäre Laktoseintoleranz des Erwachsenen ist eine Nahrungsmittelunverträglichkeit, die mit unangenehmen Symptomen einhergeht. Verantwortlich dafür, ob man Milchzucker verarbeiten kann oder nicht, sind Polymorphismen im MCM6-Gen, das in der Nähe des LCT-Gens gelegen ist. Der Polymorphismus LCT-13910C>T (Cytosin/Thymin Variation) ist im Kontext der Laktosetoleranz besonders wichtig: Die genetische Variante ist über 90 % mit dem Auftreten der Laktosetoleranz assoziiert und für die europäische und amerikanische Form der Laktoseverträglichkeit verantwortlich. [13]
Als sekundäre Laktoseintoleranz bezeichnet man eine Milchzuckerunverträglichkeit, die als Folgeerscheinung einer anderen Erkrankung auftritt. Hierzu zählt beispielsweise die Zöliakie (Glutenunverträglichkeit). Bei dieser Erkrankung wird die Schleimhaut des Darms verändert und damit die Laktaseproduktion beeinträchtigt. [14]
Lifestyle-Gentests und medizinische Tests: Angebote und Grenzen
Generell kann man bei Gentests aus dem Internet zwischen medizinischen und nicht-medizinischen Tests unterscheiden. Medizinische Gentests sind all jene, bei denen der Gesetzgeber die Vorschreibungen des Tests durch einen Arzt vorsieht. Alle anderen – sogenannte Lifestyle-Gentests – dürfen auch von Heilpraktikern, Ernährungsberatern, Fitnesstrainern oder Privatpersonen bestellt werden. Der Test auf Laktoseintoleranz fällt in Deutschland, Österreich und der Schweiz unter die Regelung für medizinische Tests [15,16,17], da es sich zwar nicht klassischerweise um eine Erkrankung handelt, die Genanalyse aber einem medizinischen Zweck dient. Ähnliches gilt für Tests, die beispielweise das Diabetes- oder Bluthochdruckrisiko aufgrund genetischer Markergene bestimmen.
Die Bandbreite an Lifestyle-Tests, die man ohne ärztliche Beratung beziehen kann und die lediglich einer selbst abgenommenen Speichelprobe bedürfen, ist mittlerweile sehr groß. Neben ernährungsrelevanten Genen können auch Gene, die mit Abnehmen oder sportlicher Leistung assoziiert sind, analysiert werden. Der Kunde erhält nach der Auswertung ein genetisches Profil und einen an seine Gene angepassten Ernährungs-, Trainings- oder Abnehmplan. Ein solches Profil kann dabei helfen herauszufinden, wie der Körper beispielsweise Eisen, Vitamine oder Coenzyme verwertet und wieviel man demnach zu sich nehmen muss, um den Bedarf zu decken. Dabei wird oft auch für Kunden designtes Functional Food angeboten, um eine optimale „Gen-Diät“ zu gewährleisten.
Mit dem zunehmendem Angebot ist bei Lifestyle-Gentests die Grenze zum medizinischen Nutzen immer schwieriger zu ziehen. Schlussendlich wirken viele Interventionen, die nach „nicht-medizinischen“ Genanalysen erfolgen, in den medizinischen Bereich hinein. Dies ist also ein Prozess, der von Experten begleitet werden sollte.
Fazit
Der Einfluss der Gene darauf, wie der Mensch unterschiedlich Nahrungsmittel verwerten kann, ist schon länger bekannt. Heute werden Test und Ernährungspläne auf Basis genetischer Analysen als „Personalisierte Ernährung“ betitelt, sie sollen eine individuell gesündere Lebensweise fördern. Die erhöhte Nachfrage an genetischen Analysen wirft viele Fragen zur ethischen, gesellschaftlichen und rechtlichen Dimension, auch oder sogar im speziellen von „nicht-medizinischen“ Tests auf. Eine breite Diskussion über Lifestyle-Genanalysen sollte dazu führen, dass die Anbieter der Tests auch umfassendere Informationen zur Bedeutung der Ergebnisse für Konsumenten zur Verfügung stellen. Darüber hinaus kann eine gute naturwissenschaftliche Grundbildung (Scientific Literacy) und Know-how im Bereich der Genetik dazu beitragen, als Konsument oder Konsumentin den Wert solcher Tests adäquat einschätzen zu können – und zwar da, wo die gesetzliche Regelung medizinischer Tests endet und die Beratung durch einen Mediziner nicht mehr obligat ist.
[6] Caulfield, T., P. Borry, M. Toews, B.S. Elger, H.T. Greely und A. McGuire. Marginally scientific? Genetic testing of children and adolescents for lifestyle and health promotion (2015). Journal of Law and the Biosciences 2: 627–644.
[7] Segal, M.. Genetic Testing for Obesity: Implications and Challenges (2017). Current Obesity Reports 6: 93–100.
[13] Daniel H., Klein U., Nutrigenetik: Genetische Varianz und Effekte der
Ernährung, In: D. Haller (Hrsg.), Biofunktionalität der Lebensmittelinhaltsstoffe,
DOI 10.1007/978-3-642-29374-0_2, Springer-Verlag Berlin Heidelberg 2013, Kapitel 2, Seite 9-10
Fisch ist gesund und Bestandteil einer ausgewogenen Ernährung. Laut Experten bildet der wöchentliche Verzehr von mindestens zwei Portionen Fisch die Grundlage für Gesundheit und Wohlbefinden. Doch wie in vielen anderen Ländern, liegt auch in Österreich der tatsächliche Fischkonsum deutlich unter dieser Empfehlung. Aber was macht Fisch eigentlich so gesund? Die bESSERwisser haben Antworten auf diese und andere Fragen rund um das Thema Fisch gesucht.
Zahlen & Fakten zum Fischkonsum
Fisch nimmt in den Lehrbüchern heimischer Bildungsstätten in der „Österreichischen Ernährungspyramide“ schon lange einen wichtigen Platz ein. In der Empfehlung der Nationalen Ernährungskommission in Österreich wird der Verzehr von mindestens zwei Portionen Fisch (zu je 150 g) pro Woche empfohlen, ein Wert, zu dem auch die Deutsche Gesellschaft für Ernährung rät [1][2][3].
Doch der Österreichische Ernährungsbericht 2017 spricht eine eindeutige Sprache: Alle Gruppen der Bevölkerung liegen bei der tatsächlichen Verzehrsmenge an Fisch weit unter dem empfohlenen Mindestkonsum. Österreicher essen im Schnitt nur zwischen 80 und 130 g Fisch pro Woche und verfehlen den Rat der Ernährungsexperten somit ganz eindeutig [4].
Fisch ist nicht gleich Fisch
Fisch zeichnet sich durch seine Vielfalt aus und bereichert alleine dadurch schon unseren Speiseplan. Je nach Art und Aufzucht enthält er wichtige Nährstoffe in unterschiedlichen Mengen. Insgesamt wird bei Fisch zwischen fettreichem Seefisch, Magerfisch und mittelfettem Fisch unterschieden.
· Zu den fettreichen Seefischen zählen etwa Meeresfische wie Lachs, Hering, Makrele oder Thunfisch. Obwohl diese Fische alle einen hohen Fettgehalt von bis zu 25 Prozent aufweisen und somit viele Kalorien enthalten, gelten sie als sehr gesund. Und das hat einen einfachen Grund: Der Anteil an mehrfach ungesättigten Omega-3-Fettsäuren, den „guten“ Fetten, ist überdurchschnittlich hoch.
· Magerfische enthalten hingegen wesentlich weniger Fett, nämlich nur maximal zwei Prozent und sind deshalb für kalorienarme Ernährung geeignet. Anstatt mit vielen gesunden Fettsäuren punkten Seelachs, Kabeljau, Scholle und Co daher vor allem mit ihrem niedrigen Fettgehalt.
· In Österreich heimische Kaltwasserfische wie Karpfen, Forelle und Saibling zählen übrigens mit zwei bis zehn Prozent Fett zu den mittelfetten Fischen und stellen damit eine weitere Alternative beim Fischkonsum dar. [5][6]
Die „guten“ Fette im Fisch
Omega-3-Fettsäuren gelten landläufig als gesund. Der Name dieser Gruppe an Fettsäuren hat mit dem chemischen Aufbau zu tun. Eine Fettsäure per se ist eine Verbindung von Kohlenwasserstoffen, die an einem Ende der Kette eine Carboxylgruppe – eine bestimmte chemische Verbindung aus einem Kohlenstoffatom, zwei Sauerstoffatomen und einem Wasserstoffatom, abgekürzt „COOH“ – trägt. Die Länge der Kohlenstoffkette ist je nach Fettsäure verschieden lang und enthält eine unterschiedliche Anzahl an Doppelbindungen zwischen den Kohlenstoff-Atomen. Die C-Atome einer Fettsäure werden in der chemischen Nomenklatur nummeriert und zwar beginnend vom Ende, also dem Omega (ω), relativ zur Carboxylgruppe. Das erste C-Atom liegt also dem COOH gegenüber. Das Besondere einer Omega-3-Fettsäure ist, dass es zwischen dem dritten und vierten C-Atom der Kette eine Doppelbindung gibt, also am ω-3 – und das gibt dieser Art von Fettsäuren ihren Namen. [7] Von diesen ω-3-Fettsäuren gibt es viele verschiedene Vertreter, ein Beispiel dafür ist die Linolensäure.
Quelle: Open Science – Lebenswissenschaften im Dialog
Fisch ist gesund für Körper und Geist
Im Fett der Fische ist ein überdurchschnittlich hoher Anteil an Omega-3-Fettsäuren zu finden. Bereits aus Beobachtungen in den 1970er-Jahren ging hervor, dass Völker, die viel fetten Fisch wie Lachs oder auch Meeressäuger wie Wale essen, ein sehr geringes Risiko für Herz-Kreislauf-Erkrankungen aufweisen [7]. Diese fettreichen Meerestiere weisen beide einen besonders hohen Gehalt an gesunden Fetten auf. In den letzten Jahrzehnten konnten auch zahlreiche Studien zeigen, dass Omega-3-Fettsäure-reiche Nahrung das Herzinfarktrisiko reduziert und koronarer Herzkrankheit vorbeugt. Wie diese gesunden Fette genau auf den Körper wirken, ist allerdings nicht endgültig geklärt. Physiologisch gesehen können sie in erster Linie den Blutdruck und die Herzfrequenz senken und Ablagerungen in Venen und Arterien vermindern [5][7].
Auch weitere positive Wirkungen werden dem Fischverzehr zugeschrieben: So soll das Nahrungsmittel eventuell sogar die geistige Leistung verbessern und Erkrankungen wie Rheuma entgegenwirken.
Ein zu hoher Fleischkonsum wird heute mit einem gesteigerten Risiko für Darmkrebs in Verbindung gebracht [8]. Im Gegensatz dazu deuten manche wissenschaftliche Studien darauf hin, dass Fisch die Wahrscheinlichkeit, an dieser Krebsform zu erkranken, sogar senkt [5].
Die Mischung macht’s
Unabhängig davon, welchen Fisch wir essen: Er bietet eine wichtige Quelle für hochwertiges Eiweiß und weitere Nährstoffe, die in dieser Kombination in kaum einem anderen Nahrungsmittel vorkommen. Marine Lebewesen liefern allgemein zahlreiche Mineralstoffe und Spurenelemente wie Kalzium, Kalium und Phosphor, die essenziell für unsere Gesundheit sind [5]. Alaska-Seelachs enthält beispielsweise große Mengen an Kalium, das die Funktion unserer Nervenbahnen unterstützt und eine zentrale Rolle im Wasserhaushalt unseres Körpers spielt [6].
Vor allem im Meer lebende Fische sind außerdem ein wichtiger Lieferant an Jod, das eine zentrale Aufgabe für eine intakte Schilddrüse erfüllt und für den Hormonhaushalt essenziell ist. Ein Erwachsener kann die empfohlene Tagesmenge (200 Mikrogramm) davon beispielsweise mit nur 100 Gramm Seelachs abdecken. Auch das Halbmetall Selen, das für unser Immunsystem unerlässlich ist, nehmen wir beim Verzehr von Fisch zu uns. [5][6]
Vor allem fettreicher Seefisch enthält außerdem hohe Konzentrationen an Vitaminen [5]. Doch auch in manchen weniger fetten Fischen, wie beispielsweise der in Österreich heimischen Forelle, sind hohe Konzentrationen bestimmter Vitamine zu finden. So enthalten bereits 100 Gramm dieses schmackhaften Fisches die empfohlene Tagesmenge der Vitaminen B12 und D [6]. Vitamin B12 unterstützt die Blutbildung und hilft beim Abbau bestimmter Fettsäuren, während Vitamin D für den Knochenstoffwechsel unentbehrlich ist [5].
Hätten Sie’s gewusst? Der in den letzten Jahrzehnten in Verruf geratene Dosenfisch enthält oft besonders viel Kalzium. Das liegt daran, dass die Gräten durch die Zubereitung aufgeweicht und so vom Konsumenten mitgegessen werden [5].
Die Kunst der richtigen Zubereitung
Fisch hat noch einen weiteren Vorteil: Im Wasser lebende Organismen brauchen im Gegensatz zu anderen Tieren wesentlich weniger Muskeln, da der Auftrieb den Großteil ihres Körpergewichts trägt. Weniger Muskeln heißt folglich auch weniger Bindegewebe- und das macht den Fisch leichter verdaulich [5]. Das bringt aber ebenfalls Schwierigkeiten mit sich: Wird Fisch nicht richtig zubereitet – also übergart –, gleiten die einzelnen Muskelsegmente des Fischfleisches voneinander ab, da sie nicht durch Bindegewebe zusammengehalten werden [9].
Für die Zubereitung von Fisch eignet sich daher besonders das vorsichtige Erhitzen in einem heißen, aber nicht kochenden Sud, der höchstens 70 Grad Celsius haben darf. Dabei ändert sich die Struktur der Proteine so, dass die einzelnen Fäden benachbarter Proteine Zeit haben, sich ineinander zu verhaken. Stoppt man den Garprozess dann rechtzeitig, bleibt der Fisch saftig und zart, die einzelnen Segmente fallen aber nicht auseinander.
Bei dieser Zubereitungsart wandern außerdem die Geschmacksstoffe der beigefügten Gewürze und Kräuter durch Osmose aus dem Sud in den Fisch: Die Konzentration gelöster Moleküle auf beiden Seiten gleicht sich durch eine halbdurchlässige Membran in dem Fall die Haut des Fisches mit der Zeit aus [10].
Fazit
Mit seiner Kombination von guten Fetten, Vitaminen und anderen essenziellen Nährstoffen stellt Fisch eine gesunde Ergänzung oder auch Alternative zu Fleisch dar. Daher empfehlen Ernährungsexperten schon lange, auch in Österreich mehr Fisch auf den Speiseplan zu bringen. Denn zahlreiche Studien belegen mittlerweile, dass Fischkonsum positive Auswirkungen auf unseren Körper haben und Volkskrankheiten unserer Zeit wie Herz-Kreislauf-Erkrankungen vorbeugen kann. Durch seine Vielfalt kann Fisch zusätzlich dazu beitragen, unsere Ernährung abwechslungsreicher zu gestalten.
Wie man weiß, isst das Auge mit. Gerichte oder Lebensmittel, die durch eine schöne Farbe bestechen, schmecken uns oft besonders gut. Mit der Farbe hilft man in der Küche gerne auch mal nach, was aber keine moderne Erscheinung ist, sondern schon seit Jahrhunderten so praktiziert wird.
Doch wie kommen Farben in unseren Lebensmitteln zustande? Welche natürlichen Farbstoffe können wir zum Färben unserer Gerichte verwenden und wie war das früher?
Möchte man natürliche Farbstoffe in der Küche einsetzen, kann es nicht schaden, etwas über die Chemie und Physik von Farben und deren Wahrnehmung sowie die Färbehistorie in der Küche zu wissen.
Chemie und Physik von natürlichen Farbstoffen
Für die Grundlagen der Farbwahrnehmung, begeben wir uns auf eine Reise in die Welt der Atome und Elektronen. In der Atomhülle wird beim Übergang eines Elektrons von einem Energieniveau zum anderen ein Lichtteilchen, ein sogenanntes Photon, abgestrahlt (emittiert). Dieses Teilchen ist gleichzeitig auch eine Lichtwelle, es hat also eine bestimmte Wellenlänge und Frequenz. Sichtbares farbiges Licht besteht aus einem regenbogenfarbenen Spektrum dieser Photonen und entsteht in der äußeren Atomhülle. Dort sind die Wellenlängen der emittierten Lichtwellen genau so lang, dass die Rezeptoren in unseren Augen sie wahrnehmen können. Was das für unsere Farbwahrnehmung bedeutet, soll hier am Beispiel roter Tomaten und oranger Karotten veranschaulicht werden. Die Farbstoffe, die in diesen Gemüsearten enthalten sind – Lycopine in Tomaten und Carotinoide in Karotten – weisen in ihrer chemischen Struktur viele konjugierte Doppelbindungen auf, das heisst, die Kohlenstoff-Doppelbindungen sind durch Kohlenstoff-Einzelbindungen voneinander getrennt. Dabei sind die Elektronen nicht fest gebunden und können sich so frei über das gesamte Molekül bewegen. Die vielen freien Elektronen absorbieren viele Lichtwellen mit unterschiedlichen Wellenlängen – all diese Lichtwellen fehlen bei der Wahrnehmung unserem Auge. Mit der Anordnung ihrer Elektronen absorbieren Carotin oder Lycopin also alle Farben des weißen Sonnenlichts, bis auf für uns sichtbares Orange bzw. Rot. Das gilt übrigens auch für das Grün des Chlorophylls von Blattspinat und andere Pflanzenfarbstoffe. [1,2]
Farbgeber in der Küche von heute: Safran, Dotter und Kurkuma
Viele Naturfarbstoffe können ihre Farbe abgeben und man nutzt sie, um Lebensmittel zu färben. Es gibt Farbstoffe in Pflanzen, die stärker und nachhaltiger färben als andere. Das hat vor allem mit ihrer Löslichkeit und Hitzestabilität zu tun.
Carotinoide für Gelb-Orange
„Safran mach den Kuchen gel“, kennt man aus dem Liedtext von „Backe, backe Kuchen“ – „gel“ ist mittelhochdeutsch und bedeutet gelb [3]. Das teure Gewürz Safran enthält Carotinoide, vor allem Crocin, die dafür verantwortlich sind, dass mit Safran gewürzte Gerichte intensiv goldgelb gefärbt sind [4]. In Karotten ist das Carotinoid beta-Carotin (Provitamin A) für die gelborange Farbe verantwortlich. Carotinoide sind dafür bekannt, dass sie kaum wasser-, dafür aber gut fettlöslich sind. Außerdem bilden sie, wenn sie sich in Retinol (ebenfalls ein Vitamin A) spalten, sogenannte freie Radikale und können sich mit ihren freien Elektronen an andere Strukturen binden und Reaktionen eingehen. Carotinoide sind zudem sehr hitzestabil. Diese Eigenschaften machen sie zu beliebten natürlichen Farbstoffen. Übrigens färben Carotinoide nicht nur Safran und Karotten, sondern auch Dotter gelb. Hühner nehmen Carotinoide über das Futter auf und der Dotter färbt sich daher gelborange.[1] Das wird in der Lebensmittelindustrie ausgenutzt, also aufgepasst: nur weil ein Ei einen schönen gelborangen Dotter hat, ist es noch lange nicht von einem „glücklichen“ Huhn.
Ein bleibender Eindruck: Kurkumin für ein sattes Gelb
Wer schon einmal Kurkuma verwendet hat und es später vom Schneidbrett oder den Händen waschen wollte weiß, wie stark manche Pflanzenfarbstoffe färben. Kurkumin findet sich im Rhizom der Pflanze Kurkuma – man kennt es vor allem von Currymischungen, welchen es ihre gelbe Farbe verleiht. Ebenso findet Kurkumin Verwendung als Lebensmittelzusatzstoff E 100 zur Färbung von Nahrungsmitteln wie beispielweise Margarine, Marmelade oder Senf. Kurkumin ist sehr lichtempfindlich und wird von Laugen destabilisiert, ist aber relativ hitze- und säurestabil, wodurch es seine Farbkraft behält. [5]
Auch früher beliebt: Das Färben von Speisen
Farbenfrohe Gerichte waren schon immer beliebt, in manchen Epochen war die bunte und opulente Darstellung der Speisen besonders wichtig. Dementsprechend sind in barocken Rezeptsammlungen häufig Färbeanweisungen zu finden. Eine kreativ ansprechende und bunte Tafelgestaltung war Statussymbol und optischer Genuss zugleich; und so kamen beispielweise mit Krebsschalen gefärbte Butter oder bunte Fruchtgelees zum Einsatz. Bei besonders wichtigen Ereignissen, wie etwa Hochzeiten oder dem Besuch hoher Gäste, wurde gerne noch eins draufgesetzt, und einzelne Pasteten oder Schautorten wurden vergoldet.
Besonders beliebt waren die Färbemethoden bei Süßspeisen, der Zucker an sich galt zu barocker Zeit als Luxusgut – die Verarbeitung war recht aufwändig und das importierte Rohprodukt sehr teuer. Damals fand speziell geläuterter Zucker oft Verwendung, da sich dieser gut einfärben lässt.
Im Barock war die essbare Farbpallette überschaubar. Die Farben für Süßspeisen und Saucen kamen neben Obst (z.B. wurde Marzipan mit Weichselmus lila-bläulich gefärbt) und Schokolade (die klein geraspelt unter Teig gemischt wurde) vor allem von Pflanzen (wie Rosen, Safran, Spinat). Bei manchen Farbstoffen zweifelte man aber ihre Unbedenklichkeit an. So gibt etwa der Engländer John Murrell am Ende seines Werks rund um Zuckerwerk Auskunft darüber, dass Schüttgelb (aus Wege- bzw. Kreuzdorn hergestellt, teilweise auch mit Alaun bzw. Kaliumaluminiumsulfat versetzt) oder Smalte (Pulver aus mit Kobalt gefärbtem Glas) – beide auch in der Malerei verwendet – zwar zum Verzieren verwendet werden können, aber besser nicht gegessen werden sollten. Gummigutt, ein asiatisches Gummiharz, bewirkt nicht nur eine leuchtend gelbe Farbe, sondern hat ebenso eine stark abführende Wirkung, was die Zuckerbäcker des 18. Jahrhunderts aber nicht davon abgehalten hat, es großzügig in ihren Kreationen zu verwenden. Eine bedeutend toxischere Wirkung wurde durch die Verarbeitung von säurehaltigen Früchten in unverzinnten Kupferschüsseln zur Verstärkung ihrer grünen Farbe hervorgerufen. [6,7]
Tragant – Stabilisator in der Küche von damals und heute
Copyright UB Salzburg
Das Färben von Süßspeisen war im Barock unweigerlich mit der Konstruktion der außergewöhnlichsten Zuckerskulpturen – meist als zentrales Prunkstück auf einer großen Tafel – verbunden. Mehrfärbige Schautorten oder ein Zuckerberg inklusive essbarer Vegetation sowie Zucker-Tierfiguren und Gelee-Flüsse (siehe Abbildung) wurden aus gefärbtem Zucker- oder Mandelteig hergestellt. Stabilität erzielte man beim Zuckerteig, der vom barocken Koch und Kochbuchautor Conrad Hagger auch Pußlteig [8] genannt wird, mit Hilfe des pflanzlichen Bindemittels Tragant, das aus der gleichnamigen krautartigen Pflanze gewonnen wird. Tragant besteht aus Mehrfachzuckern (Polysacchariden), Makromolekülen aus Zuckern und Eiweißen (Proteoglykanen) und Stärke, und wird in wässriger Lösung zu einer klebenden, gelartigen Masse [9]. Man findet heute noch Backrezepte, die dieses Bindemittel verwenden.
Tournesol, Lackmus und Bezette da tingere – Rot in vielen Varianten
In den barocken Rezepten ist oft von Tournesol oder Lackmus die Rede, die genaue Art ist meist nicht näher beschrieben. Dort heißt es an manchen Stellen lediglich „mache Rott mit einen farb“[10] oder „lege rothe Durnisol= Flecklein darzu / so werden sie roth“[11].
Rotvarianten waren bei der Färbetechnik von besonderer Bedeutung. Die verschiedensten Schattierungen, auch ins Blau-Violette, konnten mit Hilfe von Tournesol, Sandel- und Brasilholz sowie (ab dem späten 16. Jahrhundert) den aus Zentralamerika importierten Cochenilleschildläusen gewonnen werden. [7] Lange Zeit dachte man, dass es sich bei den getrockneten Läusen um Samen einer Pflanze handelt, da sie von deren Blättern gesammelt wurden. 1725 wurde erstmals argumentiert, dass der Farbstoff eigentlich aus dem Tierreich stammt. [12] Heute werden Cochenille hin und wieder in Apotheken zur natürlichen Färbung von Ostereiern angeboten. Im Mörser zerkleinert, kann das Pulver im Kochwasser gelöst werden und gibt ein kräftiges Purpur. Diesem Thema widmet sich auch der Hungry for Science Blogartikel zum Thema Ostereierfärben näher.
Rote Färbetücher
Vor allem in Rezepten aus dem deutschsprachigen Raum tauchen die Tournesolarten recht häufig auf. Sie werden aufgrund ihrer Verkaufs- bzw. Anwendungsweise auch Tournesol-Flecken oder Bezette/Pezette (italienisch für Stückchen/Fetzen) genannt. Meist gelangte der Farbstoff nämlich über die italienischen Handelspartner in Form von mit Tournesol bzw. Lackmus eingefärbter Stofffetzen zu uns. Um den Farbstoff daraus zu gewinnen, wurden diese dann in den flüssigen Komponenten der Speise mitgekocht, wodurch sich schlussendlich die Rotfärbung des Gerichts ergab. Laut Johann Krünitz (den Mitbegründer einer der umfangreichsten Enzyklopädien des deutschen Sprachraums), können dabei viele verschiedene Arten und Schattierungen unterschieden werden. Zum Kochen sind es vor allem die levantischen und venezianischen Färbeläppchen, aber auch portugiesische kleine, mit Cochinelle oder Scharlachbeeren gefärbte Baumwollkugeln. Aus Lackmus (Lacca coerulea) können ebenso auch bläuliche Schattierungen erzeugt werden. Diese Variante wurde in kleinen, länglichen bzw. viereckigen oder würfeligen und trockenen Fingerglied-großen Stücken verkauft und in vergangenen Jahrhunderten aus dem Saft des Sonnenblumen-Blaus gewonnen. Der pflanzliche Farbstoff hat allerdings nichts mit unserer gelben Sonnenblume zu tun, sondern stammt von der Krebsblume (in den zeitgenössischen Nachschlagewerken als Croton tinctorium bezeichnet; bot. Chrozophora tinctoria) [13,14,15].
Lackmus als pH-Indikator
Alternativ kann Lackmus aus Moos bzw. Flechten der Gattung Roccella gewonnen werden. Der dazugehörige purpurne Farbstoff trägt auch den Namen Orseille. Heute kennt man Lackmus noch immer als Säure-Basen-Indikator. Diese farbbeeinflussende Eigenschaft war auch den barocken Köchen vertraut, und so konnten die verschiedenen Farbvariationen von blau bis rot, beispielweise durch die Zugabe von Zitronensaft oder basischen Laugensalzen erzielt werden. Verwendet wurde Tournesol auch zum Rotfärben der Rinde einiger Käsesorten, zum Färben des blauen Zuckerpapiers oder zur Verbesserung der Farbe von Weinen. Ob die verwendeten Farbstoffe, die aus den Stoffstücken gelöst wurden, gesundheitsschädigende Auswirkungen hatten, dessen war man sich nicht sicher. Krünitz empfahl allerdings, auf den Verzehr derlei nachgefärbter Weine zu verzichten und gab auch gleich einen Tipp, wie darauf getestet werden kann: „Die Proben, den durch Tournesol gefärbten Wein zu entdecken, sind: durch ein feuerbeständiges Alkali wird solcher purpurblau, durch ein flüchtiges Laugen=Salz ganz blau, durch Kalk=Wasser und Bley=Zucker weißlich“ [12]. Die pH-Abhängigkeit von Tournesol oder Lackmus wurde später beim „Lackmustest“ ausgenutzt – übrigens heutzutage noch eine Metapher für einen Prüfstein bzw. eine Entscheidung mit urteilendem Charakter [16].
Fazit
Das Reich der Farben in der Küche ist vielfältig – nicht zuletzt, weil das Auge mitisst, haben Menschen schon immer gerne bunte Speisen verzehrt. In der Opulenz vergangener Epochen wurden oft Farbstoffe für die Färbung von Lebensmitteln eigesetzt, die man heute nur noch in der Malerei oder Materialchemie verwendet. Einige Evergreens wie Safran, Kurkuma oder Tomaten haben sich jedoch gehalten und werden immer noch gerne zum Färben von Speisen eingesetzt.
Verwenden Sie selbst auch ungewöhnliche Farbstoffe für Ihre Gerichte und Mehlspeisen? Oder haben Sie darüber in alten Kochbüchern gelesen? Dann kontaktieren Sie doch unsere Gastredakteurin Marlene Ernst vom Zentrum für Gastrosophie – Fachbereich Geschichte der Paris Lodron Universität Salzburg. Sie beschäftigt sich wissenschaftlich mit historischen Rezepten und freut sich über Ihre Beiträge! Marlene.Ernst@sbg.ac.at
Quellen
[1] Vilgis Thomas, Die Molekül-Küche, Physik und Chemie des feinen Geschmacks, Hirzel Verlag, 2013, 9. korr. Auflage, 53-55, ISBN 978-3-7776-2330-6
Denken Sie bei Margarine an Butterersatz? Kennen Sie Personen, die sich vegan ernähren? Bestaunen Sie öfters das wachsende Sortiment an veganen Würstchen, Lupinen-Eis, Tofu-Steak oder Saitlingen im Supermarkt? Und was denken Sie über diese Produkte? Die bESSERwisser haben versucht, mehr über Ersatzprodukte für tierische Lebensmittel herauszufinden und auch darüber, worum diese bei Tisch so viel Konfliktstoff bieten.
Not oder Tugend?
Ersatzprodukte für Fleisch, Milch oder Eier waren zum einen hauptsächlich in Notzeiten in Verwendung. Zum anderen gab es religiös bedingte und nicht unbedingt billige Ersatzprodukte für die Fastenzeit, wie zum Beispiel Fisch oder Mandelmilch.
Erst mit dem Aufkommen der Lebensmittelindustrie im 19. Jahrhundert wurden Ersatzprodukte auf industrieller Basis in großen Mengen hergestellt. Bereits Mitte des vorletzten Jahrhunderts gab es Fabriken für Fleischextrakt, dem Vorläufer der heutigen Suppenwürfel. Dieser verbreitete sich sehr rasch, bot er doch nicht nur eine billige, sondern auch eine sehr schnelle Möglichkeit, an eine warme Suppe heranzukommen, noch dazu ohne einen hohen Energieverbrauch am Herd.
Etwas später wurde die Margarine erfunden, anfangs auf Rindertalgbasis. Ab der um 1900 erfundenen Fetthärtung konnten auch alle Öle dafür verwendet werden. Sogar rein pflanzliche Reformmargarine für Vegetarier wird schon seit damals produziert. Während nämlich die ärmeren Schichten sich teure tierische Produkte wie Fleisch, Ei oder Butter gar nicht leisten konnten, entstand gleichzeitig im Mittelstand eine vegetarische Gegenbewegung zur dominanten Fleischkultur des Bürgertums. Diese Reformer lehnten Fleisch vehement ab und setzten dafür auf viel Obst und Gemüse, häufig auch in Form von Rohkost. Bei den Zeitgenossen fanden die frühen Vegetarier wenig Verständnis für ihre Lebensweise, ganz besonders, wenn sie auch auf Lederschuhe, Korsetts und andere Bekleidungsstücke mit tierischen Teilen verzichteten.
Braucht der Mensch tierische Produkte?
Nicht nur Vegetarier beschäftigte die Frage, ob man tierische Produkte wie Milch oder Eier für eine gesunde Ernährung braucht. Im 19. Jahrhundert entstand die moderne Ernährungslehre, die sich mit Kalorienverbrauch, Eiweißbedarf und teilweise auch mit fragwürdigen Ernährungsexperimenten an Menschen beschäftigte. Carl von Voit, einer deren Begründer, hielt einen hohen Fleischkonsum für unerlässlich für die Gesundheit und ging davon aus, dass ein Mann mindestens 100 g reines Eiweiß (Protein) pro Tag benötige. Damit blieb er ganz den Gepflogenheiten der Wohlhabenden seiner Zeit (Mitte des 19. Jahrhundert) verbunden, die mehrmals täglich Fleisch und andere tierische Produkte zu sich nahmen.
Dagegen wandte sich später der dänische Physiologe Hindhede, der viel Pflanzenkost empfahl und versuchte, den minimalsten Proteinkonsum zu ermitteln, bei dem ein Mensch noch gesund bleibt. Berühmt wurde er vor allem dafür, dass Dänemark durch seine konsequent umgesetzten Empfehlungen im ersten Weltkrieg vor einer Hungersnot bewahrt wurde. Dafür wurde der Tierbestand drastisch reduziert, um ausreichend Nahrung für alle Bürger produzieren zu können.
Proteine sind ein wichtiger Nahrungsbestandteil, sie liefern uns unter anderem die essentiellen Aminosäuren, die der Körper nicht selbst erzeugen kann. Dabei kommt es nicht nur auf den reinen Proteingehalt eines Nahrungsmittels an, sondern auch darauf, wie gut es vom Menschen verwertet werden kann. Tierische Nahrungsquellen wie Fleisch, Milch und Eier enthalten alle für uns essentiellen Aminosäuren, wobei Ei am besten verwertet werden kann, da der Körper Eiweiß aus dem Ei besonders gut in körpereigene Proteine umbauen kann. Pflanzliche Proteinquellen müssen meist kombiniert werden, um eine vollständige Versorgung mit allen wichtigen Aminosäuren zu erhalten – zum Beispiel Hülsenfrüchte mit Getreide.
Aber wieviel Protein brauchen wir? Und welchen Ursprungs? Manche Staaten wie die USA oder Kanada geben ganz konkrete Empfehlungen für Erwachsene (0,8 g pro kg Körpergewicht pro Tag) ab [1], andere, wie die meisten europäischen Staaten, stellen das optimale Verhältnis der Nahrungsbestandteile zueinander in den Mittelpunkt ihrer Ernährungspyramiden. In Industrieländern wie Australien werden zumeist nicht nur zu viel Kalorien, sondern auch ein zu hoher Anteil an Proteinen konsumiert [2].
Wissenschaftliche Studien belegen, dass es nicht gesund ist, überwiegend tierisches Eiweiß auf dem Speiseplan zu haben [1] oder wie eine holländische Studie zeigte auch Ältere über 65 Jahren von einem höheren Proteinanteil in der Nahrung gesundheitlich profitieren[3]. Ein zu hoher Proteinkonsum aus tierischen Nahrungsquellen wird in Zusammenhang mit Sterblichkeit im Bereich der Herzkreislauferkrankungen unter 65 Jahren gebracht [4].
Pflanzliche Alternativen
Das globales Bevölkerungswachstum und der Klimawandel tragen dazu bei, dass vermehrt nach Alternativen zu ineffizienten und klimaschädlichen tierischen Proteinen gesucht wird – schließlich werden bis zu 15 kg Pflanzenmaterial benötigt, um 1 kg Fleisch zu erzeugen [5].
Neueren Erkenntnissen zufolge ist pflanzliches Protein wesentlich gesünder als tierisches und zudem meistens ökologisch weniger bedenklich. Deshalb wird allgemein empfohlen, einen Teil des Eiweißbedarfs durch pflanzliche Quellen zu decken. In den Industrieländern sind derzeit Soja und Weizen die (industriell) am häufigsten verwendeten pflanzlichen Proteinlieferanten, welche aber teilweise nicht vertragen oder auch aus anderen Gründen abgelehnt werden. Soja liefert zwar ein sehr hochwertiges Protein für Menschen, wird in Europa aber zum größten Teil importiert und häufig unter ökologisch und menschenrechtlich sehr fragwürdigen Umständen produziert. [5]
Deshalb wird auf Grund des zunehmenden Bedarfs vermehrt auf Kichererbsen, Linsen oder Lupinen ausgewichen. Neue Quellen werden zu erschließen versucht, wie zum Beispiel Rapssamen, Algen, Wasserlinsen und Protein aus Abfallprodukten wie Ölkuchen und Kleie. Auch Insekten als tierische Proteinlieferanten sind im Kommen. Für alle Produkte, die unter die Novel Food –Verordnung der EU fallen, kann die Zulassung allerdings recht lange dauern. [5,6,7]
Ein Generationenkonflikt
Der erste Weltkrieg brachte erst die Rationierung der Lebensmittel mit sich und bald eine große Hungersnot. Immer mehr fragwürdige chemische Ersatzprodukte wurden produziert, vor allem auf Hefe-, Stärke- und Rübenbasis. Danach folgten für den Großteil der Bevölkerung magere Jahre, bis zum nächsten Weltkrieg und den nächsten Hungerjahren. Die vegetarische Bewegung war unpopulärer denn je – und generell alle Ersatzprodukte. Nach der „Fresswelle“ der 1950iger und 60iger Jahre erstarkte der Vegetarismus wieder und wird in den letzten Jahren oft durch den Veganismus (Verzicht auf alle tierischen Produkte) abgelöst. In einigen europäischen Ländern wie zum Beispiel Deutschland, Österreich, Italien und Großbritannien bekennen sich rund 10 Prozent der Bevölkerung bereits zu einer fleischlosen Ernährung, ebenso in Kanada, Australien oder Israel. [5]
Angesichts der Erfahrungen der Großelterngeneration ist es verständlich, dass diese sich nicht für neue Ernährungstrends erwärmen kann. Freiwillig wieder Hülsenfrüchte beziehungsweise vegane Wurst- und Fleischprodukte zu verwenden oder auf das lange vermisste Fleisch und tierisches Fett zu verzichten, kommt für sie oft nicht in Frage. Mögen vegane Margarine oder Kokosfett heute teurer sein als Butter, ändert das nichts an dieser Ablehnung.
Tierische Eiweißlieferanten erzeugen zweifellos ein ökologisches Problem, andererseits haben Tiere auch wichtige Funktionen, wie zum Beispiel das Abweiden von Almen, Festigen von Dünen, natürliche Düngung usw. Es ist eher die Massenproduktion an tierischen Lebensmitteln, die Probleme schafft. Auch eine vegane Lebensweise basiert oft auf ökologisch zerstörerischer Massenproduktion, Lebensmittelindustrie und Vertreibung von Indigenen. Eine vernünftige Ernährung mit wenig tierischen und vielen lokalen Produkten schneidet ökologisch nicht unbedingt schlechter ab als eine ganz ohne tierische Produkte. [8, 9]
Was ist für Sie ein Arme-Leute-Essen? Kartoffeln? Brotsuppe? Oder ein Big Mac? Und welchen Luxus können Sie sich nur selten in Ihrer Küche erlauben? Die bESSERwisser haben einen Streifzug durch die Geschichte der mitteleuropäischen Ernährung unternommen und die Entwicklung einiger Nahrungsmittel verfolgt. Die Ergebnisse der Recherche sind in zwei Blogbeiträgen zusammengefasst, hier der zweite Teil.
Gemüse und Obst: vom Oben und Unten
Hätten Sie gedacht, dass es einen großen Unterschied machen kann, ob die essbaren Teile einer Pflanze ober- oder unterirdisch wachsen? Im Mittelalter galt jedenfalls: unterirdische Knollen und Wurzeln wie Zwiebeln, Pastinaken oder Rüben waren nur als Viehfutter oder für die niedrigen Stände geeignet, keinesfalls für Adelige und den Klerus. Kräuter und Sträucher standen dazwischen, die Früchte von Bäumen waren (mit Ausnahme von Kastanien) nur der Elite zugedacht. Frisches Obst war ein reines Luxusgut, getrocknetes (gedörrtes) Obst wurde für den Winter konserviert. Ebenso galten alle schwerverdaulichen Pflanzen wie Kohl oder Bohnen als nur geeignet für hart arbeitende Landleute.
Wurde im Mittelalter vorerst noch wenig Obst und Gemüse gegessen, so kam in der Neuzeit feines Gemüse beim Adel groß in Mode. Junge Erbsen oder Radieschen genauso wie Erdbeeren wurden zum neuen Statussymbol. Ein Jahrhundert später wurde es zudem immer wichtiger, diese Genüsse auch jederzeit, also außerhalb der Saison, verspeisen zu können. Die Zeit der großen Glashäuser brach an – hier wurden auch die beliebten Zitrusfrüchte gezogen. Während außersaisonale oder exotische Früchte lange Zeit ein Privileg der Reichsten blieben, können wir seit den letzten Jahrzehnten Erdbeeren oder Mangos, Avocados oder Zucchini das ganze Jahr über kaufen.
Nahrungsmittel aus Amerika: Kartoffeln und Mais
Mit der Entdeckung Amerikas im Jahr 1492 durch Christoph Kolumbus ging auch die Einfuhr von Obst, Gemüse und Fleisch aus der Neuen Welt nach Europa einher. Es kam zu einer ersten Globalisierung des Essens. So etwa brachte der Entdecker Kartoffel, Tomaten, Kakaobohnen und Mais vom neuen Kontinent mit, um nur ein paar Beispiele des neuen Reichtums zu nennen. Das Misstrauen gegenüber Mais und Kartoffeln war anfangs groß, was auch damit zusammenhing, dass man daraus kein Brot machen konnte.
Mais, das „amerikanische Korn“
Mit den Entdeckungsreisen von Kolumbus fanden die Kulturpflanzen Amerikas den Weg nach Europa und in den Orient. Mais wurde in Spanien und Italien bald auf Feldern angebaut, und binnen weniger Jahrzehnte gelangte das „amerikanische Korn“ von ganz Südeuropa bis in die Türkei. In Gegenden mit mildem Klima (Ungarn, Norditalien, Rheintal) wurde er schon im 16. und 17. Jahrhundert angebaut, da er mehr als zehnmal so hohe Erträge wie Getreide lieferte. Im 18. Jahrhundert gab es dann schon Sorten, die auch in kälteren Gefilden wuchsen. Erst als die Grundherren die Pflanze in Monokultur anbauen ließen, führte das zu einer furchtbaren Fehlernährung der Armen (Pellagra), die von Mais als alleinigem Nahrungsmittel hervorgerufen wird.
Kartoffelanbau nach Hungersnöten
Der Kartoffelanbau setzte sich erst nach mehreren Hungersnöten im 18. Jahrhundert durch, vor allem in den weniger fruchtbaren Regionen und bei den ganz Armen, den Kleinhäuslern und Tagelöhnern. Im heutigen Österreich wurde die ertragreiche Kartoffel erst während der Hungersnot nach den Napoleonischen Kriegen zu Beginn des 19. Jahrhunderts wirklich populär. Trotzdem blieben die reichen und fruchtbaren Regionen überwiegend beim Getreide, zum Beispiel Ungarn, Bayern oder Teile Böhmens, Nieder- und Oberösterreichs. Dort wurden Kartoffeln als Schweinefutter angebaut, was Schweinefleisch billiger und wieder beliebter machte. Wie schon früher Rüben oder Hülsenfrüchte, so galten auch Kartoffeln als ungesund und nur für die Armen geeignet. In den Städten setzten sie sich erst spät durch, was man auch gut an der Entwicklung der Wiener Küche sieht.
Generell ersetzten Mais und Kartoffeln bald andere Nahrungsmittel wie Gerste, Buchweizen, Rüben, Pastinaken und andere Wurzelfrüchte.
Zucker: Von der Apothekerware zur Volksdroge
Zucker als Medizin
Der Zuckeranbau in Europa wurde von den Arabern in Sizilien und Spanien eingeführt. In der arabischen und mittelalterlichen Medizin galt Zucker als Heilmittel, weshalb er in Apotheken verkauft wurde – auch zu entsprechenden Preisen. Ab dem späten Mittelalter verlangte der europäische Adel immer mehr nach Zucker, weshalb er unter Einsatz von afrikanischen Sklaven in Plantagen in den soeben kolonialisierten Gebieten in der Karibik und Südamerika angebaut wurde. Der Hochadel schwelgte geradezu im neuen Luxusgut. Zucker wurde nicht nur gegessen oder zum Süßen der neuen kolonialen Getränke wie heiße Schokolade verwendet, sondern vor allem auch als Tischdekoration eingesetzt. Aus Zucker bzw. Marzipan wurden große Kunstwerke wie Landschaften, Schlösser und Figuren gefertigt, die den Status des Hausherrn demonstrieren sollten. Der Zuckerkonsum war so exzessiv, dass der europäische Hochadel bald an schwarzen oder fehlenden Zähnen litt.
Zucker als Massenware
Rasch verbreitete sich der Zuckerkonsum auch beim wohlhabenden Bürgertum. Nicht nur Torten, Marzipan und süßes Gebäck, sondern auch Fisch oder Fleisch in Zuckersoßen wurden gegessen. Das neue bürgerliche Modegetränk Kaffee wurde ebenfalls damit gesüßt.
Mitte des 18. Jahrhunderts entstanden in der Donaumonarchie die ersten Zuckerfabriken, die den „Kolonialzucker“ verarbeiteten. Zur Massenware wurde Zucker erst durch seine Gewinnung aus Rüben zu Beginn des 19. Jahrhunderts. Böhmen war ein Hauptzentrum der Zuckerindustrie und exportierte das weiße Gut nach ganz Europa. In den Städten wuchs der Zuckerkonsum rasant an, während der Verbrauch auf dem Land gering war.
Besonders in der Hauptstadt Wien war der Zuckerverbrauch um das 4- bis 8-fache höher als im Rest der Monarchie, das „süße“ Wiener Mädel wurde zum Begriff. Bereits ab Mitte des 19. Jahrhunderts fand sich Zucker in städtischen Arbeiterhaushalten, verstärkt ab dem frühen 20. Jahrhundert. Zucker galt anfangs vor allem als Droge der Arbeiterinnen in den Fabriken, bald auch als deren Fleischsubstitut, da er wesentlich billiger als tierische Kalorien war. Erst durch den Preisverfall und die Verbreitung des Zuckers etablierte sich die Böhmische und Wiener Mehlspeisküche mit Gerichten wie Milchrahmstrudel, Buchteln, Germknödeln usw. Übrigens war in den 1920er-Jahren der Zuckerverbrauch fast gleich hoch wie später wieder in den 1960er-Jahren.
Wurde bis vor wenigen Jahrzehnten der weiße Zucker noch als besonders rein geschätzt, so wird heute wieder brauner Zucker bevorzugt. Während dereinst der „unreine“ Honig zunehmend zu Gunsten von weißem Zucker abgelehnt wurde, gilt ersterer heute wieder als „natürlicher“ und besser als der „chemische“ Zucker.
Junkfood für die Armen?
Und wie ist das mit dem Arme-Leute-Essen heutzutage? Süßes ist immer noch sehr billig, auch wenn heute meist Glukose-Fructose-Sirup aus Mais anstelle von Zucker zum Einsatz kommt. Obst und Gemüse, egal ob saisonal oder nicht, sind für den durchschnittlichen Geldbeutel ebenso erschwinglich wie Fleisch und Fisch. Wo es allerding heutzutage richtig teuer werden kann: Bio-Produkte – egal welcher Kategorie – frischer Fisch und Superfood sind meist nur für finanziell besser Gestellte erschwinglich. Junk Food ist im Gegensatz dazu extrem billig und für jeden leistbar.
Fazit: Eine gesunde und ausgewogene Ernährung sollte heute für jeden Geldbeutel möglich sein, die gesunde Bio-Variante bleibt aber vorerst (noch) den Besserverdienern vorbehalten.
Quellen:
Montanari, Massimo: Der Hunger und der Überfluß. Kulturgeschichte der Ernährung in Europa. München 1999 (Beck’scheReihe)
Schwendter, Rolf: Arme Essen – Reiche speisen. Neuere Sozialgeschichte der zentraleuropäischen Gastronomie. Wien 1995
Sandgruber, Roman: Bittersüße Genüsse. Kulturgeschichte der Genußmittel. Wien 1986
„Das ist das Salz in der Suppe“ oder „Geh dahin, wo der Pfeffer wächst!“- das beliebte Duo Salz und Pfeffer hat es nicht nur auf unseren Esstisch, sondern auch in unseren Sprachgebrauch geschafft. In der kulinarischen Landschaft des Westens ist die Kombination gar nicht mehr wegzudenken – aber wieso haben wir ausgerechnet Salz und Pfeffer zu unseren präferierten Gewürzen auserkoren, und nicht etwa Salz und Kümmel oder Pfeffer und Senfkörner? Für die Antwort zu dieser Frage mussten die bESSERwisser ihre Nasen tief in die Geschichtsbücher stecken und weit zurückblicken…
Salz – Das weiße Gold
„Der Mensch kann ohne Gold, aber nicht ohne Salz leben“, schrieb der römische Staatsmann Cassiodor schon vor mehr als 1500 Jahren. Damit hatte er Recht – der Mensch braucht Salz zum Überleben. In Urzeiten wurde der lebensnotwendige Salzgehalt vor allem durch die stark fleischhaltige Ernährung gedeckt, später begann man mit der gezielten Gewinnung des Gutes.
Der menschliche Körper enthält 150 bis 300 Gramm Speisesalz und braucht mehrere Gramm pro Tag, um den Salzverlust, verursacht durch Schweiß und Ausscheidungen, auszugleichen. Der Mineralstoff spielt eine wichtige Rolle für den körpereigenen Wasserhaushalt, das Nervensystem, den Knochenaufbau und die Verdauung. Die Aufnahme von Salz wird außerdem mit einer Dopaminausschüttung belohnt.
Salz ist in vielen Rezepten enthalten – egal ob in Süßem, Saurem, oder Deftigem, zumindest eine Prise Salz gehört meistens dazu. Im Einzelhandel wird meist raffiniertes, gereinigtes Salz angeboten, dem je nach Verwendungszweck noch weitere Zutaten wie Kräuter beigemengt werden. Salz kann den Geschmack eines Gerichtes verstärken oder hemmen – bitterer Geschmack wird abgeschwächt, während die Geschmackswahrnehumung von umami oder süß durch Salz verstärkt wird.
Wie landete das Salz auf unserem Tisch?
Durch den Handel mit Salz gelangten viele Städte zu Reichtum. Rom wurde etwa direkt an einem Salzhandelsweg erbaut. Die Römer und Griechen verwendeten ausschließlich Meersalz, das sie mithilfe eigens angelegter Salzgärten gewannen. Sie leiteten Meerwasser in die künstlichen Becken, und Dank Sonne und Wind verdunstete das Wasser. Auf dem ausgetrockneten Boden blieb festes Salz zurück. Die Gewinnung war sehr aufwendig, weshalb Salz, ebenso wie Pfeffer, als teures Gut angesehen wurde.
Auch die Habsburger erkannten früh, dass man mit Salz viel Geld verdienen konnte. Gegen Ende des 13. Jahrhunderts geriet der österreichische Landstrich Salzkammergut in die Hände der Habsburger, und deren Aufstieg als eine der führenden politischen Kräfte der nächsten Jahrhunderte begann. Schnell erschufen sie sich ein Salzmonopol, das ihre wichtigste Einnahmequelle wurde, und verdrängten alle potentiellen oder existierenden Konkurrenten vom Markt.
In der Geschichte spielte Salz eine wichtige Rolle: Das Mineral war für unzählige geschichtliche Entwicklungen und Ereignisse verantwortlich, unter anderem der Erbauung des Erie Kanals, der französischen Revolution und der indischen Kolonialisierung durch Großbritannien sowie den Freiheitskampf Indiens.
Auch in der Literatur hat Salz seinen Platz gefunden: In Shakespeares “King Lear” fragt der König seine Tochter, wie sehr sie ihn liebe. Sie antwortet, dass sie ihn so sehr liebt, wie Fleisch die Prise Salz, die darauf gestreut wird. Der König ist beleidigt, verstößt seine Töchter und erkennt erst dann: Ein Essen ohne Salz wäre langweilig und nicht wünschenswert.
Die Bedeutung von Salz und dort angesiedelten Städten kann man auch heute noch in vielen Orts- und Stadtbezeichnungen hören, die etwa Salz- oder Hall- beinhalten – so etwa auch Hallstatt, Salzburg oder das Salzkammergut. Im Englischen findet sich das Salz in Ortsbezeichnungen mit –wich wieder, etwa Norwich in England.
Pfeffer – Der römische Schatz
Pfeffer ist eines der beliebtesten Gewürze überhaupt. Die Früchte des Pfefferstrauchs sind je nach Zeitpunkt der Ernte grün, schwarz, weiß oder rot. Die Pfefferpflanze stammt ursprünglich aus Indien, im Speziellen von der Malabarküste. Von dort breitete sie sich in Richtung Südostasien aus. Heute werden etwa 200.000 Tonnen Pfeffer pro Jahr produziert.
Wie landete der Pfeffer auf unserem Tisch?
Zu Zeiten der Römer, als Gewürze neben Speisen noch als Medizin verwendet wurden, erlangte vor allem der lange Pfeffer große Popularität. Alexander der Große gilt als der Erste, der (langen) Pfeffer aus Indien nach Europa brachte. Die Beliebtheit des teuren, langen Pfeffers in der römischen Oberschicht schürte ein Verlangen nach dem Gewürz in der schlechter verdienenden Bevölkerung – weshalb der billigere, schwarze Pfeffer schnell zu großer Beliebtheit kam.
Plötzlich war das Gewürz überall – Berichten nach zufolge sollen die Römer den Pfeffer sogar auf ihrem gesüßten Eis genossen haben. Pfeffer wurde sogar mit Gold gleichgesetzt: Die Soldaten der römischen Armee wurden mit Pfefferkörnern bezahlt, und in Verhandlungen wurde Pfeffer gegen Gold aufgewogen. Da die Nachfrage der Römer nach dem Gewürz so groß war, wurde eine Handelsroute bis nach Malabar, der „Pfefferküste“ Indiens, gezogen, über die die Römer den Pfeffer beziehen konnten. Dieser eignete sich getrocknet und dank seiner langen Haltbarkeit ideal für die langen See- und Landreisen. Mit diesem Handelsabkommen geriet auch der bis heute in Europa gängigste schwarze Pfeffer zu uns. Obwohl er bis ins späte 17. Jahrhundert beliebt war, gilt der lange Pfeffer heute als exotisches Gewürz und ist im typischen Lebensmitteleinzelhandel nur schwer auffindbar.
Im Mittelalter, als die Standards von Konservierung noch nicht weit fortgeschritten waren, wurde Pfeffer oft zum Aufbessern der schlechten Lebensmittel verwendet. Egal ob es an der allgemeinen Qualität oder der überanspruchten Haltbarkeit des Essens lag, der schlechte Geschmack und Geruch wurden vom Pfeffer gekonnt übertüncht. Pfeffriger Geschmack kam demzufolge in Verruf, und mit dem Aufkommen von Zucker hätte er seinen heutigen Status beinahe nie erhalten – wenn nicht König Ludwig der XIV. gewesen wäre. Dieser bevorzugte das scharfe Gewürz, und basierend auf dieser Vorliebe entwickelte sich die französische Küche rund um das bis heute beliebte Duo Salz und Pfeffer. Diese gastronomische Eigenheit wurde dann von anderen Landesküchen aufgenommen – ihre Popularität hält bis heute an.
Übrigens steht Pfeffer in seiner geschichtlichen Bedeutung dem Salz nichts nach: Die Stellung Venedigs als wichtiger Handelshafen, die Entdeckungsfahrten von Christoph Kolumbus und Vasco da Gama und der rege Gewürzhandel des Mittelalters basierten auf dem Wunsch, schneller und einfacher an das beliebte Gewürz zu gelangen.
Fazit
Da Salz ein überlebenswichtiger Mineralstoff ist, hat er sich seinen Platz auf unseren Tischen und in unseren Gerichten redlich verdient. Pfeffer selbst scheint vor allem aus jahrhunderterlanger Gewohnheit so prominent in unseren Küchen vertreten zu sein.
Was meinen Sie, liebe Leserinnen und Leser – verdient der Pfeffer seinen Platz im vielleicht beliebtesten kulinarischen Duo der Welt? Wenn nein, welche Zutat sollte an seine Stelle treten?
Literatur
[1] Franco V., Oparil S.: Salt sensitivity, a determinant of blood pressure, cardiovascular disease and survival (2006). In: Journal of the American College of Nutrition. 25/3
[2] Kurlansky, M.: Salz. Der Stoff, der die Welt veränderte (2002). Claasen, München.
[3] Liedtke, W: Relation of addiction genes to hypothalamic gene changes subserving genesis and gratification of a classic instinct, sodium appetite (2011). In: Proceedings of the National Academy of Sciences of the United States of America, doi:10.1073/pnas.1109199108
[4] „Salz war das wichtigste Fernhandelsgut im Altertum und Mittelalter“, www.alte-salzstrasse.de, Abgerufen am 19.09.17
[5] „The story of pepper“, www.history.com, Abgerufen am 19.09.17
Was ist für Sie ein Arme-Leute-Essen? Kartoffeln? Brotsuppe? Oder ein Big Mac? Und welchen Luxus können Sie sich nur selten in Ihrer Küche erlauben? Die bESSERwisser haben einen Streifzug durch die Geschichte der mitteleuropäischen Ernährung unternommen und die Entwicklung einiger Nahrungsmittel verfolgt. Die Ergebnisse der Recherche sind in zwei Blogbeiträgen zusammengefasst, hier der erste Teil.
Das Korn des Lebens
Getreidebrei bzw. Brot war die meiste Zeit über das Grundnahrungsmittel der armen Bevölkerung. Im frühen Mittelalter galt Brot noch als Luxusprodukt, während der Getreidebrei alltäglich war. Bald setzte sich Brot für alle durch, allerdings nicht überall. In ärmeren ländlichen Regionen blieb das Essen von Brei bis weit ins 19. Jahrhundert verbreitet, zum Beispiel in den Alpen. Für Brei waren weder ein Backofen noch Brennmaterial und auch kein Geld für den Müller nötig.
Weißbrot gegen Schwarzbrot
Der anspruchsvolle und früher wenig ertragreiche Weizen blieb lange Zeit das Getreide für die Wohlhabenden, das „Schwarzbrot“ aus Roggen, Gerste, Hafer und anderen Getreidesorten war für die gewöhnlichen Leute. In Mittel- und Osteuropa dominierte der Roggen mit Ausnahme der Schweiz, die Dinkel bevorzugte. Nicht nur der Adel, auch die Bürger in den aufstrebenden Städten bevorzugten das feine weiße Brot. Erst im 18. Jahrhundert, als es große Engpässe in der Nahrungsmittelversorgung gab, setzte sich in den Städten bei den wohlhabenden Bürgern ein helles Mischbrot aus Weizen und Roggen bzw. Dinkel durch, das heute noch in Mitteleuropa sehr beliebt ist. Der Mittelstand musste ein dunkles Mischbrot essen und bei den Armen war Schwarzbrot und Suppe das einzig verfügbare Essen. Wenn Hungersnot herrschte, wurde das Brot mit allem gestreckt, was zur Verfügung stand: Kastanien, gemahlene Hülsenfrüchte, Rinde usw.
Auch frisches Brot galt als reiner Luxus, der überwiegende Teil der Bevölkerung musste sich mit altbackenem Brot zufrieden geben. Brot war so dominant in der Ernährung der armen Bevölkerungsschichten, dass es bald als typisches „Arme-Leute-Essen“ galt. In der Neuzeit lieferte es in etwa drei Viertel der Kalorien der einfachen Leute. In Versorgungseinrichtungen (wie Armenhäusern) rechnete man mit einem Verbrauch von über 1 kg Brot pro Kopf und Tag.
Fleisch und Fett: von großen Mengen zu den feinsten Stücken
Das Mittelalter war auch für die Armen eine relativ fleischreiche Zeit, da es Gemeinschafts-Weideflächen und Rechte am Wald gab, die von allen genutzt werden durften. Es wurden vor allem Schweine und Gänse gehalten. Da über den Winter nicht genügend Nahrung für das Vieh vorhanden war, wurde im Spätherbst der Großteil der Tiere geschlachtet und konserviert.
Das gepökelte oder geräucherte Fleisch und das Schmalz waren lange haltbar. Das Federvieh war Zahlungsmittel und Festtagsschmaus. Vielleicht denken Sie daran, wenn Sie im November eine traditionelle Martinigans verzehren. Und der Luxus? Das war frisches Fleisch, besonders Wild, das nur der Hochadel jagen durfte.
Als noch während des späten Mittelalters sukzessive die Waldnutzungsrechte und später die Gemeinschaftsweiden verschwanden, musste sich der Großteil der Bevölkerung auf weitgehend vegetarische Ernährung umstellen. Nachdem der „Schwarze Tod“ ganze Regionen entvölkert hatte, wurden die freien Flächen für die Rinder- und Schafzucht verwendet. Die Tiere landeten auf den Tellern der städtischen Bevölkerung: Rindfleisch für die wohlhabenden Bürger, Schaffleisch für die weniger Wohlhabenden, Füße und andere weniger begehrte Fleischteile für die Ärmeren. Und für die ganz Armen gab es Brot. Der Adel bevorzugte nach wie vor Wild, nun allerdings vor allem „feines“ wie Vögel (Fasan usw.). Großwild kam nicht mehr ganz, sondern filetiert auf den Tisch.
Fleischkosum
Der Fleischkonsum blieb in den Städten hoch, wobei immer das ganze Tier verarbeitet wurde. Noch um 1900 dominierte bei den Bessergestellten das Rindfleisch, am Land dagegen bei wohlhabenden Bauern das Schweinefleisch. Durch die Einführung der Kartoffel war günstiges Schweinefutter vorhanden, was der Schweinezucht Aufschwung verlieh.
Für die neue Arbeiterschicht war Rindfleisch zu teuer, Schweinefleisch bzw. Wurst kam zumindest gelegentlich auf den Teller, aber nur auf den des Haushaltsvorstandes. Frauen und Kinder mussten zusehen und Beilagen essen. Erst durch die Massentierhaltung ab der Mitte des 20. Jahrhunderts wurde Fleisch für alle verfügbar, gleichzeitig wurde nicht mehr das ganze Tier gegessen, sondern nur mehr die besten Stücke.
Tierische und Pflanzliche Fette
Während im Mittelalter das importierte Olivenöl nur für die Reichen Bedeutung erlangte, mussten die anderen in der Fastenzeit (Verbot tierischer Lebensmittel) Lein- oder Haselnussöl verwenden. In den Städten war auch das Mohnöl beliebt. Heutzutage sind Lein- Mohn- oder Haselnussöl teure Luxuswaren, während Olivenöl (zumindest jenes von geringerer Qualität) relativ billig ist. Butter wurde erst mit der vermehrten Rinderzucht in der Neuzeit gebräuchlicher und war den Wohlhabenden vorbehalten. Während im Mittelalter die Reichen ihr Fleisch noch stark gewürzt, aber ohne fette Soßen verzehrten, setzten sich in der Neuzeit fette Buttersoßen durch. Für Arme gab es den Talg der Rinder oder Schafe und erst nach dem verbreiteten Kartoffelanbau ab dem Ende des 18. Jahrhundert wieder Schweineschmalz. Im 19. Jahrhundert tauchten auch erstmals industrielle Ersatzprodukte wie Margarine auf.
Möchten Sie mehr über Arme-Leute-Essen und Luxusspeisen wissen? Am 15.11.17 erscheint der zweite Blogartikel zu diesem Thema, mit Informationen über die Entwicklung von Obst und Gemüse als Nahrungsmitteln, den Kartoffel und Mais „Boom“ sowie die Zuckerrevolution.
Kennen Sie auch interessante geschichtliche Entwicklungen von Nahrungsmitteln? Dann lassen Sie uns doch teilhaben!
Quellen
Montanari, Massimo: Der Hunger und der Überfluß. Kulturgeschichte der Ernährung in Europa. München 1999 (Beck’scheReihe)
Schwendter, Rolf: Arme Essen – Reiche speisen. Neuere Sozialgeschichte der zentraleuropäischen Gastronomie. Wien 1995
Jeder Hobbybäcker kennt es: Man schlägt Eiklar auf, es wird trotz langem Rühren nicht fest und man muss von neuem beginnen. Die Verwendung von Eischnee ist bei uns Gang und Gebe – aber wie wird Eischnee überhaupt fest? Und warum muss das Eiklar rein bleiben? Die bESSERwisser forschten nach…
Was passiert beim Aufschlagen von Eischnee?
Eiklar besteht zu 90% aus Wasser und zu 10% aus Proteinen. Die Proteine im Eiklar sind entweder hydrophob (wasserabstoßend) oder hydrophil (wasserliebend), was ihnen eine grenzflächenaktive Eigenschaft gibt. Während des Aufschlagens werden unzählige Luftbläschen in das flüssige Eiklar gebracht. Diese sind zunächst groß und instabil, und werden, je länger man schlägt, immer kleiner und stabiler. Weitere Luft wird dann kaum mehr zugeführt.
Durch das Schlagen werden die Proteinfäden, die normalerweise kugelförmig aufgerollt sind, entrollt, wodurch sie neue Bindungen eingehen können. Infolge dessen binden sie sich mit ihren Nachbarproteinen und bilden ein Netz. Die Proteinmoleküle lagern sich bevorzugt in der Grenzfläche zwischen Luft und Wasser an. Damit umgrenzen sie die anliegenden Luftbläschen und stabilisieren diese, was die Konsistenz des Schaums ausmacht. [1]
Eischnee ist fertig aufgeschlagen, wenn er fest am Schneebesen haftet und man die Schüssel mit dem Eischnee umdrehen kann, ohne dass dieser zerrinnt. Doch: Wenn man das Eiweiß zu lange schlägt besteht die Gefahr, dass sich das Wasser von den Proteinen abspaltet und der Eischnee „perlt“, also sich in einen festen und einen flüssigen Teil trennt. [2]
Warum muss das Eiklar rein sein?
Diese Situation hat jeder Hobbykoch schon erlebt: Der Eischnee steht nicht oder nicht ordentlich. Das passiert, wenn das Eiklar verunreinigt wurde – etwa durch Fette oder Spuren von Eigelb.
Eigelb enthält grenzflächenaktive Moleküle, Emulgatoren, die sich an die Proteine des Eiklars anlagern und damit die Vernetzung verhindern. Fette, etwa die im Eigelb, verbinden sich zudem mit den hydrophoben Teilen der Proteine, was die Umhüllung der Luftbläschen stört. [3]
Wenn der Eischnee schon steif geschlagen ist, kann man Fett und Eigelb problemlos zugeben, da sich das Netzwerk aus Proteinen im Eischnee schon fertig gebildet hat. Das ist allerdings sehr empfindlich, weshalb man weitere Zutaten vorsichtig unterheben sollte.
Alternatives Backen – gibt es veganen Eischnee?
Seit kurzem ist unter veganen Bäckern Aquafaba ein großes Thema. Die Bezeichnung Aquafaba steht für das Koch- oder Einweichwasser von Hülsenfrüchten wie Bohnen und Kichererbsen. Es besteht aus Kohlenhydraten, Proteinen und anderen Pflanzenstoffen, die sich von den Hülsenfrüchten beim Einlegen oder Kochen gelöst haben. Da es sich ähnlich wie Eiweiß verhält, wird es gerade bei Rezepten mit Eischnee oft als Ersatzprodukt verwendet. Empfohlen wird, als Ersatz zwei Esslöffel Aquafaba (etwa 30 Gramm) statt jedem Ei zu verwenden. Die Herstellung funktioniert wie bei der traditionellen Herangehensweise mit Ei, da das pflanzliche Eiweiß im Wasser ebenso reagiert wie das tierische im Ei. Aquafaba kann unter anderem für Baiser oder Marshmallows verwendet werden.
Fazit
Auch hinter scheinbar komplizierten Abläufen in der Küche versteckt sich eine einfache Erklärung. Gerade die Entstehung von Eischnee wirft für einige ein Rätsel auf – aber für die bESSERwisser ist auch das zu lösen.
Mehr von den bESSERwissern
Mit Themen rund ums Ei haben wir uns schon öfter beschäftigt: „Eierfärben mit Naturfarben“ (https://www.openscience.or.at/hungryforscienceblog/eierfaerben-mit-naturfarben/ ), „Sind Eier Cholesterinbomben?“ (https://www.openscience.or.at/hungryforscienceblog/eier-cholesterin/)
Und auch andere Fragen rund ums Kochen und Backen konnten wir bereits klären: „Warum weinen wir beim Zwiebelschneiden?“ (https://www.openscience.or.at/hungryforscienceblog/warum-weinen-wir-beim-zwiebelschneiden/) oder „Warum entsteht Haut auf der Milch?“ (https://www.openscience.or.at/hungryforscienceblog/warum-entsteht-haut-auf-der-milch/)
Ist Ihnen auch schon einmal ein Kuchen zusammengefallen? Obwohl Sie die Backofentüre nicht zu früh geöffnet haben? Haben Sie sich genau ans Rezept gehalten? Die bESSERwisser sind in die Chemie und Physik des Backens eingetaucht und haben entdeckt, wie kompliziert das Kuchenbacken eigentlich ist.
Kuchenbacken: eine „Wissenschaft“ für sich
Kuchen bestehen im Wesentlichen aus Mehl, Eiern, Zucker und Fett. Während des Backens (also unter Hitzezufuhr) vergrößert sich das Volumen des Teiges, bilden sich Kohlendioxid-Bläschen, verdampft Flüssigkeit, verkleistert die Stärke und denaturiert (gerinnt) das Protein (Eiweiß). Die einzelnen Bestandteile Fett, Flüssigkeit, Protein, Zucker und Stärke reagieren alle miteinander. Dadurch wird auch verständlich, warum man sich ziemlich genau an das Rezept halten muss, da jede Veränderung einer Zutat die Reaktionen anders ablaufen lässt und so zu unerwünschten Ergebnissen führen kann.
Mehl: bildet das Gerüst
Beginnen wir einmal mit einer der Grundzutaten eines Gebäcks, dem Mehl. Das üblicherweise zum Kuchenbacken verwendete Mehl wird aus Weichweizen (auch Brotweizen genannt) gewonnen. Es enthält nur einen geringen Protein-Anteil, aber der hat es in sich. Es handelt sich dabei überwiegend um Gluten (auch Klebereiweiß genannt). Gluten gibt dem Teig Elastizität und bildet mit der Stärke des Mehls das Gerüst des Kuchens. Stärke quillt unter Hitzeeinfluss und nimmt dabei ein Vielfaches ihres Eigengewichts an Flüssigkeit auf. Sie verkleistert schließlich zu einer Gelatine-ähnlichen Masse, die dem Kuchen Festigkeit verleiht [1].
Personen mit einer Gluten-Unverträglichkeit kämpfen beim Backen mit unelastischen Teigen und „krümeligen“ Ergebnissen. Gluten-freie Backmischungen enthalten meist Stärke, Gluten-freies Mehl und entweder proteinreiches Mehl aus Hülsenfrüchten oder Verdickungsmittel. Generell gilt: Wird eine andere Mehlsorte als im Rezept angegeben verwendet (zum Beispiel Dinkelvollkornmehl statt Kuchenmehl), muss auch die Menge an Flüssigkeit (Eier zählen auch dazu) angepasst werden. In Kuchen ganz ohne Mehl übernehmen die gemahlenen Nüsse die Funktion des Gerüstbildens.
Gluten
Gluten ist ein Protein, das in manchen Getreidesorten vorkommt. Besonderes jenes in Weizen hat eine große Bedeutung für Backwaren. Weizengluten besteht chemisch aus zwei Untergruppen, den Gliadinen und den Gluteninen. Beide bestehen wiederum aus mehreren Komponenten, auf die hier nicht näher eingegangen werden soll.
Gliadine sind überwiegend monomer (nur eine Untergruppe ist polymer) und verbinden sich entweder untereinander oder unter Mitwirkung von Wasser mit Gluteninen. Glutenine sind Polymere und bilden große und komplexe Makromoleküle. Ein optimales Verhältnis der beiden ist wichtig, da sie sich nicht nur verbinden, sondern sich auch gegenseitig bremsen: zum Beispiel bei der Dehnbarkeit (Gliadine) und der Elastizität (Glutenine).
In Verbindung mit Wasser (Flüssigkeit) bildet Gluten das Teiggerüst bei Brot und Gebäck. Gluten kann beim Quellen das Zwei- bis Dreifache seines Eigengewichts an Wasser aufnehmen. Eigentlich ist Gluten hydrophob (wasserabweisend), löst sich aber beim Kneten oder Rühren in der Flüssigkeit. Dabei falten sich die Proteine auseinander und verbinden sich untereinander sowie mit der Stärke. Gluten hat eine hohe Elastizität und Viskosität. Dadurch kann sich der Teig dehnen, aber auch die Kohlendioxid-Bläschen halten. Das dreidimensionale Gluten-Netzwerk, das sich bei der Teigzubereitung bildet, ist nicht stabil. Zu langes Rühren oder Kneten zerstört es, der Teig fließt wieder auseinander (Depolymerisation). Erst während des Backens wird das Netzwerk stabil, die Glutenine verbinden sich nun beständig und verlieren ihre Elastizität. Bei zunehmender Backdauer verliert das Gluten an Wichtigkeit für die Stabilität des Kuchens, die Stärke-Gelierung spielt nun die entscheidende Rolle [2].
Eier: sorgen nicht nur für Luftigkeit
Protein (Eiweiß) ist nicht nur im Mehl enthalten, in Kuchen stammt es vorwiegend von den Eiern. Während des Backens bilden Proteine neue Mokekül-Verbindungen und sind somit wesentlich für die Struktur des Kuchens. Bei der Teigzubereitung binden die Eier viel Luft, die den Kuchen locker macht. Sie liefern Flüssigkeit, damit die Stärke quellen kann und zudem Fette. In manchen Rezepten werden Eier teilweise durch Milchproteine ersetzt, z.B. durch Milch, Joghurt, Sauerrahm.
Eier sollten nicht direkt aus dem Kühlschrank, sondern bereits zimmerwarm sein, wenn Sie sie zu Teig verarbeiten. Der Teig wird mit warmen Eiern fester. Manche Rezepte verlangen ein Trennen der Eier in Dotter und Eiweiß (geschlagen zu Schnee), andere nicht. Das hängt zunächst von der Art des Teiges ab (Biskuit, Rührteig usw.). Wichtig ist auch, ob zusätzlich chemische Backtriebmittel eingesetzt werden. Schlussendlich macht es einen Unterschied, ob ein Teig von Hand, mit einem normalen Mixer oder mit einer Küchenmaschine gerührt wird.
Ein klassisches Biskuit zum Beispiel sollte nur durch die eingeschlagene Luft (sehr schaumiges Dotter-Zuckergemisch und unzählige Luftbläschen enthaltender Schnee) aufgehen und keine zusätzliches Backtriebmittel benötigen. Da Eischnee sehr rasch wieder zusammenfällt, muss er sofort untergehoben und der Teig gleich gebacken werden.
Zucker und Fett: ersetzbar?
Zucker
Ernährungswissenschaftlerinnen warnen, dass unser Zuckerkonsum zu hoch ist. Kann Zucker also ersetzt oder reduziert werden? Neben dem süßen Geschmack hat er noch andere Funktionen beim Backen. Zucker bindet Flüssigkeit, und reagiert mit den Stärkeketten und den Proteinen. Dabei erhöht Zucker die Temperatur, die für die Verkleisterung der Stärke und die Denaturierung der Proteine notwendig ist. Das trägt zur Stabilisierung des Kuchens bei. [1]. In vielen Teigen kann Zucker relativ gut um die Hälfte reduziert beziehungsweise durch Süßstoffe ersetzt werden. Wenn Sie ausschließlich mit Süßstoffen backen möchten, empfiehlt es sich, auf extra dafür geeignete Rezepte zurückzugreifen, da der Kuchen sonst zu wenig locker ausfallen wird. [3]
Fett
Fett ist nicht nur ein Geschmackträger. Bei Mürbteig oder Blätterteig spielt es eine wichtige Rolle. Hefeteig oder Biskuit dagegen können auch ohne zusätzliches Fett gelingen.
Fett ist hydrophob (Flüssigkeit abstoßend), während Stärke hydrophil (flüssigkeitsliebend) ist. Umgibt Fett in einem Teig die Stärke, kann diese nicht mehr stark quellen, da das Fett die Flüssigkeit fernhält. Zum Beispiel im Mürbteig steht nur der geringe Wasseranteil der Butter der Stärke zum Quellen zur Verfügung, und somit können sich die Stärkemoleküle nicht verbinden und bleiben isoliert voneinander. Nur die Butter hält den Teig zusammen, der Teig bleibt brüchig und geht nur wenig auf.
Auch im Blätterteig verhindert das Fett das Vernetzen der einzelnen Schichten miteinander. Beim Backen verdampft das Wasser und treibt die einzelnen Schichten auseinander, da das Fett verhindert, dass der Dampf durch die Teigblätter hindurchgeht.
Backtriebmittel: geringe Menge, große Wirkung
Zum Aufgehen braucht ein Teig viel Luft beziehungsweise Kohlendioxidbläschen. Man kann die Luft einschlagen – zum Beispiel in Form von schaumigem Eischnee. Man kann auch sogenannte Backtriebmittel verwenden, wie Hefe, Backpulver oder Natron.
Hefepilze verstoffwechseln Zucker und wandeln ihn in Alkohol und Kohlendioxid um. Beides lockert den Teig. Da die Pilze sehr viel davon freisetzen, wird Hefeteig auch ohne Ei luftig und locker. Wesentlich schneller als mit Hefe geht das Backen mit chemischen Backtriebmitteln.
Natron (kurz für Natriumhydrogencarbonat) ist nur geeignet für Teige mit säurehaltigen Zutaten wie zum Beispiel Zitronensäure oder Joghurt. Die Natriumcarbonate werden durch den Kontakt mit Säuren abgebaut, wobei Kohlendioxid frei wird.
Backpulver besteht im Wesentlichen aus Natron und einem Säureregulator, ist also für alle Teige geeignet. Diese Regulatoren entscheiden, ob das Backpulver für Biokost geeignet ist oder nicht: gewöhnliches, billiges Backpulver enthält Phosphate, für Bio-Backpulver dürfen nur Tartrate (Weinstein, Weinsäure) eingesetzt werden.
Durch Feuchtigkeit reagiert Backpulver und setzt Kohlenstoffdioxid als kleine Gasbläschen frei. Deshalb muss Backpulver trocken aufbewahrt werden, und Backpulver-Teig muss sofort ins Backrohr. Dort verstärkt sich durch die Hitze die Produktion der Bläschen, sie dehnen sich aus und lockern den Kuchen. Ein Zuviel an Backpulver oder Natron führt dazu, dass der Teig zu schnell aufgeht und danach zusammenfällt, weil sich zu viele bzw. zu große Bläschen bilden, die vom noch nicht vollständig aufgebauten Gerüst des Kuchens nicht gehalten werden können.
Tipps für den perfekten Kuchen
Kuchenteig darf nicht zu viel gerührt werden, es sollten nur alle Zutaten gut miteinander verbunden sein. Gerade bei der Verwendung einer Küchenmaschine kann es passieren, dass ein Teig zu viel gerührt wird. Mehl darf nur kurz untergerührt oder untergehoben werden, da sonst die Gluten-Polymere zerstört werden. Der Teig kann im Rohr dann die Gasbläschen nicht halten und der Kuchen fällt zusammen.
Das Backen eines Kuchens funktioniert von außen nach innen, die Mitte wird also als letztes durchgebacken. Deshalb muss bei der Stäbchenprobe immer in die Mitte des Kuchens gestochen werden. Geht der Kuchen in der Mitte mehr auf als am Rand, ist vermutlich die Backtemperatur zu hoch: weil der Rand schon fest ist, kann der Kuchen nur noch in der Mitte aufgehen. Ältere Rezeptangaben beziehen sich zum Beispiel auf Ober-/Unterhitze, da Umluft noch nicht bekannt war. Soll der Kuchen mit Umluft gebacken werden, muss die angegebene Temperatur reduziert werden. Backöfen heizen zudem nicht immer genau bis zur gewählten Temperatur. Mittels eines geeigneten Thermometers kann die Temperatur überprüft und entsprechned angepasst werden.
Klebt der Kuchen nach dem Backen in der Form fest? Lassen ihn etwas rasten, dann umwickeln Sie die Form mit einem nassen und kalten Geschirrtuch. Durch das rasche Abkühlen löst sich der Kuchen.
Hätten Sie‘s gewusst? Kuchenrezepte funktionieren im Gebirge nicht!
Bereits ab 1000 Meter über dem Meeresspiegel ist die Luft weniger dicht, der Luftdruck und die Luftfeuchtigkeit geringer – Wasser kocht z.B. bereits bei weniger als 100 Grad. Dies muss alles auch beim Kuchenbacken beachtet werden, ganz besonders in Hochlagen über 1500 m Seehöhe. Teig braucht der zunehmenden Höhe entsprechend mehr Flüssigkeit/Ei, weniger Zucker und Fett und deutlich weniger Backpulver (wegen des niedrigeren Luftdrucks). So wie sich die Kochdauer in dieser Höhe verlängert, muss auch Kuchen entweder länger oder alternativ bei höheren Temperaturen gebacken werden. [4]
[3] Gao, J., Brennan, M. A., Mason, S. L. und Brennan, C. S.: Effect of sugar replacement with stevianna and inulin on the texture and predictive glycaemic response of muffins. Int J Food Sci Technol (2016), 51, p. 1979–1987. doi:10.1111/ijfs.13143
[4] Es gibt leider kaum deutschsprachige Tabellen, aber jede Menge englischsprachige, zum Beispiel hier. Tabellen zum Umrechnen von ft in m sind ebenfalls im Internet zu finden.
Es gibt viele Ernährungstrends. Manche kommen, manche gehen. Und einige bleiben. So war es vor längerer Zeit die asiatische Küche mit ihren vielseitigen Curries, die in Österreich Fuß fasste. Wenig später kam der Boom der Juice Bars, der sich auch halten konnte. Seit einigen Jahren ist auch das Suppenessen bei uns wieder in Mode gekommen. Mitverantwortlich dafür ist in Wien sicherlich auch Andrea Scholdan, die mit Suppito im Jahr 2007 die erste Wiener Suppenmanufaktur im sechsten Bezirk eröffnete. Die bESSERwisser haben Andrea Scholdan im Suppito getroffen und sie zu ihrem gewagten Jobwechsel, ihren Produkten und ihrer Konservierungsmethode befragt. Hier ein kurzer Bericht darüber.
Bild: Open Science – Lebenswissenschaften im Dialog, CC BY-NC-SA
Aroma-Feuerwerk und gute Stimmung
Beim Betreten des kleinen Gassenlokals ist gleich einmal eines im wahrsten Sinne des Wortes „atemberaubend“: der betörende Duft. Zuerst sind die verschiedenen Nuancen noch schwierig einzuordnen, aber nach und nach lässt sich zumindest eine Curry-Mischung aus der Vielfalt der Duftaromen erkennen. Am großen Herd stehen zwei Köche, die gut gelaunt nebeneinander Gemüse schneiden. Es wird gerade Tom Ka Gai, eine thailändische Hühner-Kokossuppe, zubereitet. Die Stimmung ist gut, alles wirkt sehr entspannt. Eine Mitarbeiterin schwirrt herum, und schon ist auch Frau Scholdan da und begrüßt uns herzlich. Unser erster Eindruck ist positiv: eine Frau, die nur so vor Energie sprüht, mit ihren MitarbeiterInnen scherzt und gerne lacht. Wir nehmen im Suppito Platz und plaudern mit Frau Scholdan.
Suppe, Sugos und Süßes vom Feinsten
40.000 Liter Suppe und Eintöpfe pro Jahr kocht Andrea Scholdan mit ihren Köchen. Sie bietet Suppen, Sugos und Süßes zum Abholen oder mit Lieferservice an. „Für all jene, die selbst keine Zeit zum Kochen haben“, wie sie sagt. Alle Gerichte werden nach der 5-Elemente- Lehre mit heimischen und überwiegend biologischen Zutaten zubereitet, sind laktose- und glutenfrei und enthalten keine Konservierungsstoffe. Der Erfolg gibt der Medizinerin, die ihre Berufung zum Kochen erst in der zweiten Lebenshälfte entdeckt hat, recht: Die Manufaktur gibt es seit fast 10 Jahren und erfreut sich großer Beliebtheit.
Bild: Open Science – Lebenswissenschaften im Dialog, CC BY-NC-SA
Zum Kochen im großen Stil gelangte Scholdan über Umwege. Ursprünglich hatte sie Medizin studiert und war als Fachärztin für Urologin tätig. Bis zu dem Zeitpunkt, als starke Magen-Darm-Probleme sie zum Umdenken zwangen. Sie setzte sich verstärkt mit der 5-Elemente-Ernährungslehre der Traditionellen Chinesischen Medizin auseinander, denn „so konnte es einfach nicht weitergehen“. Die darauf folgende Ernährungsumstellung, bei der warm gekochte Speisen die zentrale Rolle spielen, brachte rasch Genesung. Andrea Scholdan war dadurch so begeistert, dass sie die Medizin an den Nagel hing und sich zur 5 Elemente-Ernährungsberaterin ausbilden ließ. Dadurch motiviert, begann sie Freunde und Familie nach dieser Lehre zu bekochen. Weitere Erfahrung sammelte sie in den Küchen der Starköchinnen Lisl Wagner-Bacher und Kim Sohyi, bevor sie sich im Jahr 2007 mit einer Freundin selbständig machte und das „Suppito“ eröffnete.
Bild: Open Science – Lebenswissenschaften im Dialog, CC BY-NC-SA
Kochen nach der 5-Elemente-Lehre
Bei dieser Ernährungsform spielen die 5 Elemente der Traditionellen Chinesischen Medizin (TCM) eine wichtige Rolle. Diese stehen für verschiedene Geschmäcker: Holzelement (sauer), Feuerelement (bitter), Erdelement (süß), Metallelement (scharf) und Wasserelement (salzig). Jedes Nahrungsmittel hat bestimmte geschmackliche, thermische und energetische Eigenschaften, die für bestimmte Organe im Körper wichtig sind und einem der fünf Elemente zugeordnet werden. Entsprechend der Jahreszeit und körperlichen Verfassung sollte man täglich Speisen aus allen 5 Elementen zu sich nehmen. Um alle Elemente abzudecken, kommen in die Suppen von „Suppito“ oft Ingwer, Algen, Zitronenschale und -saft mit hinein. Auch Yin und Yang spielen eine wichtige Rolle denn durch die richtige Auswahl der Zutaten können Hitze oder Kälte im Körper ausgeglichen werden. Auch die richtige Kombination an belebenden oder beruhigenden Zutaten kann Gesundheit und Wohlbefinden fördern.
Die Grundprodukte sollten möglichst frisch, regional und saisonal sein. Generell sollte möglichst alles gekocht werden und Rohkost nur in der warmen Jahreszeit und in kleinen Mengen gegessen werden. Viele Gewürze und frische Kräuter werden verwendet, Tiefkühlkost, Mikrowelle und industriell behandelte Lebensmittel jedoch vermieden. Und: „Es ist wichtig, mit Ruhe und Liebe zu kochen und mit Genuss zu essen“, so Scholdan.
Für die bessere Bekömmlichkeit sollte man zum Beispiel Folgendes beachten: Getreide und Hülsenfrüchte immer waschen und in kaltem Wasser einweichen. Hülsenfrüchte immer ohne Deckel kochen, den Schaum abschöpfen. Das Kochwasser immer weggießen. Reis wird in einem Topf so lange gewaschen, bis er nicht mehr schäumt.
Gläser im Wasserbad, Bild: Open Science – Lebenswissenschaften im Dialog, CC BY-NC-SA
Was für uns überraschend war: Die gute alte Hühnersuppe, bei uns die Wunderwaffe gegen grippale Infekte und Verkühlungen, ist in der Traditionellen Chinesischen Medizin während dieser Krankheit verpönt. Dort heißt es nämlich, dass diese Kraftsuppe auch Bakterien und Viren stärkt, weshalb sie im Krankheitsfall nicht empfohlen wird. Perfekt ist sie als Vorbeugung oder nach der Krankheit als Kräftigungsmittel.
Konservieren ohne Chemie
Die Haltbarkeit der Suppen und Gerichte von Suppito beträgt 4 Wochen bei basischen Gerichten. Pikantes und Saures ist sogar bis zu 15 Wochen und länger haltbar. Und all das ohne jeglichen Zusatz von chemischen Konservierungsstoffen. Die Suppen und Sugos werden kochend heiß in saubere Schraubgläser abgefüllt, mit Deckel verschlossen und rasch im kalten Wasserbad abgekühlt. Anschließend kommen die Gläser sofort in den Kühlschrank.
Wissenschaftlicher Hintergrund
Es gibt physikalische, thermische, chemische und biologische Konservierungsverfahren, die alle verhindern oder verzögern sollen, dass Lebensmittel verderben.
Zu den physikalischen Methoden zählen salzen, trocknen, zuckern, tiefkühlen, kühlen, vakuumieren, Druckbehandlung und mechanisches Entfernen vom Mikroorganismen.
Thermisch kann man Lebensmittel durch Kochen (Inaktivieren produkteigener Enzyme), Pasteurisieren (Abtöten von Keimen, aber nicht von Sporen bei 70°C bis 100°C) und Sterilisieren (Abtöten von Keimen und Sporen bei über 100°C) haltbar machen.
Bei der chemischen Konservierung kommen chemische Konservierungsstoffe zum Einsatz, die als Zusatz in der Nahrung Mikroorganismen abtöten oder deren Wachstum verhindern.
Biologisches Konservieren macht sich erwünschte Mikroorganismen zunutze (Milchsäuregärung, alkoholische Gärung). Durch deren Wachstum wird die Ausbreitung anderer, unerwünschter Mikroorganismen verhindert.
Wenn Lebensmittel verderben, ist dies auf die Wirkung von Mikroorganismen – Bakterien und Pilzen – zurückzuführen. Diese zersetzen Lebensmittel oft bis zur Ungenießbarkeit. Bei falscher Herstellung oder Lagerung können sich teilweise Keime in Lebensmitteln vermehren, die für Mensch und Tier gefährlich sind. Folgende Mikroorganismen stellen ein Gesundheitsrisiko für Verbraucher – vor allem für kleine Kinder und ältere Menschen – dar und sind als Ursache lebensmittelbedingter Erkrankungen bekannt: Salmonellen, Campylobacter, EHEC (krankheitsauslösende Stämme des Darmbakteriums E.Coli), Staphylokokken, Listerien, Clostridien, Shigellen und Schimmelpilze.
Es gibt aber auch Mikroorganismen, die bei der Lebensmittelproduktion bewusst zum Einsatz kommen und die die Gesundheit nicht schädigen. So werden beispielsweise Milchsäurebakterien zur Herstellung von Joghurt und Hefe Teig sowie bestimmte Schimmelpilze zur Erzeugung von Schimmelkäse verwendet.
Vielleicht haben Sie auch schon davon gelesen oder gehört: Die Erdbevölkerung wächst, und um ein Überleben der menschlichen Rasse auf diesem Planeten zu sichern, muss es ein generelles Umdenken bei der Ernährung geben. Experten raten dringend dazu, in Zukunft weniger Fleisch zu essen und stattdessen auf andere Proteinquellen wie beispielsweise Insekten umzusteigen. Nur so kann laut vielen Wissenschaftlern langfristig genug Nahrung für alle sichergestellt werden. Was ist wahr daran? Müssen bei den nächsten Generationen wirklich Würmer & Co auf den Teller? Die bESSERwisser haben nachgeforscht und berichten von den wissenschaftlichen Grundlagen dieser Thematik.
Weltbevölkerung – Daten und Fakten
Laut der Welternährungsorganisation (Food and Agriculture Organization of the United Nations, FAO) hat die Zahl der Weltbevölkerung einen Wert erreicht, bei dem es bei gleichbleibenden Ernährungsgewohnheiten zu erheblichen Nahrungsmittelengpässen kommen wird. Zum Jahreswechsel 2015/2016 gab es 7,39 Milliarden Menschen auf unserem Planeten [1]. Für das Jahr 2050 prognostiziert die UN eine Weltbevölkerung 9,7 Milliarden Menschen, und für das Jahr 2100 schon etwa 11,2 Milliarden Menschen [2].
Steigender Fleischkonsum
Die Menschheit wächst stetig, und sie isst heute so viel Fleisch wie nie zuvor. Das ist nicht nur in den Industrieländern, sondern auch in den Entwicklungsländern der Fall. Laut einem Bericht der FAO wurden im Jahr 2012 insgesamt 300 Millionen Tonnen Fleisch produziert – das entspricht einem weltweiten pro-Kopf-Konsum von 42,5 Kilogramm pro Jahr [3]. Trotz klarer Unterschiede zwischen Arm und Reich holen auch die ärmeren Länder hier rasch auf: In Entwicklungsländern lag der Fleischkonsum im Jahr 2006 noch bei 30,7 Kilogramm pro Jahr, 2012 waren es mit 32,7 Kilogramm bereits um 7 % mehr.
Fleischproduktion und Umweltzerstörung
Die Herstellung von Fleisch ist mit einem enormen Aufwand verbunden. Die Tiere müssen gezüchtet und untergebracht werden und benötigen große Mengen an Futtermitteln. Diese wiederum werden auf riesigen Ackerflächen angebaut und brauchen entsprechende Bewässerung. So erfordert beispielsweise die Herstellung eines einzigen Kilogramms Schweinefleisch etwa 10.000 Liter Wasser, für einen Kilogramm Rindfleisch werden sogar rund 15.000 Liter benötigt. Diese Daten klingen absurd, wenn man bedenkt, dass gleichzeitig 1,1 Milliarden Menschen auf der Erde keinen Zugang zu sauberem Trinkwasser haben. Auch die CO2-Bilanz der Fleischproduktion sollte zu denken geben: So errechneten japanische Wissenschaftler, dass bei der Rinderhaltung von der Geburt bis zur Schlachtung eines Tieres Gase mit einer Treibhauswirkung von 36 Kilogramm Kohlendioxid freigesetzt werden. Das entspricht in etwa einer dreistündigen Autofahrt, während man zu Hause alle Lichter aufgedreht lässt [4].
Um genügend Weidefläche für die Viehzucht und Ackerfläche für die Futterproduktion zu haben, werden in manchen Ländern wie Argentinien oder Brasilien großflächig Wälder abgeholzt. Die ansässigen Kleinbauern müssen der Großproduktion weichen. Mittlerweile fällt fast ein Drittel der Agrarfläche unserer Erde der Futterproduktion zum Opfer. Da Futtermittel wie Soja aus diesen Ländern auch nach Europa exportiert wird, geht der Fleischkonsum der Europäer hiermit auch auf Kosten dieser Länder. Auch in den Industrieländern wird die Umwelt durch die Fleischproduktion in Mitleidenschaft gezogen: Pflanzenarten sterben aus, das Grundwasser wird mit Unkraut-, Dünge- und Insektenvernichtungsmitteln belastet, und Antibiotika kommen zum Einsatz. Fleischproduktion bedeutet somit auch Umweltzerstörung.
Alternativen zu Fleisch
Aus Gründen der ökologischen Notwendigkeit und zur Lösung des Welthungerproblems wird von Experten dringend eine drastische Verringerung des Fleischkonsums empfohlen. Das bringt die Suche nach alternativen Eiweiß-Quellen mit sich, denn etwa 15 Prozent unserer Nahrung sollten durch Eiweiß abgedeckt werden. Ein Erwachsener benötigt etwa 60 Gramm hochwertiges Eiweiß pro Tag. Heute gibt es bereits mehrere Möglichkeiten, um die Eiweiß-Lücke zu schließen.
Insekten
In manchen Teilen der Welt ist Entomophagie – der Verzehr von Insekten durch den Menschen – schon lange verbreitet. Bereits bei 2 Milliarden Menschen in Afrika, Asien und Lateinamerika stehen Insekten zumindest teilweise am Speiseplan. Bei uns löst oft allein die Vorstellung vom Verzehr von Heuschrecken, Fliegenlarven, Mehlwürmern oder Ähnlichem schon Ekelgefühle aus. Schön langsam jedoch findet auch hierzulande ein Umdenken statt. So werden in Österreich schon seit längerem Insektenkochkurse angeboten und auch von der Bevölkerung angenommen. Und die Heimzucht von Insekten wird bald einfacher: zwei Österreicherinnen haben mit der „Livin Farm“ eine Brutbox für den Eigenanbau von Mehlkäferlarven entwickelt, die es bald am Markt gibt. Insekten werden dabei mit Bioabfall gefüttert und wandeln diesen in hochwertiges Protein um. Auch EU-weit wird der systematisch Einsatz von Insekten als Proteinquelle gefördert: So wird etwa in dem Forschungsprojekt „Poteinsect“ der Einsatz von insektenbasierten Futtermittel untersucht. Auch als Futtermittel für die Tierhaltung werden heute teilweise schon Insekten verwendet.
Weltweit gibt es mindestens 1.400 essbare Insektenarten [5], teilweise ist gar von 1.900 die Rede [6]. Insekten enthalten hochwertiges Eiweiß und liefern außerdem ungesättigte Fettsäuren, Vitamine, Eisen, Magnesium, Zink, Kalzium, Kalium, Phosphor und viele andere Mineralstoffe und Spurenelemente. Im Vergleich zur Viehzucht verbraucht die Insektenzucht weit weniger an Futtermitteln. So ergeben zwei Kilo Futtermittel ein Kilogramm Insekten – im Vergleich dazu müssen bei Rindern acht Kilogramm Futtermasse für ein Kilogramm Körpermasse aufgebracht werden. Insekten können als Ganzes verzehrt werden, alternativ gibt es aber auch Mehl aus gemahlenen Insekten. Als beliebte Insekten gelten beispielsweise Käfer, Raupen, Grashüpfer und Ameisen.
Algen
Mikroalgen wie Chlorella oder Spirulina (Arthrospira) enthalten hochwertiges Eiweiß, mehrfach ungesättigte Fettsäuren und Farbpigmente. Sie zeichnen sich durch schnelles Wachstum und geringen Platzbedarf aus und machen bestehenden Landwirtschaftsflächen keine Konkurrenz. Algen sind als Ganzes und als Extrakt erhältlich und sind vor allem im asiatischen Raum beliebt. Auch bei uns halten sie langsam Einzug. Es gibt allerdings teilweise widersprüchliche Meinungen dazu, ob Algen toxische Stoffe beinhalten [7] oder nicht.
Kunstfleisch („Cultured meat“)
Zellen von Tieren können in vitro vermehrt werden. So gezüchteter Zellbrei konnte als „Fleisch“ geschmacklich zwar bereits überzeugen, ist aber aktuell viel zu teuer in der Herstellung und daher noch nicht am Markt verfügbar.
Hülsenfrüchte
Auch Erbsen, Linsen und Bohnen stellen hervorragende Eiweißlieferanten dar.
Ob sich Insekten, Algen oder ganz andere Alternativen für die Zukunft durchsetzen werden, bleibt offen. Eines ist auf alle Fälle sicher: gernerell weniger Fleisch zu essen und dafür qualitativ hochwertigere und teurere Erzeugnisse zu kaufen ist auch schon ein Schritt in die richtige Richtung. Gutes Gewissen inklusive.
Einen Erfahrungsbericht der bESSERwisser über eine Insektenverkostung finden Sie hier.
Referenzen
[1] Stiftung Weltbevölkerung, abgerufen am 1.1.2016
[2] Stiftung Weltbevölkerung: Korrekturen der Hochrechnungen aus dem Jahr 2013 (2015).
[7] Wagner KH and Siddiqui I.: Die toxischen Inhaltsstoffe der Mikroalge Scenedesmus obliquus (1973). The Science of Nature 60(2):109-110. DOI: 10.1007/BF00610423