Jump to content

Bakhtosh

Members
  • Posts

    163
  • Joined

Posts posted by Bakhtosh

  1. Gendrift

     

     

    Nun ein Thema dazu ...weil es mun mal auch interessiert was da nun richtig oder falsch ist....:confused:

     

    Als Gendrift bezeichnet man in der Populationsgenetik eine zufällige Veränderung der Genfrequenz innerhalb des Genpools einer Population. Gendrift ist ein Evolutionsfaktor. Eine quantitative Erweiterung stellt die Genshift dar, bei der ganze Segmente von Genen zusammen ausgetauscht werden. Dies hat oft besonders ausgeprägte funktional-qualitative Änderungen zur Folge.

     

    Gendrift und Genshift stellen eine Art Komplement zur natürlichen Selektion dar. Die natürliche Selektion hat keinen zufälligen Einfluss auf die Änderung der Genfrequenz einer Population, sondern ist direkt gekoppelt an den Überlebens- und Reproduktionserfolg von Individuen, also deren Angepasstheit an ihre Umwelt.[ Die genetische Drift bzw. Shift dagegen hat keine derartigen Ursachen, sondern ist rein zufallsbestimmt (stochastisch).

     

    Da eine zufällige Änderung der Genfrequenz in kleineren Populationen statistisch mehr ins Gewicht fällt, stellen die Gendrift und Genshift einen wichtigen Faktor der Evolution von Gründerpopulationen und somit für die Artbildung dar. Sie basiert auf der Tatsache, dass eine abgeschnittene Zufallspopulation, die in einem bestimmten Gebiet lebt, nur einen kleinen Ausschnitt der möglichen Genfrequenzen besitzt, die außerdem in einem anderen Verhältnis zueinander stehen als in der Gesamtpopulation. Die evolutionäre Weiterentwicklung dieser Population ist abhängig von diesen verschobenen Genfrequenzen.

     

    Als Flaschenhalseffekt wird eine besondere Art der Gendrift bezeichnet, bei der die Allelfrequenz durch ein zufälliges Ereignis, wie zum Beispiel einen Vulkanausbruch, stark vermindert und somit auch die in der Population vorkommende Variabilität verringert wird. Die Art wird nun den neuen Umweltgegebenheiten angepasst und bildet eine neue Vielfalt von Genen. Die Frequenzen unterscheiden sich dabei meist von der ursprünglich dort lebenden Population.

     

    Genetischer Flaschenhals beim Menschen

     

    Statistische Analysen der mitochondrialen DNA (mtDNA) des Menschen (**** sapiens) haben eine unerwartet geringe genetische Vielfalt ergeben und zur Annahme geführt, dass es vor rund 70.000 bis 80.000 Jahren auch beim Menschen einen genetischen Flaschenhals gegeben haben könnte.[2] Seinerzeit hätten demnach nur etwa 1000 bis 10.000 Individuen von **** sapiens, größtenteils in Afrika, gelebt.

     

    Nach einer umstrittenen Hypothese des Anthropologen Stanley Ambrose (Toba-Katastrophen-Theorie) ist dieser genetische Flaschenhals zurückzuführen auf die Super-Eruption des Vulkans Toba auf Sumatra vor etwa 74.000 Jahren. Dieser Eruption sei eine extreme Kälteperiode gefolgt (vulkanischer Winter), die **** sapiens an den Rand des Aussterbens gebracht habe. Diese Hypothese verbindet zwei widerstreitende Befunde zur genetischen Entwicklung von **** sapiens: Zum einen ist, beginnend in Afrika, eine relativ zügige Ausbreitung des Menschen durch Fossilienfunde belegbar, die sich auch anhand von mitochondrialen Unterschieden nachweisen lässt. Beides kann herangezogen werden zur Erklärung der sehr geringen genetischen Variabilität der heute lebenden Menschen (vergl. mitochondriale Eva und Adam des Y-Chromosoms). Zum anderen besteht die Ansicht, dass nach der ersten Ausbreitung eine regional unterschiedliche, isolierte Entwicklung auftrat, in deren Folge sich das äußere Erscheinungsbild der Menschen zu differenzieren begann, was frühere Anthropologen zur Definition von diversen sogenannten Großrassen und Rassen veranlasste

     

    Gendrift kann auch in größeren panmiktischen Populationen auftreten, nach Aufteilung in kleinere Teilpopulationen. Voraussetzung sind zufällige Veränderung von Genen und Weitergabe der veränderten Gene. Gendrift kann dabei phänotypische Veränderungen bewirken, muss es aber nicht.

     

    Bedeutungserweiterung: Als Gendrift wird auch die Verbreitung solcher Veränderungen in größere Populationen bezeichnet. Heute bezeichnet man als Gendrift auch das Eindringen bewusst oder zufällig veränderter Gene in andere Bereiche.

     

    Genfrequenzen

     

    Aus der Sicht der Populationsgenetik ist die Gendrift ein Wahrscheinlichkeitseffekt. Die Gene, die an die nachfolgende Generation weitergegeben werden, sind keine vollständige Kopie der Gene der erfolgreichen Mitglieder der Elterngeneration. Sie sind eine zufällige (stochastische) Auswahl, eine Stichprobe mit zufälligen Schwankungen. Durch zufällige statistische Schwankungen weicht die Zusammensetzung der Genfrequenz in der Elternpopulation von der in der Kinderpopulation ab. Die Genfrequenzen im Genpool sind gedriftet. Gendrift ist umso stärker bemerkbar, je kleiner eine Population ist. Dies hat statistische Ursachen. Beispiel: Beim Werfen von Münzen erscheint Kopf oder Zahl im Durchschnitt mit der gleichen Wahrscheinlichkeit. Doch bei nur wenigen Würfen ist es unwahrscheinlich, dass Kopf und Zahl exakt mit derselben Häufigkeit erscheinen. Je größer die Zahl der Würfe, desto näher kommt man einem Verhältnis von 50 : 50. Deshalb sind bei kleinen Populationen die Fluktuationen bei den Genfrequenzen größer als bei Populationen mit vielen Individuen (effektive Populationsgröße).

     

    Driftende Allele haben oft eine begrenzte Lebenszeit. Wenn die Häufigkeit eines Allels in den aufeinanderfolgenden Generationen stark zu- oder abnimmt, dann kann ein Allel in der Population ganz verschwinden oder es wird das einzige Allel in der Population (Fixierung). Die genetische Vielfalt wird verringert, der Genpool verarmt.

     

    Gendrift und Genshift gegen natürliche Selektion

     

    Gendrift bzw. Genshift und natürliche Selektion sind Evolutionsfaktoren und wirken gleichzeitig. Durch sie ändert sich die Zusammensetzung des Genpools. Die Häufigkeit von Allelen (Genvariationen) und damit die vorherrschenden phänotypischen Merkmale in einer Population werden über die Zeit geändert. Bei Gendrift und Genshift ist die Veränderung in der Häufigkeit der Allele unabhängig davon, ob sie vorteilhaft oder nachteilig auf den Phänotyp sind. Gendrift ist zufallsbedingt und ist unabhängig von der genetischen Fitness. Im Gegensatz dazu werden bei der natürlichen Selektion diejenigen phänotypischen Merkmale und damit diejenigen Allele bevorzugt, welche die genetische Fitness erhöhen. In großen Populationen, in denen die Gendrift klein ist, wird die natürliche Selektion selbst bei niedrigem Selektionsdruck den größeren Betrag zur Veränderung der Genfrequenzen haben. In kleinen Populationen dagegen werden die größeren statistischen Schwankungen durch die Gendrift die Änderungen durch die Selektion überlagern.

     

    Evolutionsfaktor

     

    Als Evolutionsfaktor bezeichnet man in der Biologie Prozesse, durch die der Genpool – das ist die Gesamtheit aller Genvariationen in einer Population – verändert wird. Eine exakte Definition des Begriffs liefert die Populationsgenetik: Evolutionsfaktoren sind Prozesse, die zu Veränderungen der Allelfrequenzen im Genpool einer Population führen oder Allele auf den Chromosomen neu kombinieren. Nach der Synthetischen Evolutionstheorie sind diese Prozesse Ursache aller evolutionären Veränderungen.

     

    Die wesentlichen Evolutionsfaktoren sind Rekombination, Mutation, Selektion und Gendrift.

    Durch Rekombination, die durch die Meiose bei der Keimzellenbildung und die Kernverschmelzung bei der Befruchtung erfolgt, werden die Erbanlagen der Eltern neu kombiniert, so dass Nachkommen mit individuellen (einzigartigen) Kombinationen von Erbanlagen entstehen. Bei der Rekombination bleiben die relativen Häufigkeiten der Erbanlagen in einer Population unverändert, aber die (insbesondere phänotypische) Variabilität der Individuen in einer Population wird wirksam erhöht. Rekombination findet bei ungeschlechtlicher Fortpflanzung nicht statt und ist auch nicht wirksam zwischen eineiigen Zwillingen, die aus einer gemeinsamen befruchteten Eizelle entstehen.

    Durch Mutationen, spontane Veränderungen der Basensequenzen der DNA, entstehen fortwährend neue Erbanlagen. Findet eine Mutation in einer Zelle statt, aus der später Keimzellen hervorgehen, so wird die veränderte Erbanlage über die befruchtete Eizelle auf die Nachkommen übertragen und verändert damit den Genpool der Population. Die neue Erbanlage führt zu Merkmalsausprägungen, die bisher in der Population nicht vorkamen. Ob es zu einer nachhaltigen Veränderung des Genpools kommt, hängt entscheidend davon ab, wie die Selektion auf die neue Merkmalsausprägung wirkt. Erbanlagen, die zu nachteiligen Merkmalsausprägungen führen, verschwinden wieder aus dem Genpool oder bleiben selten.

     

    Die Selektion ist die natürliche Auslese durch die Umwelt. Eine Voraussetzung für Selektion ist die durch Rekombination und Mutation verursachte Variabilität in einer Population. In den meisten Populationen werden viel mehr Nachkommen erzeugt, als in ihrem Lebensraum überleben können. So sterben viele Individuen einer Generation, bevor sie sich fortpflanzen können, oder bekommen weniger Nachkommen als andere Individuen mit vorteilhafteren Merkmalsausprägungen. Die Individuen leisten also einen unterschiedlichen Beitrag zum Genpool der Folgegeneration. Die relativen Häufigkeiten der Erbanlagen mit günstigen Merkmalsausprägungen nehmen in der Population zu, während die relativen Häufigkeiten der Erbanlagen mit ungünstigen Merkmalsausprägungen abnehmen.

     

    Unter Gendrift versteht man eine zufallsbedingte Änderung des Genpools. Sie ist in kleinen Populationen wirksamer als in großen. So kann zum Beispiel bei einer Naturkatastrophe oder einer Seuche eine Gruppe von Trägern bestimmter Merkmale plötzlich aussterben. Es breitet sich der überlebende Teil der Population mit etwas anderer genetischer Zusammensetzung aus, beim zufälligen Überleben von Individuen mit nachteiligen Erbanlagen breiten sich sogar diese aus. Ein weiteres Beispiel für Gendrift ist die Besiedlung eines neuen Lebensraums durch eine kleine Gründerpopulation. Die neue Population weist die Häufigkeitsverteilung der Erbanlagen der Gründerpopulation auf, die sich zufallsbedingt von der der Stammpopulation unterscheiden.

     

    Evolutionsfaktoren im weiteren Sinne sind auch

    Migration,

    Genfluss,

    Isolation,

    Horizontaler und Vertikaler Gentransfer und

    Hybridisierung.

     

     

     

    Gendrift und Genshift in Populationen

     

    Genshift und Gendrift können tiefgreifende und oft bizarre Auswirkungen auf die Evolutionsgeschichte einer Population haben. Dies kann sogar zum Aussterben einer Population führen. Wenn eine Population auf eine geringe Größe zusammenschrumpft und dann wieder wächst (man nimmt an, dass dies während der menschlichen Evolutionsgeschichte geschehen ist), dann kann die Gendrift zu plötzlichen und dramatischen Änderungen in der Genfrequenz führen, unabhängig von natürlicher Selektion. Bei solchen Gelegenheiten können viele vorteilhafte Anpassungen verloren gehen (genetischer Flaschenhals).

     

    Auf ähnliche Weise kommt der Gründereffekt bei zum Beispiel wandernden Populationen zustande, bei dem nur wenige Individuen mit einer seltenen Allelzusammensetzung den Ausgangspunkt einer neuen Population bilden. Hier können die Genfrequenzen im Widerspruch zur bisherigen natürlichen Selektion stehen. Der Gründereffekt wird manchmal für das gehäufte Auftreten von Erbkrankheiten verantwortlich gemacht.

     

    50/500

     

    Although most research on the subject of effective population size (including the above equations) has been based on an assumption of discrete generations, the case of overlapping generations has also been considered. Hill (1972, 1979), for example, showed that the above equations need only be adjusted for appropriate units in order to hold for the overlapping generation case, so long as population size, sex ratio, and age distribution remain constant. Under less restrictive assumptions, however, the distinction between discrete and overlapping generations can be complicated. Waples and Teel (1990) and Waples (in press) note that the life history of Pacific salmon is a special case that fits neither the discrete generation nor overlapping generation models (the exception being pink salmon, Oncorhynchus gorbuscha, which tends to exhibit discrete generations). In the case of Pacific salmon, the effective number of breeders in any given year (Nb) represents only a portion of the total effective population size. Waples (in press) suggests that multiplying Nb by the average age of reproduction gives a suitable estimate of Ne.

     

    It should also be noted that effective population size can be defined either in terms of the decrease in homozygosity due to common ancestry ("inbreeding effective size") or the random drift in allele frequencies due to sampling variance ("variance effective size"). Crow and Kimura (1970), Ewens (1982), and Crow and Denniston (1988) provide formulae for looking at Ne within these different contexts. In general, distinguishing between the two types of effective size is a complicated exercise, although they converge in the special case where population size is constant.

     

    http://www.nwfsc.noaa.gov/publications/techmemos/tm198/body.html

     

    In 2002, the anthropologist John H. Moore estimated that a population of 150–180 would allow normal reproduction for 60 to 80 generations — equivalent to 2000 years.

     

    Na ja .. hier steht das es unter optimalen Bedingungen funktionieren kann. Also... wenn ca. 200 Menschen für ca. 2000 Jahre reichen, sollten 1000 - 2000 Menschen für ca. 10.000 - mehr Jahre reichen.

     

    Obwohl man unter anderem 10.000 Jahre für eine Grenze der Lebensspanne einer Zivilisation ansieht. :D

     

    MFG

     

    Bak

  2. Hi werjo

     

    paar 1000 oder n paar 100 braucht man nicht mehr retten, da ist vergebene Liebesmühe. Ab 10000 könnte man mal darüber nachdenken. Bei allen Populationsgrößen die darunter liegen ist die Wahrscheinlichkeit, dass sie ohnehin aussterben viel zu groß. Ich weiß nicht wie groß die minimale überlebensfähige Pupulationsgröße beim Menschen ist aber irgendwo im Bereich 1000-10000 sollte sie mindestens liegen. Ich würde eher höher tippen.

     

    Ich kann auch nur schreiben was, irgendwo steht und muss mich darauf verlassen.

     

    http://www.heise.de/tp/artikel/11/11899/1.html

     

    http://www.uni-protokolle.de/Lexikon/Generationenraumschiffe.html

     

    Und vergiss bitte nicht die Mutationsrate beim vererben der Gene. 20 bis 30 neue Mutationen pro Mensch.

     

    Generationsraumschiff / Station

     

    Die Idee einer Raumstation für 10 000 Menschen liegt im Bereich des schon jetzt technisch Möglichen. Zu diesem Schluß kam eine Gruppe von 28 Professoren und Technikern, die das Problem im Auftrag der Stanford University und der Nasa untersuchte.

     

    http://meantimecafe.blogspot.de/2009/10/weltraumkolonienen-visionare.html

     

     

    MFG

     

    Bak

  3. Kernfusionsantrieb

     

    Fusion von Deuterium und Helium-3 liefert Energie von mehreren Hundertmillionen Megajoule pro Kilogramm Brennstoff. Je nach Effizienz des Antriebs könnten damit irgendwann Ausströmgeschwindigkeiten um 5 Prozent der Lichtgeschwindigkeit erreicht werden. Wenn leichte Antriebe gebaut werden können und das Verhältnis von Startgewicht zu Leergewicht des Raumschiffs günstig ist, könnte damit als Endgeschwindigleit etwa 10 Prozent der Lichtgeschwindigkeit erreicht werden. Die Reisezeit zu unserem Nachbarsonnensystem Alpha Centauri (4,4 Lichtjahre) würde dann innerhalb der Spanne eines Menschenlebens liegen.

     

    Schub.

     

    Die Ausström- geschwindigkeiten chemischer Raketenantriebe liegen im Bereich von wenigen km/s. Für Fusionsantriebe werden zurzeit Ausströmgeschwindigkeiten im Bereich von bis zu 1.000 km/s als möglich angesehen bei einem Schub-Gewicht-Verhältnis des Antriebs von etwa 1 zu 1000. (Ein noch wirksamerer Fusionsantrieb wäre mit den heutigen Fusionstechniken auch schwerer.) Mit jedem Gramm Fusionstreibstoff, das pro Sekunde die Antriebsdüse verlässt, würde damit der Schub von 1.000 Newton erzeugt. Zum Vergleich: Um den Schub von etwa 5x7.000.000 Newton zu erzeugen, musste die erste Stufe der Trägerrakete Saturn V, der größten und stärksten bisher von Menschen gebaute Maschine, pro Sekunde etwa 13.400 Kilogramm Treibstoffmasse ausstoßen. Ein Fusionsantrieb könnte den gleichen Schub mit 35 Kilogramm pro Sekunde erzielen.

     

    Die Fusion der beiden Wasserstoffisotope Deuterium und Tritium ist am einfachsten zu erzielen und wird gegenwärtig in Forschungsreaktoren untersucht. Ihr Nachteil ist, dass dabei Neutronen erzeugt werden. Sie sind elektrisch neutral, können daher nicht im Magnetfeld eingeschlossen werden und bombardieren die Wände der Plasmakammer, wodurch sie nach und nach beschädigt und radioaktiv werden. Das Tritium muss außerdem aus Lithium durch Neutronenbeschuss erzeugt werden. Denn es ist kurzlebig radioaktiv ist und kommt daher in der Natur kaum vor.

     

    Die Fusion von Deuterium (D) und Helium-3 (He3) hat diese Nachteile weitgehend nicht. Einige Neutronen werden trotzdem durch nebenher stattfindende D-D-Fusionen erzeugt. Deuterium und Helium-3 verschmelzen etwas schwieriger als Deuterium und Tritium; der Wirkungsquerschnitt der D-He3-Fusion ist etwa 1/10 des Wirkungsquerschnitts der D-T-Fusion. Und: Helium-3 kommt in und auf unserem Planeten praktisch nicht vor, aber: beispielsweise auf dem Mond. Dort wird es vom Sonnenwind abgelagert und kann prinzipiell abgebaut werden.

     

    Der mögliche Aufbau des Fusionsantriebes besteht aus einem großen zylinderförmigen Spulensystem, in der das Plasma magnetisch eingeschlossen wird. Da es eine Temperatur im Bereich von 100 Millionen °C besitzt, darf es mit materiellen Wänden nicht in Berührung kommen. Das Plasma kann beispielsweise durch magnetische Kompression oder Mikrowellenstrahlung auf die Zündtemperatur der Kernfusion aufgeheizt werde. An den Enden des Spulensystems sind weitere Spulen angebracht, die als magnetische Spiegel das Plasma in den Innenraum reflektieren. Der eine Spiegel ist jedoch teildurchlässig, so dass ständig ein Teil des Plasmas als Antriebsstrahl entweichen kann.

     

    Ein weiterer Ansatz geht von dem reifenförmigen Tokamak-Reaktor aus, der eine Öffnung für den Antriebsstrahl besitzt. Mehr zum Thema Tokamak ...

     

    Fusionsantrieb im Experiment. Bei der Nasa wird theoretisch und experimentell die Machbarkeit des Antriebsprinzips untersucht. Das Experiment des gasdynamischen Spiegels beispielsweise besteht aus einer langen, schlanken Spulenanordnung, die die Vakuumkammer mit dem Plasma umgibt. Es soll herausgefunden werden, wie sich das Plasma im Betrieb verhält und wie es stabil gehalten werden kann. Das Foto zeigt einen Ingenieur des Nasa Marshall Space Flight Center, der eine ringförmige Magnetspule begutachtet. Foto: Nasa Marshall Space Flight Center

     

    Ausströmgeschwindigkeit

     

    Überschlagsrechnung: Bei der Fusion von z. B. Deuterium und Helium-3 wird die Energie 18,3 MeV = 2,9x10-12 J frei (1 Joule = 1 Wattsekunde). Sie verleiht den Reaktionsprodukten, 1 Helium-4 + 1 Proton, eine gewisse Geschwindigkeit v. Die Gesamtmasse M der Reaktionsprodukte beträgt etwa 8x10-27 kg. Setzen wir die kinetische Energie ½Mv² gleich der freiwerdenden Energie, folgt v = 27000 km/s. D. h., theoretisch beträgt die Ausströmgeschwindigkeit des Antriebsstrahls etwa 9% der Lichtgeschwindigkeit. Wann das praktisch erreicht wird, bleibt abzuwarten.

     

    Wir rechnen für die Ausströmgeschwindigkeit im Folgenden mit optimistischen 5% Lichtgeschwindigkeit (0,05c) und nehmen an, dass irgendwann der Erfindungsreichtum des Menschen für solch einen Antrieb schwere Magnetspulen überflüssig macht.

     

    Endgeschwindigkeit

     

    Die Endgeschwindigkeit, die das Raumschiff erreichen kann, hängt ab von der Ausströmgeschwindigkeit des Treibstoffs (hier die Reaktionsprodukte) und vom Verhältnis seiner Massen bei Triebwerkszündung und Brennschluss (Massenverhältnis), siehe auch Die Raketengrundgleichung. Prinzipiell sollten daher 10% Lichtgeschwindigkeit (0,1c) mit Fusionsantrieb erreichbar sein.

     

    Weil's Spaß macht: eine interstellare Mission

     

    Treibstoffbedarf

     

    Das Raumschiff mit der Leermasse m=10.000 kg muss den Treibstoff mit der Masse M1 zur Beschleunigung und mit der Masse M2 zur Abbremsung mitführen. Für seine interstellare Reise, beispielsweise zum 4,4 Lichtjahre entfernten Alpha Centauri, soll es im freien Weltraum starten und nicht von der Erdoberfläche. Die Ausströmgeschwindigkeit des Antriebsstrahl setzen wir mit w=5% Lichtgeschwindigkeit (w=0,05c) an (siehe oben).

     

    Das Raumschiff wird mit der Treibstoffmasse M1 von v1=0 auf v2=0,1c beschleunigt. Mit der Treibstoffmasse M2 muss vor der Ankunft noch die Leermasse m (+ verbliebenem Treibstoff) von v2=0,1c auf v1=0 abgebremst werden. Nach der Raketengrundgleichung, Δv=v1-v2=-w ln[(m+M2)/m], ist dafür M2=me2-m=63.891 kg nötig.

     

    Um m+M2 von v1=0 auf v2=0,1c beschleunigen ist wegen Δv=v2-v1=w ln[(m+M1+M2)/(M2+m)] die Treibstoffmasse M1=(M2+m)e2-(M2+m)=472.094 kg nötig.

     

    Die Gesamttreibstoffmasse ist daher M1+M2=535.985 kg.

     

    Zum Vergleich: Treibstoffmasse der Saturn V mit chemischem Antrieb und Start vom Erdboden: 2.530.500 kg.

     

    (Durch Abwerfen des Tanks für die Treibstoffmasse M1 kann der Treibstoffbedarf verringert werden, da entsprechend weniger Masse abgebremst werden muss. Wer allerdings wieder zurück will, sollte den Tank behalten und falls möglich an einem Gasplaneten auftanken.)

     

    Leistungsbedarf

     

    Die Leistung (Energie/Sekunde), die die Triebwerke liefern müssen, hängt davon ab, wie schnell beschleunigt werden soll. Wenn wir innerhalb von 0,5 Jahren von 0 auf 0,1c beschleunigen wollen, müssen wir die Treibstoffmasse M1 innerhalb dieses Zeitraums T durch die Reaktoren jagen und in Schub umsetzen. Der Massendurchsatz ist demnach M1/T=0,03 kg/s. Pro Kilogramm Fusionstreibstoff können etwa 3,4x1014 Ws Energie freigesetzt werden. Die Leistung der Antriebsreaktoren muss daher etwa 1013 W oder 10.000 Gigawatt betragen.

     

    Etwas bescheidener: Wir beschleunigen innerhalb von 10 Jahren auf 0,1c. Dann benötigen wir Antriebsreaktoren mit der Leistung 500 Gigawatt. Zum Vergleich: Für Fusionskraftwerke der Zukunft vom Typ Tokamak oder Stellerator werden als minimale thermische Leistung 30 Gigawatt angesehen (relativ großes Plasmavolumen, um Abstrahlverluste beim Aufheizen klein zu halten). Fusionsantriebe werden sich voraussichtlich einfacher und leichter bauen lassen als Fusionskraftwerke. Denn im Weltraum ist das nötige Vakuum schon vorhanden.

     

    Die Abbremsphase ist deutlich kürzer, da die Masse des Raumschiffs dann schon wesentlich kleiner ist.

     

    Die Überschlagsrechnung zeigt, interstellare Raumfahrt ist selbst mit Fusionsantrieb schwierig, allerdings auch nicht unmöglich. Besser wäre es, wenn man Antimaterie und Materie direkt in Energie umsetzen könnte (siehe Übersichtsartikel Interstellare Raumfahrt). Denn der Energieinhalt des Treibstoffs wäre dann etwa 100 Mal höher als bei der Kernfusion und die Reaktionsprodukte wären im Wesentlichen Strahlung. Die Ausströmgeschwindigkeit w wäre dann die Lichtgeschwindigkeit und der Treibstoffbedarf wesentlich geringer. Die Hauptprobleme: Antimaterie sicher handhaben und die mörderische Strahlung bändigen.

     

    Oder andere Antriebe

     

    http://www.technologyreview.com/computing/23120/

     

    http://www.geek.com/articles/geek-cetera/nasa-engineer-proposes-new-fusion-engine-for-satellites-20110630/

     

     

    wie dem auch sei werjo... wenn es darum geht vielleich ein paar hundert oder tausend Leute zu retten, wenn die völlige Vernichtung droht, halte ich es durchaus für machbar ein Generationsraumschiff zu bauen... muss ja nicht 30 Km lang sein ;)

    In einem Post vorhei stand...das schon ca. 150 - 500 Menschen für eine neue Zivilisation ausreichen würden.

     

    MFG

     

    Bak

  4. Centerpoint Station

     

     

     

    In viele Sci - Fi Filmen haben Raumschiffe künstliche Gravitation. Der Harald hatte ja schon erklärt das Gravitation nur dur eine Masse erreichbar ist und so wiederrum die Raumschiffe ungeheuer schwer würden.

    Man kann Gravitation auch mit Rotation erreichen, da die Fliehkaft einen gegen die Wand drückt.

     

    Technische Daten

     

    Die Station bestand aus einer zentral, zwischen zwei langen, dicken Zylindern gelagerte Kugel. Aufgrund ihres Alters und der bei der Entstehung verfügbaren Technologie war es notwendig, die Station rotieren zu lassen, um Schwerkraft zu erzeugen. Je weiter man sich von der Achse entfernte, desto stärker war die Rotation und führte zu einer höheren Gravitation. Die Zentralkugel allein besaß einen Durchmesser von 100 km. Insgesamt hatte die Station eine Länge von 300 km. Äußerlich gesehen bestand die Station aus gepanzerten Toren und halbkugelförmigen Erhebungen, langen zylindrischen Objekten auf Untersätzen, die wie Zielplattformen aussahen und mit komplizierten Rohr- und Kabelwerken verbunden waren. Es gab in der Centerpoint-Station über 2000 Ebenen, Decks oder Schalen genannt. Als Schale wurden Decks mit einer über 20 Meter hohen Decke bezeichnet. Die Centerpoint-Station war ein Hyperraum-Repulsor, mit dessen Hilfe das Corellia-System erschaffen worden war. Ihre Aufgabe war es, Tunnel durch den Hyperraum zu öffnen und fünf Planeten ins Corellia-System zu bewegen. Lando Calrissian beschrieb ihre Wirkungsweise eher als die eines Traktorstrahls. Außerdem war es möglich, den dazu genutzten Repulsorstrahl so zu verändern, dass er einen Stern zur Explosion brachte. Darüber hinaus konnte Centerpoint Abfang- und Störfelder erzeugen, die das gesamte System umfassten.

     

    Was ist machbar und die Technischen Hindernisse

     

    O’Neill-Kolonien sind hypothetische Weltraumkolonien, die vom Physiker Gerard K. O’Neill vorgeschlagen wurden

     

    Aufbau

     

    Form Kugel oder Zylinder

     

    Länge bis zu 30 km

     

    Durchmesser bis zu 6,5 km

     

    Einwohnerzahl zwischen 100 000 und mehreren Millionen

     

    geschätzte Kosten 100 Milliarden bis 100 Billionen Dollar (alte Schätzung)

     

    Kosten der ISS

     

    Wie viel das Projekt insgesamt kosten wird, ist umstritten. Nachdem die NASA beim Anfangsbetrag von 40 Milliarden US-Dollar diverse Korrekturen nach oben vornehmen musste, gibt sie heute keine neuen Kostenschätzungen mehr heraus. Nach Angaben der ESA werden sich die Gesamtkosten auf etwa 100 Milliarden Euro belaufen. Darin enthalten sind Entwicklung, Aufbau und die ersten zehn Jahre der Nutzung. 8 Milliarden Euro davon entfallen auf die Länder der ESA. 41 Prozent der europäischen Kosten werden von Deutschland getragen. Die Schweiz trägt 2,5 Prozent und Österreich weniger als 0,4 Prozent

     

    Derzeitige kosten um 1 Kg Material in die Umlaufbahn zu bringen breträgt ca. 10.000 $

     

    Kosten einer Mondkolonie

     

    colony supporting 1,000 people would cost ~$4 trillion to develop, $100 billion to deliver, and >$6 billion/year to

    staff and supply. We estimate that an alternative architecture can create this 1,000 person lunar colony for a

    development cost of ~$2 billion, transportation cost of ~$5 billion, and annual support cost of $1 billion.

     

    Wenn man die Raumstation mit einem Antrieb versieht und es als Generationsraumschiff nimmt, kommt natürlich noch eine Menge Geld obendrauf.

     

     

    Die Vorstellungen der O’Neill-Anhänger bezüglich der Größe dieser Stationen waren gigantisch, angefangen bei einer Hohlkugel für 100.000 Bewohner bis hin zu einem Zylinder von 30 km Länge und 6,5 km Durchmesser für Millionen von Menschen. Die Kolonien sollten ihren Bewohnern eine dauerhafte Heimat bieten. Deshalb ist es auch nicht verwunderlich, dass in der großzügigen Konstruktion neben landwirtschaftlichen Nutzflächen auch Parks, Seen und Häuser eingeplant waren.

     

    Die Kolonien sollten riesige Fensterflächen besitzen, durch die dann mit Hilfe ebenso großer Spiegel das Sonnenlicht in das Innere der Kugel oder des Zylinders gelenkt werden würde. Damit ein dauerhaftes Leben im Weltall überhaupt möglich ist, muss eine künstliche Gravitation geschaffen werden. Diese sollte durch Rotation jeder Kolonie erreicht werden. Ein Mantel aus Mondgestein sollte zudem den notwendigen Schutz vor der im Weltraum gefährlichen Sonnenstrahlung gewährleisten.

     

    Standort

     

    Wichtiges Element in der Planung der O’Neill-Kolonien war die Versorgung mit Rohstoffen vom Mond aus, zum Einen als Ausgangsprodukt für die Herstellung von Bauteilen, zum Anderen aber auch für den erwähnten Mantel aus Mondgestein, der vor der Sonnenstrahlung schützen sollte. Hierzu, so war die Idee, könnte auf dem Mond ein sogenannter Massenbeschleuniger errichtet werden. Er würde die benötigten Rohstoffe zum Bauplatz der Kolonien schleudern.

     

    Hierbei ist es natürlich von Bedeutung, dass die geschleuderten Objekte und natürlich auch das Konstrukt selber an Ort und Stelle bleiben. Deshalb hat sich O’Neill für seine Kolonien einen besonderen Standort ausgesucht: die Gleichgewichts-, Librations- oder Lagrange-Punkte L4 und L5. An diesen Punkten halten sich in einem System zwischen zwei Körpern – also in diesem Fall zwischen Erde und Mond – die Fliehkraft des rotierenden Systems und die Anziehungskraft der beiden Körper die Waage. Diesem Umstand ist es zu verdanken, dass ein an diesen Orten positioniertes Objekt an seiner Stelle bleibt.

     

    Die Lagrange-Punkte oder Librations-Punkte sind die nach Joseph-Louis Lagrange benannten Gleichgewicht*****te des eingeschränkten Dreikörperproblems der Himmelsmechanik. An diesen Punkten im Weltraum heben sich die Gravitationskräfte benachbarter Himmelskörper und die Zentrifugalkraft der Bewegung gegenseitig auf, so dass jeder der drei Körper in seinem Bezugssystem kräftefrei ist und bezüglich der anderen beiden Körper immer denselben Ort einnimmt.

     

    Kann man im All parken?

     

    Teil 1

     

    Teil 2

     

    Leben in der O’Neill-Kolonie

     

    Das Innere einer O’Neill-KolonieDas Leben in den O’Neill-Kolonien ist von Autarkie gekennzeichnet. Die Bewohner sollen sich mit allen lebensnotwendigen Dingen selbst versorgen können.

     

    Zur Nahrungsversorgung werden Mais-, Sojabohnen- und Luzernefelder auf der mittleren Ebene angelegt. Die Wasserversorgung erfolgt aus künstlich angelegten Teichen auf der obersten Ebene. So kann es optimal zur Bewässerung der Felder verwendet werden. Mit dem Rest des Wassers könnten dann die Nutztiere versorgt werden, deren Ställe sich auf der untersten Terrasse befänden. Ausgehend von einer Bewohnerzahl von 10.000 Kolonisten könnten dort etwa 60.000 Hühner, 30.000 Kaninchen und eine beträchtliche Anzahl von Rindern gehalten werden.

     

    Anschließend würde das Wasser in einer Aufbereitungsanlage gereinigt und dem Kreislauf erneut zugeführt werden. So wäre eine gesunde Mischdiät möglich, die die Bewohner jeden Tag mit etwa 2400 Kilokalorien versorgen würde. Die Felder und Parks hätten zudem die Aufgabe, einen Großteil des Kohlendioxids aus der Luft aufzunehmen und Sauerstoff sowie Wasserdampf freizusetzen. Den restlichen Bedarf müsste dann die Hochtechnologie leisten.

     

    Die Chancen für eine Realisierbarkeit macht eine einfache Überschlagsrechnung deutlich: Bei der oben erwähnten Größe der Kolonie wöge alleine die Luft im Inneren ca 1,2 Milliarden Tonnen (normalen Atmosphärendruck vorausgesetzt).

     

    Ein gutes Beispiel für eine Rotierende Raumstation ist auch Babylon 5

     

     

    Mehr dazu kommt Morgen...

     

    Hi Parzi

     

    Die Ägypter hatten sogar schon eine Art elektrische Lampe.

     

    Na ja .. man vermutet es aber als Fakt würde ich es nicht sehen.Danke für den Link...

     

     

    Hi werjo

     

    Die Energie und die Ressourcen innerhalb eines Sonnensystems reichen einfach nicht aus um irgendsowas zu basteln. Generationsschiffe sind die einzige Lösung und auch die ist nunmal nicht realisierbar, weil auch für die Dinger die Energie und die Ressourcen nicht ausreichen.

     

    Ich denke / vermute das es doch realiesirbar wäre, wenn die Menschheit keine Wahl hätte so etwas zu bauen. Nehmen wir an in ca. 50 Jahren würde ein Asteroid oder Kleinplanetoid mit der Erde kollidieren. Wenn alle Staaten da mitmachen dann... eventuell, aber das wärs dann auch mit den planetarischen Ressourcen.

    Zu werjo ... er studiert Physik und liest diesen Thread praktisch als korrektur durch...das ich nicht all zu viel blödsinn schreibe.

     

    Ich habe in SWTOR ein wenig zu tun, da ich mich mit dem neuen Patch ein wenig verkalkuliert habe und nun Geld beschaffen muss und natürlich RL. Das heisst das ich nicht mehr täglich hier posten kann, aber es kommt bestimmt noch ne Menge... versprochen :D

     

    Man kann nun Beiträge bewerten .... :D

     

     

    MFG

     

    Bak

  5. Dunkle Materie

     

    Das Universum hat sich nach dem Urknall mit sehr großer Geschwindigkeit ausgedehnt, Astrophysiker sprechen sogar von inflationärer Ausdehnung, das ist nach heutigen Modellen des Kosmos auch die Erklärung für die großräumigen Strukturen, die im Weltall beobachtet werden.

     

    Aber leider scheint die beobachtete Masse nicht auszureichen, um diese Ausdehnung in den letzten 15 Mrd. Jahren auf das heute beobachtete Maß abzubremsen. Es muss also etwas geben, das für die verlangsamte Ausdehnung des Universums verantwortlich ist - die Dunkle Materie.

     

    Damit verbunden ist auch die Frage, ob sich unser Universum immer weiter ausdehnen wird, oder ob sich die Bewegung irgendwann wieder umkehrt und das Universum in einem Endknall - dem "Big Crunch" - vergeht.

     

    Dies wird durch die kosmologische Konstante Omega beschrieben, wenn sie kleiner als 1 ist dehnt sich das Universum bis in alle ewig weiter aus, ist Omega größer eins stürzt es in ferner Zukunft wieder zusammen - Omega gleich eins entspräche einem Gleichgewichtszustand dem sich das Universum annähert. Derzeitige Berechnungen für Omega liegen weit unter eins, für ein zyklisches Universum muss deshalb noch Materie gefunden werden.

     

    Und schließlich ist da noch die Bewegung der Sterne um das Zentrum ihrer Galaxien. Eigentlich sollten sich die Sterne am Rand viel langsamer bewegen als Berechnungen der Rotverschiebung schließen lassen, eine mögliche Lösung dieses Dilemmas ist die Existenz Dunkler Materie in einem kugelförmigen Halo, das sich weit über die sichtbare Galaxie hinaus in den Weltraum erstreckt.

     

    Im Grunde heißt das aber nur, dass diese Materie nicht leuchtet und das trifft sowohl auf Planeten und Staub zu, als auch auf Sterne, die nicht genug Masse haben, um die Kernfusion in ihrem inneren zu zünden oder schon lange ausgebrannt sind, sogenannte Braune Zwerge. Aber auch schwarze Löcher sind in der Regel nicht so ohne weiteres zu entdecken.

     

    Diese normale Materie könnte nach aktuellen Schätzungen etwa 10% der fehlenden Masse des Universums ausmachen. Auf der Suche nach den restlichen 90% interessieren sich die Astronomen deshalb für die Objekte, die mit bisherigen Methoden noch nicht entdeckt worden sind und einen eher exotischen Charakter haben könnten.

     

    Astrophysiker unterscheiden auf ihrer Suche nach der fehlenden Masse zwischen heißer und kalter dunkler Materie. Kalt ist sie, wenn sie sich nur langsam bewegt und mit heiß bezeichnet man Teilchenstrahlung, die sich mit nahezu Lichtgeschwindigkeit ausbreitet.

     

    Diese Trennung könnte allerdings zum Problem werden, denn die kalte langsame Dunkle Materie (KDM) würde sich auf kleineren Skalen auswirken und vielleicht das Verhalten von Galaxien erklären. Die heiße (HDM) auf der anderen Seite kann nur großräumige Strukturen erklären, wie Galaxienhaufen und ihre Verteilung im Universum. Möglicherweise wird man sich letztendlich nicht auf eine der beiden Sorten festlegen können.

     

    Ein vielversprechender Kandidat für HDM könnten Neutrinos sein, deren Masse ist zwar verschwindend klein, aber sie kommen in schier unvorstellbaren Mengen vor - 10 hoch 14 Neutrinos durchströmen unsere Körper in jeder Sekunde. Aktuelle Experimente konnten zeigen, dass Neutrinos wirklich eine kleine Masse besitzen - etwa ein zehn Milliardstel der Masse eines Wasserstoffatoms. Deshalb könnten Neutrinos trotzdem bis zu 20% der Masse des Universums ausmachen.

     

    Andere Physiker suchen nach sogenannten WIMPs (Weakly Interacting Massive Particles - schwach wechselwirkende massive Teilchen) die eine Masse von zehn bis 100 Protonenmassen haben könnten.

     

    Die Superstringtheorie sagt diese Teilchen als supersymmetrische Partner der bekannten Teilchen voraus. Leider konnten diese WIMPs aber bisher mit keinem Detektor nachgewiesen werden, da die Energien derzeit noch nicht ausreichen um so hohe Energie zu erreichen, das könnte sich aber ändern, wenn neue Teilchenbeschleuniger wie Tesla und der LHC in Betrieb gehen.

     

    Und auch MACHOs (Massive Compact Halo Objects - Massive Kompakte Objekte im Halo der Galaxien) könnten einen Teil der Dunklen Materie erklären. Diese MACHOs sind aber weit weniger seltsam, es handelt sich um KDM wie verloschene Sterne oder schwarze Löcher, die nicht ohne weiteres nachgewiesen werden können. Seit 1991 suchen Astronomen vom Lawrence Livermore National Laboratory nach diesen MACHOs.

     

    Der Trick dabei besteht nicht darin, die Objekte direkt beobachten zu wollen, statt dessen versucht man ihren Einfluss auf den umgebenden Raum nachzuweisen. Wenn das Objekt vor einem Stern vorbeizieht, verzerrt seine Anziehungskraft den Weg des Lichts des verdeckten Objekts diesen Effekt der Gravitationslinse versucht man bei der Durchmusterung des Sternenhimmels nachzuweisen.

     

    Bei einem Stern aus der Magellanschen Wolke konnte dabei zum Beispiel eine Helligkeitsveränderung nachgewiesen werden, die auf den beschriebenen Effekt zurückzuführen sein könnte. Insgesamt hat das MACHO-Projekt über 400 Objekte nachweisen können, die zu dieser Kategorie Dunkler Materie gehören.

     

    Astrophysiker schätzen, dass WIMPS und MACHOs zusammen aber auch nur etwa 6% der fehlenden Masse erklären können. Es bleiben also noch etwa Zweidrittel der Masse des Universums unerklärt, was weitere Nachforschungen erforderlich macht.

     

    Die Forschungsgruppen von Claude Canizares und Taotao Fangvom am Massachusetts Institute of Technology (MIT) gehen hingegen davon aus, dass sich nach dem Urknall nicht alle entstandene Materie in Galaxien zusammengeballt hat, sondern dass ein Teil in extrem heißen sogenannten Filamenten immernoch den Raum zwischen den Intergalaktischen Strukturen füllt - Der Große Attraktor, auf den sich die Milchstraße mit der Lokalen Gruppe und der Virgo-Cluster zubewegen könnte so ein Objekt sein.

     

    Dieses Gas wäre so heiß, dass es noch nicht einmal mit Radioteleskopen nachgewiesen werden kann. Allerdings muss die Strahlung ferner Galaxien diese Filamente passieren, dabei wird ein Teil der Energie absorbiert, so dass es möglich wäre, quasi den Schatten dieser Dunklen Materie zu sehen.

     

    Der Röntgensatellit Chandra und die Auswertung von Beobachtungen im Ultravioletten Spektrum von Fabrizio Nicastro am Center for Astrophysics in Cambridge haben kürzlich erste Hinweise geliefert, die im Sinne dieser Hypothese interpretiert werden können.

     

    Aber vielleicht kommt man auch ohne aus, man könnte nämlich auch das Gravitationsgesetz etwas anpassen, so dass es bei sehr großen Massen ein wenig von der Newtonschen Dynamik abweicht. Diese modifizierte Newtonsche Dynamik (MOND), die 1989 von Mordehai Milgrom am Weizmann Institut in Israel vorgeschlagen wurde, würde im Größenordnungen von einigen Astronomischen Einheiten nichts ändern, so dass wir auf der Erde nichts von MOND merken.

     

    Allerdings gibt es für MOND keinerlei physikalische Grundlage, sie passt nur die Formel an die beobachteten Daten an. Das ist nicht unbedingt ein Grund, die These zu verwerfen, aber viele Astrophysiker stehen dieser Vorgehensweise skeptisch gegenüber. Dazu kommt, dass die Theorie zwar für den Bereich für den sie entwickelt wurde gute Ergebnisse liefert, aber im Rahmen von Experimenten nicht auf der Erde überprüft werden kann.

     

    Neueste Forschungsergebnisse scheinen der MOND-Theorie jedoch zu wiedersprechen, weil die beobachtete Bewegung der Sterne sehr gut mit dem Halo aus dunkler Materie erklärt werden kann.

     

    Das Rätsel der Dunklen Materie ist ein weißer Fleck auf der Landkarte der Wissenschaft, dessen Größe nur sehr langsam mit immer neuen Erkenntnissen der modernen Astrophysik abnimmt. Spekulation und wenige harte Fakten dominieren derzeit die Forschung auf diesem Gebiet, dass trotzdem - oder vielleicht gerade deswegen - von großer Bedeutung für unser Verständnis des Universums und seiner zukünftigen Entwicklung.

     

    Der Link zur Seite....

     

    http://wissenschaft.marcus-haas.de/weltraum/schwarzesloch.html

     

    Harald Lesch - Dunkle Materie, Schwarze Löcher & Co

     

    Teil 1

     

    Teil 2

     

    Rätsel Dunkle Materie

     

    http://www.youtube.com/watch?v=_WMWh-s3oSE&feature=related

     

    Dunkle Materie / Dunkle Energie

     

    http://www.youtube.com/watch?v=2abuJ9K0rbg&feature=related Teil 1

     

    http://www.youtube.com/watch?v=fIgGBt3MRzo&feature=relmfu Teil 2

     

    http://www.youtube.com/watch?v=ItJypG5IKn4&feature=relmfu Teil 3

     

    http://www.youtube.com/watch?v=LXf_GMhIg4M&feature=relmfu Teil 4

     

    http://www.youtube.com/watch?v=NFErSsnI0t4&feature=relmfu Teil 5

     

    MFG

     

    Bak

  6. Der Schlund....

     

     

    Der Schlund war die Heimat einer streng geheimen, imperialen Forschungseinrichtung. Die Station bestand aus mehreren, miteinander verbundenen, ausgehöhlten Felsbrocken, die genau in der Mitte zwischen mehreren schwarzen Löchern in der Schlundballung in den Randsystemen lag.

     

    Was man alles über ein Schwarzes Loch wissen sollte

     

    Geburt eines Monsters

     

    Ein Schwarzes Loch entsteht, wenn Materie eine bestimmte Dichte überschreitet. Die Allgemeine Relativitätstheorie besagt, dass massive Objekte durch ihr Gravitationsfeld den Raum um sich herum krümmen.

     

    Stellare Schwarze Löcher sind der Endzustand der Entwicklung schwerer Sterne ab der etwa zehnfachen Sonnenmasse. Sie explodieren am Ende ihres Lebens als Supernova und stoßen dabei einen Teil ihrer Materie als Gaswolke ab. Der Rest stürzt unter dem Einfluss der Schwerkraft in sich zusammen, bis sich all seine Atomkerne berühren. Dieses extrem verdichtete Gebilde nennt man Neutronenstern. Es ist noch kein Schwarzes Loch. Ab einer bestimmten Masse jedoch werden die Atomkerne selbst von der Gravitation immer weiter zusammengepresst, und der Radius des Neutronensterns nimmt weiter ab. Schließlich kollabiert der Stern zu einem Schwarzen Loch. Der ganze Prozess vom Zusammenstürzen des Sternrests bis zur Entstehung eines Schwarzen Lochs geht sehr schnell vor sich, in Minuten bis Sekunden.

     

    Ein fiktives nichtrotierendes Schwarzes Loch von 10 Sonnenmassen aus 600 km Abstand gesehen, wobei dem Schwarzen Loch mit der 400-millionenfachen Erdbeschleunigung entgegengehalten werden muss, damit der Abstand konstant bleibt. Im freien Fall würde sich durch die Aberration ein anderes Bild ergeben. Die Milchstraße im Hintergrund erscheint durch die Raumzeitkrümmung verzerrt und doppelt.

     

    Dies macht sich dadurch bemerkbar, dass Lichtstrahlen in der Nähe eines solchen Objekts nicht mehr geradlinig verlaufen. Sie werden wie von einer Sammellinse in Richtung des Objekts abgelenkt.

     

    Vorbeiziehendes schwarzes Loch mit dem Linseneffekt

     

    http://www.youtube.com/watch?v=2-My9CChyBw

     

    Was sind eigentlich Schwarze Löcher?

     

    http://www.youtube.com/watch?v=ZcieWZHEbOE

     

    Dieser Effekt macht sich bereits bei unserer Sonne bemerkbar, ist aber bei Neutronensternen oder noch dichteren Objekten entsprechend stärker. Ist das massive Objekt sehr klein, kann es das Licht auf eine Kreisbahn zwingen und den Raum komplett 'abschnüren'.

     

    Die Sonne Krümmt den Raum und biegt das Licht

     

    http://www.youtube.com/watch?v=T884m5_QzWM

     

    Ein Schwarzes Loch ist entstanden. In seinem Zentrum befindet sich eine Singularität, ein Punkt unendlicher Dichte und Gravitation.

     

    Die Größe, unterhalb der ein Objekt zu einem Schwarzen Loch wird, nennt man den Schwarzschild-Radius (nach dem Physiker Karl Schwarzschild). Er hängt von der Masse des Objekts ab. Bei unserer Sonne – die allerdings wegen ihrer zu geringen Masse nicht zu einem Schwarzen Loch werden kann – beträgt der Schwarzschild-Radius 3 Kilometer. Bei einem Objekt von der Masse der Erde würde er etwa 9 Millimeter betragen.

     

    Der Schwarzschild-Radius ist zugleich der Ereignishorizont des Schwarzen Loches, die Grenze, innerhalb derer keine Materie oder Strahlung das Schwarze Loch mehr verlassen kann. Man kann ihn nur in eine Richtung durchschreiten. Er wirkt daher als eine Art Kausalgrenze: Ereignisse außerhalb dieses Horizonts können keine Ursache innerhalb des Horizonts haben (abgesehen von dem Schwarzen Loch selbst), umgekehrt jedoch schon.

     

     

    Was ist in einem schwarzem Loch

     

     

    Ein Schwarzes Loch hat, ebenso wie ein Elementarteilchen, keinerlei individuelle Merkmale. Schwarze Löcher unterscheiden sich in nichts außer ihrer Masse, Ladung und Drehgeschwindigkeit. Sie sind übrigens keineswegs immer schwarz. Zum einen zeigte der Physiker Stephen Hawking 1981 anhand theoretischer Berechnungen, dass ihr Ereignishorizont aufgrund des extrem starken Gravitationsfeldes selbst eine geringfügige Strahlung aussendet (Hawking-Strahlung). Zum anderen wird die von der Gravitation angezogene Materie vor dem Sturz ins Loch durch Reibung so stark erhitzt, dass dieses – wenn sich genügend Materie in seiner Nähe befindet - nach außen hell leuchtet.

     

    Der Ereignisshorizont

     

    Einfallzeit für einen außenstehenden Beobachter

     

    Für einen außenstehenden Beobachter, der aus sicherer Entfernung zusieht, wie ein Objekt auf ein Schwarzes Loch zufällt, hat es den Anschein, als würde sich das Objekt asymptotisch dem Ereignishorizont annähern. Das bedeutet, ein außenstehender Beobachter sieht niemals, wie das Objekt den Ereignishorizont erreicht, da aus seiner Sicht dazu unendlich viel Zeit benötigt wird.

     

    Einfallzeit für einen frei fallenden Beobachter

     

    Für einen Beobachter, der sich im freien Fall auf das Schwarze Loch zu bewegt, ist dies freilich anders. Dieser Beobachter erreicht den Ereignishorizont in endlicher Zeit. Der scheinbare Widerspruch zu dem vorherigen Ergebnis rührt daher, dass beide Betrachtungen in verschiedenen Bezugssystemen durchgeführt werden. Ein Objekt, welches den Ereignishorizont erreicht hat, fällt (vom Objekt selbst aus betrachtet) in endlicher Zeit in die zentrale Singularität.

     

    Es sei noch angemerkt, dass der Ereignishorizont keine gegenständliche Grenze ist; ein frei fallender Beobachter könnte daher nicht direkt feststellen, wann er den Ereignishorizont passiert

     

    Die hellsten unter ihnen nennt man Quasar

     

    Quasare gehören wie die schwächeren Seyfertgalaxien zur Klasse der aktiven Galaxien. Die Trennung anhand der Leuchtkraft ist rein historisch bedingt. Nach heutiger Annahme befindet sich im Zentrum aller Galaxien mit einem Bulge ein sehr massereiches Schwarzes Loch, das mehrere Millionen bis Milliarden Sonnenmassen umfassen kann. Aktive Galaxien unterscheiden sich von normalen Galaxien dadurch, dass dieses Schwarze Loch mit der Zeit an Masse zunimmt, da Materie aus der umgebenden Galaxie (Interstellares Gas oder zerrissene Sterne) durch die Gravitation des Schwarzen Loches angezogen wird. Dieser Vorgang des Ansammelns von Materie wird in der Astronomie Akkretion genannt. Aufgrund der Drehimpulserhaltung bei der einfallenden Materie kann diese nicht direkt in das Schwarze Loch fallen, so dass sich um es herum eine Akkretionsscheibe bildet. Durch Reibung heizt sich diese Scheibe auf, wobei gleichzeitig Teile der Materie Drehimpuls verlieren und so in das Schwarze Loch fallen können. Die Emission der aufgeheizten Akkretionsscheibe ist das, was man als typische Strahlung des Quasars beobachtet. Sie kann eine Leuchtkraft ähnlich der von vielen Milliarden Sternen erreichen und somit mehr Licht abstrahlen als die gesamte umgebende Wirtsgalaxie.

     

    Die leuchtkräftigsten Quasare erreichen bis über 10 hoch 14 Sonnenleuchtkräfte

     

    Sofern die Akkretionsscheibe über ein starkes Magnetfeld verfügt, wird ein kleiner Anteil des Materiestromes in zwei Teile gerissen und in Bahnen entlang der Feldlinien des Magnetfeldes gezwungen. Anschließend werden beide Ströme senkrecht zur Ebene der Akkretionsscheibe (einer auf jeder Seite) mit relativistischer Geschwindigkeit in die umgebende Galaxie und den weiteren Weltraum abgestoßen. Diese sogenannten „Jets“ können dann im Radiowellenlängenbereich beobachtet werden. Man unterscheidet in diesem Zusammenhang Quasare in „radio-laute“ und „radio-leise“ Klassen, je nach Stärke der Radiostrahlung. Allerdings hat sich herausgestellt, dass es vermutlich keine wirklichen Klassen, sondern einen kontinuierlichen Übergang innerhalb der Radioeigenschaften gibt.

     

    Bad Astronomy: Black Hole Death Rays

     

    http://www.youtube.com/watch?v=MD5lOpxDElI&feature=fvst

     

     

    Quasare sind mit die grössten Einzelobjekte im Universum. Sie können mit ihren Jets bis zu 100.000 Lj in das Interstellare Medium hinausreichen.

    Doch im Fall von HE0450-2958 trifft der Strahl (ein sogenannter Jet) auf eine etwa 22 000 Lichtjahre entfernte Galaxie, die viele helle junge Sterne enthält. Wie Messungen zeigten, entstehen darin pro Jahr bis zu 350 neue Sonnen. Das ist das 100-Fache der Menge, die für Galaxien dieses Typs zu erwarten wäre.

     

    Tod eines schwarzen Lochs

     

    Kommt kein Material mehr nach, könnten sich Schwarze Löcher nach einer Theorie von Hawking über einen Zeitraum von vielen Milliarden Jahren langsam wieder auflösen. Diesen Vorgang nennt man "Hawking-Strahlung". Sie beruht auf einem quantenmechanischen Effekt

     

    MFG

     

    Bak

  7. Top 10 der verloren gegangenen Technologien

     

     

     

    Ich habe gestern eine super Doku gesehen und dachte mal .... schreib mal einen Artiker darüber :D

     

    Der Text wurde mit dem Googel Übersetzer verarbeitet ... meine Rechtschreibung ist zwar schlimm ... aber nicht sooo schlimm

     

    Die Welt war noch nie so technologisch als sie es jetzt ist, aber das bedeutet nicht, dass einige Dinge nicht auf dem Weg verloren gegangen sind. Viele der Technologien, Erfindungen und Herstellungsverfahren der Antike sind einfach im Laufe der Zeit verschwunden, während andere noch nicht vollständig durch moderne Wissenschaftler verstanden worden sind. Einige wurden inzwischen wieder entdeckt (innen Sanitär-, Straßen- Gebäude), aber viele der mysteriösen verloren Technologien haben das Zeug um zur Legende zu werden. Hier sind zehn berühmte Beispiele:

     

     

    10. Stradivari-Geigen

     

    Eine verlorene Technik des 17 Jahrhunderts ist der Prozess, durch den die berühmten Stradivari-Geigen und andere Streichinstrumente gebaut wurden. Die Geigen, zusammen mit verschiedenen Bratschen, Celli und Gitarren wurden von der Stradivari-Familie in Italien von etwa 1650-1750 gebaut. Die Geigen wurden in ihren Tagen geschätzt, aber sie sind inzwischen weltweit berühmt dafür, eine beispiellose und nicht zu reproduzieren-Klangqualität zu haben. Heute gibt es nur rund 600 der Instrumente , und die meisten sind im Wert von mehreren hunderttausend Dollar. In der Tat hat der Name Stradivari, so ein Synonym für Qualität, dass er nun ein beschreibender Begriff für alles als das beste in seinem Gebiet zu sein.

     

     

    Wie ging es verloren?

     

    Die Technik für den Bau Stradivari-Instrumenten war ein Familiengeheimnis nur durch Patriarchen Antonio Stradivari und seine Söhne, Omobono und Francesco bekannt. Nachdem sie starben, starb auch der Prozess mit ihnen, aber das hält nicht etwa von dem Versuch ab, den versuch zu starten es zu reproduzieren. Forscher haben alles aus probiert. Pilze im Wald, die die einzigartige Gestaltung der Körper verwendet wurde, um die berühmten Resonanz von der Stradivari-Sammlung zu erreichen. Die führende Hypothese scheint zu sein, dass die Dichte der verwendeten Holz-Komponenten für den klang verantwortlich sind. In der Tat, schloss zumindest eine Studie, dass die meisten Menschen nicht einmal einen Unterschied feststellen in der Klangqualität zwischen einer Stradivari Geige und ein modernes Gegenstück.

     

    9. Nepenthe

     

    Die schiere Komplexität der Technologie von den alten Griechen und Römern ausgeübt wird ist oft ganz erstaunlich, vor allem wenn es um Medizin ging . Unter anderem wurden die Griechen bekannt, die Hinterbliebenen von verstorbenen mit Nepenthe, eine primitive Anti-Depressiva, zu versorgen. Die Droge wird häufig in der griechischen Literatur, wie Homers Odyssee erwähnt. Einige behaupten, dass es vielleicht fiktiven ursprung hat, aber andere haben argumentiert, dass das Medikament echte ürsprünge hat und weit in das antike Griechenland verwendet wurde. Es wird behaupted das Nepenthe in Ägypten entstanden sei und seine Wirkung als "eine Droge des Vergessens" .

     

    Wie ging es verloren?

     

    Oft gibt es die "verlorenen" Technologien noch, und es ist nur unsere Unfähigkeit, ihre moderne Entsprechung, die sie geheimnisvoll macht zu identifizieren. Angenommen, dass es wirklich existiert, ist dies wahrscheinlich der Fall mit Nepenthe. Das Medikament wird wahrscheinlich heute noch verwendet, aber Historiker sind nicht nur was die moderne Substanz die Griechen damit meinten genau zu bestimmen.Opium ist definitiv die beliebteste Wahl, aber auch andere Spitzenreitern zählen Wermut -Extrakt und Scopolamin.

     

    8. Der Antikythera-Mechanismus

     

    Einer der geheimnisvollsten aller archäologischen Artefakten ist, was als der Antikythera-Mechanismus, eine Bronze-Maschine, die von Tauchern vor der Küste der griechischen Insel Antikythera in den frühen 1900er Jahren entdeckt wurde, bekannt. Der Mechanismus besteht aus einer Reihe von über 30 Gänge, Kurbeln, und wählt, die manipuliert werden, um die astronomischen Positionen der Sonne, des Mondes und anderer Planeten . Das Gerät wurde unter den Resten eines Schiffswracks, dass Wissenschaftler auf der 1. oder 2. Jahrhundert v. Chr. datiert gefunden. Seine wahre Absicht ist noch nicht vollständig bekannt, und das Geheimnis hinter seiner Konstruktion und Einsatz ,hat Forscher seit Jahren verwirrt. Der Konsens scheint zu sein, dass der Antikythera-Mechanismus eine Art primitive Uhr, die Mondphasen und Solar-Jahre zeigt.

     

    Wie ging es verloren?

     

    Die Raffinesse und Präzision deutlich in der Gestaltung des Mechanismus lässt vermuten, dass es nicht das einzige Gerät seiner Art war und viele Wissenschaftler haben spekuliert, dass seine Verwendung weit verbreitet gewesen sein mag. Dennoch ist die Existenz von anderen Geräten wie der Antikythera-Mechanismus nicht auf den historischen Aufzeichnungen angezeigt, bis im 14. Jahrhundert, was bedeuten würde, dass die Technologie für fast 1400 Jahre verloren ging. Warum und wie wird wohl ein Geheimnis bleiben, zumal der Mechanismus ist immer noch als die einzige alte Entdeckung seiner Art bekannt.

     

    die besagte Doku

     

    Die Wundermaschine von Antikythera - Arte 2012

     

    http://www.youtube.com/watch?v=JPoXpxx3oys

     

    Wie Erich von Daneken die Welt sieht....

     

    Die Grossen (ungelösten) Rätsel dieser Welt - EvD

     

    http://www.youtube.com/watch?v=uzaHl41-Z4k

     

    also ich binn dann eher für die ARTE Doku ;)

     

     

    7. Die Telharmonium

     

    Oft als das weltweit erste elektronische Musikinstrument bekannt, war das Telharmonium eine große Orgel-ähnliches Gerät, dass Tonräder kreative synthetische Noten hatte, die dann durch Drähte zu einer Reihe von Lautsprechern übertragen wurden. Das Telharmonium wurde von dem Erfinder Thaddeus Cahill im Jahr 1897 entwickelt, und zu der Zeit war es eines der größten Instrumente jemals gebaut wurde. Cahill hat schließlich drei Versionen davon gebaut, von denen eines angeblich rund 200 Tonnen wiegen und genügend Platz brauchte, um einen ganzen Raum zu füllen war. Seine Einrichtung bestand aus einer Sammlung von Tastaturen und Fußpedale, die der Benutzer zu bedienen musste, um die Klänge der anderen Instrumente, vor allem Holzblasinstrumente wie Flöten, Fagotte und Klarinetten zu reproduzieren. Die erste öffentliche Ausstellungen der Telharmonium wurde ein großer Erfolg. Die Leute kamen in Scharen, um öffentliche Auftritte der primitiven Synthesizer zu sehen.

     

    Wie ging es verloren?

     

    Nach ihren ersten Erfolgen entwickelt Cahill große Pläne für seine Telharmonium. Aufgrund seiner Fähigkeit, ein Signal über Telefonleitungen zu übertragen, hatte er eine Vision Telharmonium Musik aus der Ferne als Hintergrund-Sound in Orten wie Restaurants, Hotels und private Haushalte zu bauen. Leider erwies sich das Gerät als seiner Zeit weit voraus. Sein massiver Energieverbrauch belastete die frühen Stromnetze und bei einem Preis von satte $ 200.000, war das Instrument einfach zu teuer, um es im großen Maßstab zu bauen. Musik über das Telefon zu senden waren katastrophal, der Klang war grauenhaft. Nach einer weile ließ die Faszination an dem Gerät nach, und die verschiedenen Versionen davon wurden schließlich verschrottet. Auch heute noch ist nichts von der ursprünglichen drei Telharmoniums vorhanden, nicht einmal Tonaufnahmen.

     

     

    6. Die Bibliothek von Alexandria

     

    Obwohl ...es war keine Technologie, die legendäre Bibliothek von Alexandria garantiert einen Platz auf dieser Liste, wenn auch nur, weil ihre Zerstörung bedeutete, dass so viel von dem gesammelten Wissen der Antike für immer verloren war. Die Bibliothek wurde in Alexandria, Ägypten in etwa 300 v. Chr., wahrscheinlich während der Herrschaft von Ptolemäus Soter gegründet. Es war der erste ernsthafte Versuch, alle bekannten Informationen über die Außenwelt an einem Ort zu sammeln. Die Größe seiner Sammlung ist nicht bekannt (obwohl die Zahl geschätzt wurde, ca. Million Schriftrollen), sondern die Bibliothek zog einige der großen Geister seiner Zeit, darunter Zenodot und Aristophones von Byzanz nach Alexandria. Die Bibliothek wurde so wichtig, dass es auch eine Legende entsand, dass alle Besucher der Stadt müssten bei ihrer Einreise ...Bücher abgeben , so dass eine Kopie für die Lagerung in der großen Bibliothek gemacht werden könnte.

     

    Wie ging es verloren?

     

    Die Bibliothek von Alexandria und alle Inhalte verbrannten irgendwann um den ersten oder zweiten Jahrhundert nach Christus. Wissenschaftler sind noch unsicher, wie das Feuer begonnen hatte, aber es gibt ein paar konkurrierenden Theorien. Die erste, die durch historische Dokumente gesichert ist, lässt vermuten, dass Julius Caesar versehentlich die Bibliothek abbrannte. Andere Theorien behaupten, dass die Bibliothek geplündert und niedergebrannt wurde ,durch Eindringlinge, mit dem Kaiser Aurelian, Theodosius I, und die arabischen Eroberer Amr ibn al 'Aas, die als die wichtigsten Konkurrenten galten. Doch als die Bibliothek von Alexandria zerstört wurde, gibt es wenig Zweifel daran, dass viele der Geheimnisse des Altertums zusammen damit verloren gingen. Wir werden nie ganz sicher wissen, was verloren gegangen ist.

     

    5. Damaskus-Stahl

     

    Damaszener Stahl war eine unglaublich starke Art des Metalls, die weit in den Nahen Osten von 1100-1700 n. Chr. benutzt wurde. Es ist sehr stark mit Schwertern und Messern verbunden. Schwerter die aus Damaszener Stahl geschmiedet wurden, sind für ihre erstaunliche Kraft und Schneiden Fähigkeit bekannt und waren so in der Lage , Felsen und anderen Metallen einschließlich der Klingen der schwächeren Schwerter-sauber in zwei Hälften zu schneiden. Die Klingen sind vermutlich erstellt mit Wootz-Stahl, der wahrscheinlich aus Indien und Sri Lanka importiert wurde und geformt und vermischt, um eine gemusterte Klinge zu schaffen.

     

    Wie ging es verloren?

     

    Das besondere Verfahren zum Schmieden Damaszener-Stahl war irgendwann um 1750 n. Chr. verschwunden. Die genaue Ursache für den Verlust der Technik ist unbekannt, aber es gibt mehrere Theorien. Am beliebtesten ist, dass die Lieferung von Erzen für die spezielle Rezeptur für Damaszener Stahl die benötigt wurde zur Neige ging. Die Entscheidungsträger waren gezwungen, andere Techniken zu entwickeln. Stattdessen fingen sie an einfach Schwerter en masse herzustellen und testen sie, um zu bestimmen, ob die zur Erfüllung der Standards der Damaszener-Stahl erreichten. Unabhängig von der Technik ist Damaszener-Stahl eine Technologie, die modernen Experimentatoren nicht vollständig reproduzieren können.

     

    4. Apollo / Gemini Space Program Technologie

     

    Nicht alle verlorenen Technologie stammen aus der Antike,schnell ist etwas so veraltet, dass es nicht mehr kompatibel ist. Die Apollo-und Gemini-Raumfahrtprogramm der 50er, 60er und 70er Jahre waren für die größten Erfolge der NASA verantwortlich, darunter auch einige der ersten bemannten Raumflüge und die erste Reise zum Mond. Gemini, die von 1965 bis 66 lief, war verantwortlich für die viel von der frühen Forschung und Entwicklung in der Mechanik der bemannten Raumfahrt. Apollo, die kurz darauf folgte, war mit dem Ziel der Landung eine Crew auf der Oberfläche des Mondes, die i im Juli 1969 ins Leben gerufen wurde.

     

    Wie ging es verloren?

     

    Die Apollo-und Gemini-Programme sind nicht wirklich verloren. Es gibt noch ein oder zwei Saturn V Raketen die herumliegen, und es gibt viele Teile aus dem Raumschiff Kapseln die weiterhin zur Verfügung stehen. Moderne Wissenschaftler können die Teile nicht deuten, sie haben nicht das Wissen es zu verstehen, wie oder warum sie funktionieren, oder wie sie es taten. In der Tat sind nur sehr wenige Schaltpläne oder Datensätze aus der Original-Programme immer noch da. Dieser Mangel an Aufzeichnungen ist ein Nebenprodukt der frenetische Tempo, mit dem das amerikanische Raumfahrtprogramm voran ging ( Kalter Krieg). Nicht nur das, sondern in den meisten Fällen waren private Unternehmer in der Produktion. Sobald die Programme beendet waren, gingen diese Ingenieure, zusammen mit all ihren Wissen woanders hin. Nichts davon wäre ein Problem, aber jetzt, plant die NASA eine Reise zum Mond. Eine Menge Informationen darüber, wie die Ingenieure der 1960er Jahre machte, ist von unschätzbarem Wert. Erstaunlicherweise bleiben die Datensätze so unorganisiert und unvollständig, dass die NASA zurückgegriffen Engineering bestehender Raumsonde Teile machen muss, die sie herumliegen haben auf Schrotthalden, als eine Möglichkeit der Verständigung, wie der Gemini-und Apollo-Programme so gut funktionieren konnte umgekehrt.

     

     

    3. Silphium

     

    Verlorene Technologien sind nicht immer die Folge von zu viel Geheimhaltung oder schlechte Buchführung, manchmal bricht die Natur einfach zusammen. Dies war der Fall mit Silphium, ein pflanzliches Wundermittel, dass die Römer als eine der frühesten Formen der Geburtenkontrolle eingesetzten. Es wurde auf die Frucht einer bestimmten Gattung der Fenchel-Anlage, eine blühende Pflanze, die nur entlang einer bestimmten Küste im heutigen Libyen aufgewachsen ist . Die herzförmige Frucht des Silphium Anlage wurde bekannt, dass so etwas wie ein Allheilmittel sein, und wurde benutzt, um Warzen, Fieber, Verdauungsstörungen und eine ganze Reihe von anderen Erkrankungen zu behandeln. Aber Silphium war auch als Verhütungsmittel bekannt, dass es so als eines der wertvollsten Substanzen in der römischen Welt bekannt wurde. Mit dem Kraut würde sogar kündigen eine bestehende Schwangerschaft, wenn richtig eingesetzt, die machen Silphium eine der ältesten Methoden der Abtreibung würde.

     

     

    Wie ging es verloren?

     

    Silphium war einer der begehrtesten Medikamente der alten Welt zu suchen, und seine Verwendung breitete sich rasch in ganz Europa und in Asien. Aber trotz seiner bemerkenswerten Effekte gedieh die besondere Gattung der Pflanze nur in einem Bereich entlang der Mittelmeerküste in Nordafrika. Seine Knappheit, mit einer überwältigenden Nachfrage kombiniert, mehr als wahrscheinlich, um über die Ernte, die die Pflanze zum Aussterben trieb geführt haben.

     

    2. Roman Cement

     

    Moderner Beton wurde in den 17 Jahrhundert entwickelt, und heute ist die einfache Mischung aus Zement, Wasser, Sand und Felsen ist das am häufigsten verwendete Baustoff der Welt. Aber das Rezept wurde im 18. Jahrhundert entwickelt und nicht zum ersten Mal konkret erfunden wurde. In der Tat war Beton weit über der Antike durch die Perser, Ägypter, Assyrer und Römer bekannt. Die Römer in allem, machte umfangreiche Verwendung von Beton, und sie waren verantwortlich für die erste Vervollkommnung der Rezeptur durch Mischen von Branntkalk mit Schotter und Wasser.Ihre Beherrschung der Nutzung erlaubte ihnen, viele ihrer berühmtesten Strukturen aufbauen, darunter das Pantheon, das Kolosseum, die Wasserleitungen und die Römischen Bäder.

     

    Wie ging es verloren ?

     

    Wie so viele Technologien der Griechen und Römer war das Rezept für Beton während des Abstiegs in das dunkle Mittelalter verloren, warum blieb es ein Geheimnis. Die populärste Theorie ist, dass das Rezept so etwas wie ein Geschäftsgeheimnis unter Steinmetze war und dass die Verfahren zur Herstellung von Zement und Beton, starb zusammen mit denen, die sie kannte. Vielleicht noch interessanter als das Verschwinden der römischen Zement sind die besonderen Qualitäten, die sie getrennt von moderner Portland Zement, der die häufigste Form von Zement das heutzutage verwendet wird. Strukturen mit römischen Zement, wie das Kolosseum, dort ist es gelungen tausende von Jahren den Elementen zu trotzen und stehen zu bleiben. Gebäude die mit Portland-Zement gebaut werden sind bekannt dafür zu zermürben.

     

    1. Griechisches Feuer

     

    Vielleicht ist der berühmteste von allen verloren Technologien ist, was als griechische Feuer bekannt ist. Eine Brandbombe Waffe, die von den Militärs des Byzantinischen Reiches verwendet wurde. Eine primitive Form von Napalm war die griechische Feuer eine Art "immer brendendes Feuer", dass weiterhin brennen konnte auch im Wasser. Die Byzantiner... am berühmtesten wurde es während des 11. Jahrhunderts , als es mit half von zwei Belagerungen von Konstantinopel durch die arabischen Eindringlinge abzuwehren. Griechisches Feuer konnte auf viele verschiedene Arten eingesetzt werden. In seiner frühesten Form wurde es in Gläser gegossen und auf Gegner geworfen wie eine Granate oder einen Molotow-Cocktail. Später wurden riesige Bronze Röhren auf Kriegsschiffen montiert und Siphons sprühten das Feuer auf feindliche Schiffe. Es gab sogar eine Art tragbare Siphon, die von Hand in den Stil eines modernen Flammenwerfer betrieben werden könnte.

     

    Wie ging es verloren?

     

    Die Technologie hinter griechischem Feuer ist sicherlich nicht völlig fremd. Immerhin haben moderne Armeen nun mit ähnlichen Waffen seit Jahren. Dennoch war der nächste Gegenstück zu griechischem Feuer, Napalm, nicht bis in die frühen 1940er Jahre, was bedeuten die Technologie für mehrere hundert Jahre verloren war. Die Waffe scheint nach dem Untergang des Byzantinischen Reiches verschwunden zu sein, aber gerade deshalb ist nichts bekannt. Inzwischen hat man die mögliche chemische Zusammensetzung des griechischen Feuers weithin von Historikern und Wissenschaftlern untersucht. Eine frühe Theorie war, dass die Mischung einer starken Dosis von Salpeter, die es chemisch ähnlich Schießpulver würde enthalten. Diese Idee wurde inzwischen abgelehnt, weil Salpeter nicht in Wasser brennet. Stattdessen schlagen modernen Theorien vor, dass die Waffe eher ein Cocktail aus Erdöl und andere Chemikalien, eventuell auch Kalk, Salpeter oder Schwefel war.

     

     

    Es gibt noch mehr Technologien die verlohren gingen aber das sollte ja nur ein Beispiel sein was so alles verloren gegengen ist ..... gehe ich später noch mal genauer drauf ein.....

     

    MFG

     

    Bak

  8. Überlichtgeschwindigkeit

     

     

     

    Laut ART ( Allgemeine Relativitäts Theorie ) kann nichts schneller als das Licht reisen.

    Wenn es Masse hat, nicht mal annähernd so schnell. Masselos .... mit Lichtgeschwindigkeit ... aber nicht schneller.

    Selbst Gravitationswellen breiten sich nur mit Lichtgeschwindigkeit aus.

     

     

    Was Einstein gesagt hat (verkürzt):

     

    1) Man kann nichts mit einer Ruhemasse >0 auf Lichtgeschwindigkeit beschleunigen.

    2) Die Lichtgeschwindigkeit ist in jedem Bezugssystem identisch, sie ist ist eine kosmische Konstante.

     

    Das heißt eben nicht, dass nichts schneller als Licht sein kann.

     

     

    Einstein hat 1911 die allgemeinen Relativitätstheorie aufgestellt. Seitdem ist sie wieder und wieder und wieder getested worden und das seit 100 Jahren, mehere 1000 mal.

     

    Wenn die ART falsch sein sollte, dann ist sie verdammt gut falsch. Eine neue Erkenntniss die, die ART in Frage stellt, muss 100 Jahre des Testens überstehen und genau so gut überprüfbar sein.

     

    Aber es gibt wohl Ausnahmen.....´

     

    Superluminares Tunneln

     

    In der Universität Köln unter der Leitung von Günter Nimtz wurde der quantenmechanische Effekt des Superluminaren Tunnelns von Mikrowellen-Photonen, dem der Tunneleffekt zu Grunde liegt, als erstes nachgewiesen.

     

    Tunneleffekt ist in der Physik eine veranschaulichende Bezeichnung dafür, dass ein atomares Teilchen eine Potentialbarriere von endlicher Höhe auch dann überwinden kann, wenn seine Energie geringer als die Höhe der Barriere ist. Nach den Vorstellungen der klassischen Physik wäre dies unmöglich, nach der Quantenmechanik ist es möglich. Mit Hilfe des Tunneleffekts wird unter anderem der Alpha-Zerfall von Atomkernen erklärt. Technische Anwendungen des Tunneleffekts sind beispielsweise das Rastertunnelmikroskop und der Flash-Speicher

     

    Alpha Centauri - Tunneleffekt

     

    http://www.youtube.com/watch?v=KQ0H0FK9dpc Teil 1

     

    http://www.youtube.com/watch?v=NN-vMWdXsLA&feature=relmfu Teil 2

     

     

    Experimente vom Nimtz-Typ mit Photonen anderer Wellenlänge, insbesondere mit sichtbarem Licht, durch andere Gruppen haben stattgefunden und haben die Beobachtungen von Nimtz bestätigt werden von den Experimentatoren wie Chiao und Steinberg aber anders interpretiert. In allen Experimenten wird festgestellt, dass sich eine superluminare Geschwindigkeit dann einstellt, wenn sich zwischen der Quelle und dem Detektor eine Barriere befindet, welche die Photonen erst überwinden (durchtunneln) müssen.

     

    Medienwirksam wurde dort 1994 mit frequenzmodulierten Mikrowellen ein Teil einer Mozart-Sinfonie mit übertragen, wobei Nimtz nach eigenen Angaben für das Maximum und die Anstiegsflanke des Wellenpakets eine 4,7-fache Lichtgeschwindigkeit maß. Nimtz behauptet, damit die Möglichkeit der Übertragung von Information mit Überlichtgeschwindigkeit gezeigt zu haben, was aber bestritten wurde. Definiert man die Geschwindigkeit der Informationsübertragung über die Ansprechzeit eines Detektors, gibt es keine Informationsübertragung mit Überlichtgeschwindigkeit: Ein Detektor auf einer gleich langen Vergleichsstrecke ohne „Tunnel“, auf der sich die gleiche Information (Pulsform) mit Lichtgeschwindigkeit ausbreitet, spricht zuerst an, da das Signal auf der Tunnelstrecke viel schwächer ist und zwar unabhängig von der Empfindlichkeit des Detektors.

     

    Diese Experimente stehen nach allgemeiner Ansicht in völliger Übereinstimmung mit einem der Axiome der Relativitätstheorie, nach dem keine Informationsausbreitung mit Überlichtgeschwindigkeit stattfindet. So kann man z. B. zeigen, dass ein Wellenzug beim Tunneln stärker im hinteren Teil gedämpft wird als im vorderen, so dass sich sein Intensitätsmaximum nach vorne verlagert. Definiert man die Lage des Maximums als Position des Wellenzuges, so kann man eine Überlichtgeschwindigkeit errechnen, ohne dass irgendein Teil des Wellenzuges mit Überlichtgeschwindigkeit vorangeschritten wäre.

     

    Bei Tunnelexperimenten mit einzelnen Photonen wurde bereits überlichtschnelles Tunneln nachgewiesen, siehe zum Beispiel Experimente der Chiao-Gruppe. Da beim Tunneln jedoch ein großer Teil der tunnelnden Photonen und damit der Information verloren geht, ist auch hier die Möglichkeit einer überlichtschnellen Informationsübertragung umstritten.

     

    Alpha Centauri - Gibt es Überlichtgeschwindingkeit

     

    http://www.youtube.com/watch?v=5DsBsz4I7Co

     

     

    Hier wird klar gesagt das die Informationsweitergabe unmöglich ist.

     

    Neutrinos

     

    Neutrinos sind elektrisch neutrale Elementarteilchen mit sehr kleiner Masse. Im Standardmodell der Elementarteilchenphysik existieren drei Neutrinos: das Elektron-Neutrino, das Myon-Neutrino und das Tau-Neutrino

     

    Selbst eine Bleiplatte von einem Lichtjahr Dicke würde ein Neutrino nicht aufhalten

     

    Die Kerngössen in Relation zu der Elektronenwolke wurde schon in diesem Thread erleutert.

     

    Schaut euch noch mal an wie gross ein Neutrino ist

     

    http://www.newgrounds.com/portal/view/525347

     

    Neutrinos - Geheimschrift des Kosmos

     

    Teil 1

     

    http://www.youtube.com/watch?v=KbhQMagCdVUTeil 2

     

    Teil 3

     

     

     

    MFG

     

    Bak

  9. Ruhemasse

     

     

    Die Ruhemasse eines Körpers ist seine relativistische Masse wenn er relativ zum Beobachter ruht. Ein anderer Begriff hierfür ist invariante Masse weil sie – im Gegensatz zur relativistischen Masse – nicht vom Bezugssystem abhängt also lorentzinvariant ist

     

    Die Lorentz-Transformationen, verbinden in der speziellen Relativitätstheorie und der lorentzschen Äthertheorie die Zeit- und Ortskoordinaten, mit denen verschiedene Beobachter angeben, wann und wo Ereignisse stattfinden. Dabei handelt es sich um gradlinig gleichförmig bewegte Beobachter und um Koordinaten, in denen kräftefreie Teilchen gerade Weltlinien durchlaufen

     

    Unter einer Weltlinie versteht man die eindimensionale Trajektorie eines punktförmigen (nulldimensionalen) Objekts in der Raumzeit.

    In der klassischen Newtonschen Mechanik versteht man unter einer Trajektorie die drei Raumkoordinaten eines Punktteilchens, welche durch einen Parameter t parametrisiert sind. Jedem Zeitpunkt wird somit ein Punkt des Raumes (der momentane Aufenthaltsort des Teilchens) zugeordnet. Wird die Zeit jedoch als weitere eigenständige Dimension der sog. Raumzeit aufgefasst, so entspricht die gesamte Trajektorie einer eindimensionalen kontinuierlich zusammenhängenden Teilmenge der Raumzeit.

     

    Im Alltag wird nicht zwischen Masse und Ruhemasse unterschieden. Auch in der modernen theoretischen Physik wird der Begriff "Masse" normalerweise für die Ruhemasse verwendet.

     

    Gemäß Einsteins Relativitätstheorie nimmt die relativistische Masse eines Körpers allerdings mit seiner Geschwindigkeit zu. Bei Körpern die sich mit einem nennenswerten Anteil der Lichtgeschwindigkeit fortbewegen bedeutet dies dass man bei der Angabe einer Masse die Geschwindigkeit für die diese gilt angeben muss. Aus diesem Grunde wird insbesondere für Elementarteilchen als Bezugsgröße ihre Ruhemasse angegeben als die Masse die sie im Zustand der Ruhe haben.

     

    Lichtteilchen selbst haben also eine Ruhemasse von null.

     

    Die Überlegungen die zu der Relativitätstheorie geführt haben leiten sich aus der Beobachtung ab dass Licht immer die gleiche Geschwindigkeit hat egal ob man sich auf das Licht zubewegt oder ob man sich davon wegbewegt. Es lässt sich also kein Bezugssystem angeben bei dem sich Licht in Ruhe befindet.

     

    Licht breitet sich aber nur im Vakuum mit der Geschwindigkeit c aus ansonsten langsamer. Sobald die Ausbreitungsgeschwindigkeit kleiner als c ist lässt sich aber ein Bezugssystem angeben demgegenüber sich Licht in Ruhe befindet. In so einem Bezugssystem hat Licht die Masse null.

     

    Die Entwicklung der Physik ist ja nicht stehen geblieben und schreitet immer weiter vorran. Die Frage nach der Bezugssystem Abhängigkeit der Masse scheint aus der Sichtweise der modernen Physik ein für alle mal geklärt zu sein.

     

    Masse ist eine fundamentale Eigenschaft von Materie und als solche naturgemäß eine Invariante; sie ist von der Wahl des Bezugssystemes unabhängig. Der Begriff „ Ruhemasse“ ist daher überflüssig, wenn nicht irreführend: für den Begriff einer davon zu unterscheidenen „ bewegten Masse „ ist in der Physik kein sinnfoller Platz

    Den Text konnte ich leider nicht bearbeiten da er im PDF Format ist. Er ist aber gut geschrieben

     

    Für die Fachleute unter euch

     

    http://www.itp.uni-bremen.de/~noack/masse.pdf

     

     

    An alle Threadleser : Frohe ÖSTERN :D

     

    MFG

     

    Bak

  10. Das gemeine Photon

     

     

    Potonen können in verschiedenen stärken auftreten. Das heisst nicht das sie unterschiedlich schnell sind, ihre Geschwindigkeit ist immer die Lichtgeschwindigkeit. ( Wie schnell das ist hängt natürlich von dem Medium ab indem sie sich bewegen )

    Aber jeder von uns hatte ja schon mal einen Sonnenbrand und derjenige der sich beim Lichtbogenschweißen die Augen verblitzt hat weiss wovon ich rede

     

    Also muss es was anderes sein was diesen Unterschied bewirkt. Sehen wir uns erst mal das Lichtspektrum an.

     

    Wie ihr seht ist die Wellenlänge, Energie pro Photon, Wellenzahl und die Frequenz der entscheidene Fakor, wie gefährlich ein Photon werden kann.

     

    Frequenzen

     

    Niederfrequenz

     

    Extremely Low Frequency / 10 Mm - 100 Mm / 3 Hz - 30 Hz / Bahnstrom

    Super Low Frequency /1 Mm -10 Mm / 30 Hz - 300 Hz / Netzfrequenz

    Ultra Low Frequency / 100 km - 1000 km / 300 Hz

    Very Low Frequency / 10 km -100 km / 3 kHz / U-Boot-Kommunikation

     

    Radiowellen

     

    Langwelle / 10 km / 30 kHz - 300 kHz

    Mittelwellenrundfunk /180 m / 1,7 MHz

    Kurzwellenrundfunk /10 m / 30 Mhz -300 MHz

     

    Mikrowellen

     

    Dezimeterwellen / 10 cm -1 m / 300 Mhz - 3 GHz / Radar

    Zentimeterwellen / 1 cm -10 cm / 3 Ghz - 30 GHz / WLAN

    Millimeterwellen / 1 mm -1 cm / 30 GHz 300 GHz / Richtfunk

    Terahertzstrahlung / 30 µm - 3 mm / 0,1 THz 10 THz / Radioastronomie

     

    Infrarot

     

    Fernes Infrarot / 50 µm - 1 mm / 300 GHz / Infrarotspektroskopie

    Mittleres Infrarot / 2,5 µm - 50 µm / 6 THz / Thermografie

    Nahes Infrarot / 780 nm - 2,5 µm / 120 THz / Fernbedienung,

     

    Licht

     

    Rot / 640 nm - 780 nm / 384 THz 468 THz 1,6

    Orange / 600 nm - 640 nm / 468 Thz - 500 THz

    Gelb / 570 nm - 600 nm / 500 Thz - 526 THz

    Grün / 490 nm - 570 nm / 526 Thz - 612 THz

    Blau / 430 nm - 490 nm / 612 Thz - 697 THz

    Violett 380 nm - 430 nm / 697 Thz - 789 Thz

     

    UV-S-trahlen

     

    schwache UV-Strahlen / 200 nm - 380 nm / 789 Thz - 1500 THz / Banknotenprüfung

    Starke UV-Strahlen / 50 nm - 200 nm / 1,5 Phz - 6 PHz

     

    Röntgenstrahlen /10 Pm -1 nm / 300 Phz - 30000 PHz / medizinische Diagnostik,

     

    Gammastrahlen / 10 pm / 30 EHz / medizinische Strahlentherapie

     

    kleine Strahlenkunde

     

    http://www.youtube.com/watch?v=rh-uG9Yadaw Teil 1

     

    http://www.youtube.com/watch?v=b3IQmCvFqaE Teil 2

     

    http://www.youtube.com/watch?v=BjA_zHiK0Kc Teil 3

     

    Gemäß der speziellen Relativitätstheorie besitzt ein Photon zwar keine Ruhemasse, transportiert aber eine Energie, der eine Masse zugeordnet werden kann.

     

    Ruhemasse später dazu mehr

     

    Die hier auftretende Masse m hat einen festen, für das Teilchen charakteristischen, positiven Wert. Sie wurde historisch Ruhemasse genannt. Die Energie und der Impuls eines Teilchens hängen stets durch die Energie-Impuls-Beziehung mit der Masse zusammen. Die Ruhemasse eines Teilchens ist diejenige Masse, die ein relativ zu diesem ruhender Beobachter misst

     

    Ein im Mittelpunkt der Sonne erzeugtes Photon benötigt etwa 10.000 bis 170.000 Jahre, um sie zu verlassen.

     

    Gammastrahlung

     

    Atomenergie Video für die Schule Alles über die Stahlen, Röntgen Geräte wie viel man erträgt

     

     

    Radiowellen

     

    Die unaufhaltsame Ausbreitung unserer Radiowellen (Quarks & Co)

     

     

    Was ist Licht

     

    Teil 1

     

    Teil 2

     

    Das wars mal wieder nach ca. 2,5 Std Arbeit an diesem Post :D

     

    MFG

     

    Bak

  11. Vergangenheit und Zukunft

     

     

     

    Bauwerke

     

    Vor ca. 7000 Jahren entstand der Kreisgrabenanlage von Goseck es ist das bisher älteste entdeckte Sonnenobservatorium der Welt.

     

    Stonehege wurde vor ca. 5000 Jahren erbaut. Die Ausrichtung erfolgte so, dass am Morgen des Mittsommertags, wenn die Sonne im Jahresverlauf am nördlichsten steht, die Sonne direkt über dem Fersenstein aufging und die Strahlen der Sonne in gerader Linie ins Innere des Bauwerks, zwischen die Hufeisenanordnung, eindrangen.

    Es ist unwahrscheinlich, dass eine solche Ausrichtung sich zufällig ergab. Der nördlichste Aufgangpnkt der Sonne ist direkt abhängig von der geografischen Breite. Damit die Ausrichtung korrekt ist, muss sie für Stonehenges geografische Breite von 51° 11' genau errechnet oder durch Beobachtung ermittelt worden sein. Diese genaue Ausrichtung muss für den Plan der Anlage und die Platzierung der Steine in zumindest einigen der Phasen von Stonehenge grundlegend gewesen sein. Der Fersenstein wird nun als ein Teil eines Sonnenkorridors gedeutet, der den Sonnenaufgang einrahmte.

     

    Die Bearbeitung der Steine setzt man auf etwa 20 Millionen Arbeitsstunden an, insbesondere in Anbetracht der in dieser Zeit mäßig leistungsfähigen Werkzeuge. Der allgemeine Wille zur Errichtung und Pflege dieses Bauwerks muss dementsprechend ausgesprochen stark gewesen sein und erforderte weiterhin eine stark ausgeprägte Sozialorganisation. Neben der höchst aufwändigen Organisation des Bauvorhabens (Planung, Transport, Bearbeitung und genaue Aufstellung der Steine) verlangt dieses zudem eine hohe jahrelange Überproduktion von Nahrungsmitteln, um die eigentlichen „Arbeiter“ während ihrer Tätigkeit für das Vorhaben zu ernähren.

     

    Pyramiden

     

    Die Pyramiden sind ca. 4500 Jahre alt. An dem Bau einer Pyramide waren mehrere tausend Arbeiter beschäftigt. So halfen beim Bau der Cheops-Pyramide vor Gizeh laut Überlieferung 70.000–100.000 Arbeiter, was allerdings nach heutigen Nachforschungen logistisch unmöglich erscheint. Es ist dagegen ziemlich sicher, dass in den Steinbrüchen und an der Pyramide „nur“ rund 8.000 Arbeiter beschäftigt waren. Alle Pyramiden des Gizeh-Plateaus wurden während der 4. Dynastie (2630 – 2525 v. Chr.) errichtet.

     

    Die gesamte Literatur über Pyramiden schwärmt von deren exakter Orientierung nach Norden und die Fragen rund um die Technik der Ausrichtung der Pyramiden nach den Himmelsrichtungen sind ein Dorado für Spekulationen. Jede bisher vorgebrachte Theorie scheitert jedoch entweder an den damals möglichen technischen Hilfsmitteln oder an hinreichender Präzision.

     

    Deshalb bedarf die selten vermessene Ausrichtung der Pyramiden genauerer Untersuchung unter der Perspektive, was technologiehistorisch denn denkbar und möglich war. Als absolutes Kriterium steht hier wieder die Durchführbarkeit auch auf der noch unfertigen Pyramide, dem Pyramidenstumpf, im Vordergrund. Jedes Verfahren, das umfangreiche bauliche Voraussetzungen benötigt, um zu einem exakten Ergebnis zu kommen, scheidet daher aus. Bei der enormen Höhe, sowohl der Cheops- als auch der Chefrenpyramide, sind ständige Kontrollmessungen der Ausrichtung unabdingbar. Wir müssen uns hier drei Fragen stellen:

     

    1.Wie war es mit der damaligen Technologie möglich, die Himmelsrichtungen derart präzise zu bestimmen?

     

    2.Wie wurden die Himmelsrichtungen im Fall der Einmessung der Pyramiden bestimmt? Wir werden sehen, dass die grundsätzliche Bestimmung der Himmelsrichtungen relativ einfach möglich ist, im Fall der Pyramiden aber auf Schwierigkeiten stößt, die weitere technische Lösungen verlangen.

     

    3.Wollten die Ägypter die Pyramiden grundsätzlich nach den Himmelsrichtungen orientieren?

     

    Wir wissen zwar, dass die Pyramiden einigermaßen genau nach den Himmelsrichtungen orientiert sind, wir wissen aber nicht, ob das die ursprüngliche Intention der Ägypter war. Es ist daher genauso möglich, dass die Pyramiden nach ganz anderen Zielsetzungen eingemessen wurden.

     

    In der Literatur werden grundsätzlich zwei Vorschläge für die Einmessung der Himmelsrichtungen vorgebracht, die im Folgenden kurz umrissen und auf ihre Realisierbarkeit hin analysiert werden sollen:

     

    •die Orientierung nach der Sonne

     

    •die Orientierung nach den Sternen

     

    Eine Orientierung am magnetischen Nordpol erscheint äußerst unwahrscheinlich, da es zum einen damals kein Eisen gab, schon gar kein magnetisches, zum anderen stimmt der magnetische Nordpol bekanntermaßen nicht mit dem geographischen überein. Und das war auch vor 4500 Jahren nicht anders

     

     

    Teleskope

     

    Bereits im 13. Jahrhundert war die vergrößernde Wirkung konkaver Spiegel bekannt und Leonardo da Vinci beschrieb 1512 deren Verwendung zur Beobachtung des Sternenhimmels

     

    In den Jahren 1668–1672, entwickelte Isaac Newton ein verbessertes Teleskop und führte es der Öffentlichkeit vor

     

    1721 gelang es den Brüdern John, Henry und George Hadley, den ungleich schwieriger zu fertigenden parabolischen Hauptspiegel herzustellen. Auf dieser Grundlage wurden dann in den nachfolgenden 150 Jahren immer größere Teleskope gebaut, bis hin zu dem 183 cm durchmessenden Leviathan

     

    Das Prinzip der aus massiven Glasspiegeln gebauten Ritchey-Chrétien-Cassegrain-Teleskope wurde bis zu einem Spiegeldurchmesser von etwa 5 m erfolgreich beibehalten. Das 1975 gebaute BTA-6 mit sechs Meter Durchmesser zeigte jedoch dessen Grenzen. Der 42 Tonnen schwere Glasspiegel verbog sich unter seinem eigenen Gewicht und lieferte keine scharfen Bilder mehr.

     

     

    Des Weiteren fand man in den 1980ern Verfahren, wie man große dünne Glasspiegel durch einen Schleuderguss oder mit stützenden Hohlstrukturen, meist in Wabenform, herstellen konnte. Voraussetzung hierfür sind extrem präzise Halterungen der Spiegel, die die Segmente auf den Bruchteil der Wellenlänge des Lichtes zueinander ausrichten bzw. die Verformung der dünnen Spiegel mit der gleichen Genauigkeit verhindern. Aufgrund der hierfür notwendigen aktiven Elemente in der Halterung werden solche Systeme auch als aktive Optik bezeichnet. Mit diesen Techniken gelingt es, Teleskope bis etwa zehn Meter Spiegeldurchmesser herzustellen.

     

     

    Die Raumfahrt

     

     

    Die Solarzelle

     

    Solarzellen wurden für die Energieversorgung von Raumflugkörpern wie Satelliten entwickelt. Wissenschaftler standen vor dem Problem, dass Treibstoffe und Batterien viel Platz brauchen, schwer sind recht schnell aufgebraucht sind, Satelliten die Erde aber über einen langen Zeitraum umkreisen sollen. Da kam die rettende Idee: Sonnenlicht ist als Energiequelle immer vorhanden

     

     

    Der Klettverschluss

     

    KlettverschlussKlettverschlüsse kennst du von Turnschuhen, Taschen und Jacken. Aber es gibt sie noch gar nicht so lange - und sie kommen aus der Weltraumforschung: In der Schwerelosigkeit des Weltraums kann man nichts einfach so ablegen. Alle losen Teile schweben durch die Gegend. Das ist unpracktisch, da die Astronauten nichts wiederfinden könnten. Deshalb wurde an jedes Teil an Bord eines Raumschiffes ein Stück Klettverschluss aufgeklebt, mit dem man es an die überall im Shuttle angebrachten Gegenstücke anheften kann

     

    Neue Materialien für Flugzeug- & Automobilbau

     

    Die Raumfahrt kostet viel Geld - und jedes Kilogramm mehr, das ins All befördert werden muss kostet Millionen von US-Dollar. Daher arbeiten Wissenschaftler immer daran, Raumfähren leichter zu machen. Dabei wurden immer neue, leichtere Stoffe wie Karbon, Kevlar und Glaskeramik ausprobiert und erfolgreich eingesetzt. All diese Stoffe werden dann mit ein paar Jahren Verspätung auch in Flugzeugen und in Autos eingebaut. Denn auch die verbrauen weniger, wenn sie leichter sind.

     

    Wettervorhersagen

     

    Satellit im ErdorbitWenn du im Fernsehen den Wetterbericht anguckst, dann siehst du Satellitenbilder der Erde. Wettersatelliten wie Meteosat zeigen mit anschaulichen Bildern Wolken und Wirbelstürme, aber auch Warm- und Kaltwetterfronten. Auf die Wettervorhersagen kann man sich erst wirklich verlassen, seitdem Meteorologen (Wetterkundler) sich auf die Daten von Satelliten stützen können. Das hat auch zur Folge, dass viele Menschenleben gerettet werden können, da Wirbelsturmwarnungen frühzeitig möglich sind

     

    Kommunikation: Fernsehen, Internet & Telefon

     

    Ohne Fernsehsatelliten wie ASTRA oder EUTELSAT könnten viele Menschen kaum ein Fernsehprogramm empfangen. Besonders in Gegenden, in denen kein Kabelanschluss gelegt wurde, gäbe es kaum private Fernsehsender. Und die Fernsehübertragungen aus aller Welt werden mittlerweile alle über Satellitenstrecken in die Sendezentren der Fernsehanstalten gesendet. Ohne Satelliten gäbe es auch keine Live-Übertragung von Fußball-Weltmeisterschaften oder Popkonzerten aus aller Welt

     

    Auto-Navigationssysteme

     

    AutonavigationsgerätNavigationssysteme in Autos helfen vielleicht auch deinen Eltern, sicher zum Ziel zu kommen. Dabei wird die Position von eurem Auto über einen GPS-Empfänger von etwa 30 GPS-Satelliten aus dem Weltraum aus überwacht. Dadurch können zum Beispiel auch Staus automatisch umfahren werden.

     

    Die Superkachel

     

    Eine Superkachel, die für ein deutsch-japanisches Weltraumprojekt entwickelt wurde, übersteht Temperaturen bis zu 2.700 Grad Celsius. Dabei kann man sie bei ihrer Entstehung leicht in jede Form bringen. Bald wird sie als Bremsscheibe von ICE-Zügen deren Sicherheit erhöhen. Und auch Gebäude können in Zukunft mit diesen Kacheln vor Feuer geschützt werden

     

    Cern und der LHC

     

    Das bekannteste Beispiel ist wohl das World Wide Web ( entstanden in Cern). Für die Physiker und Ingenieure, die über die Welt verteilt an einem Projekt arbeiten, ist es einfach eine praktische Notwendigkeit.

     

    Detektortechnologie die am CERN entwickelt wurde um elementare Prozesse sichtbar und messbar zu machen haben in der bildgebenden Diagnostik Anwendung gefunden. Beispielsweise wurde 1977 das erste Positron Emissions Tomographie (PET) Bild am CERN angefertigt. Heute ist PET ein essentielles Werkzeug in der Krebsdiagnose.

     

     

    Was möchte ich euch damit sagen. Seit Anbeginn der Erforschung der Sterne wurde die Technologie weiterentwickelt, um Dinge für die Sternenbeobachtung zu bauen. Es entstanden verschiedene Berufe wie z.B. Architekt oder Statiker. Die Mathematik musste weiter entwickelt werden sowie die Logistik. All das wurde aus diesen Projekten übernommen und dann für den normalen Gebrauch genutzt.

     

    Wenn ihr das nächste mal lest, dass wieder XXX Milliarden für Grundlagenforschung ausgegeben werden und wir keinen direkten Nutzen davon haben. Nach dem Motto, was sollen wir schon mit Elementarteilchen anfangen.

     

    Denkt bitte daran, dass der Weg das Ziel ist.

     

     

    Die Sterne haben und treiben, immer noch, unseren

     

    technologischen Vortschitt vorran.

     

     

     

    MFG

     

     

    Bak

  12. CERN - LHC

     

     

     

     

     

    In Cern steht der Large Hadron Collider auch LHC genannt. Es ist die größte und komplizierteste Maschiene die Menschen je gebaut haben.

     

    Im LHC werden in Vakuumröhren Hadronen ( ihr wisst ja jetzt was das ist ) gegenläufig auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht, um unterschiedliche Elementarteilchen zu erzeugen. Insbesondere erhoffen sich die Wissenschaftler bei diesen Kollisionen den experimentellen Nachweis des bislang nur hypothetischen Higgs-Bosons.

     

    LHC 1

     

    http://www.youtube.com/watch?v=EG4lNyzkmQo

     

    LHC 2

     

    http://www.youtube.com/watch?v=Qe1wcb-1mYQ&feature=relmfu

     

    LHC 3

     

    http://www.youtube.com/watch?v=fDhDAmHJpT8&feature=relmfu

     

     

    Daten

     

    Ringaufbau

     

    Umfang des Hauptringes: 26658.883 m

    Strahlrohrdurchmesser: 5.6 cm

    Anzahl Beschleunigerkavitäten pro Strahlrohr: 8

    Betriebsfrequenz Kavität: 400.8 MHz

    Beschleunigungsgradient Kavität: 5.5 MV/m

    Anzahl Quadrupolmagnete: 858

    Anzahl Dipolmagnete: 1232

    Länge Dipolmagnet: 14.3 m

    Magnetfeld Dipolmagnet: 8.33 Tesla

    Strahlrohrvakuum: 10-13 bar

     

    Protonenmodus

     

    max. Anzahl Protonenpakete: 2808

    Anzahl Protonen pro Paket: 115 Milliarden

    Zeitlicher Paketabstand: 24.95 ns

    max. kinetische Teilchenenergie: 7 TeV

    % Lichtgeschwindigkeit: 99.9999991 %c

    Schwerpunktenergie (Kollision): 14 TeV

    Luminosität: 1034 cm-2 s-1

    Halbwertszeit der Luminosität: 10 Stunden

    gespeicherte Energie pro Strahl: 350 MJ

     

    Bleiionenmodus

     

    max. Anzahl Bleiionenpakete: 592

    Anzahl Bleiionen pro Paket: 70 Millionen

    Zeitlicher Paketabstand: 99.8 ns

    max. kinetische Teilchenenergie pro Kernbestandteil: 2.76 TeV/u

    % Lichtgeschwindigkeit: 99.78 %c

    Schwerpunktenergie (Kollision): 1150 TeV

    Luminosität: 1027 cm-2 s-1

     

    Energie

     

    LHC-Speicherring: 120 MW

    Experimente: 22 MW

    Kühlsystem: 27.5 MW

    Verbrauch nach Wintershutdown: 35 MW

    max. Energieverbrauch LHC: 700 GWh

    max. Energieverbrauch LHC + Inrastruktur: 1000 GWh

    Energieverbrauch Kanton Genf (Vergleich): 11400 GWh

     

    Der Spitzenwert ist eigentlich nur in der Sommerphase möglich, da im Winter der LHC wegen des zu hohen Strombedarfs herrunter gefahren wird.

     

    Ziele

     

    Erweiterungen des Standardmodells prognostizieren nicht nur ein, sondern mehrere Higgs-Bosonen, nach denen ebenfalls gesucht wird. Über den bloßen Nachweis der Existenz eines oder mehrerer Higgs-Bosonen hinaus sollen auch deren Eigenschaften vermessen werden, da für die Higgs-Massen bisher nur untere und obere Grenzen existieren.

     

    Ein weiteres Ziel ist die Suche nach Hinweisen auf eine Theorie zur Vereinheitlichung der Grundkräfte. Dazu wird, ebenfalls vor allem durch CMS und ATLAS, nach supersymmetrischen Teilchen gesucht. Die Annahme solcher supersymmetrischer Partner für alle bisher bekannten Teilchen ist Grundlage der meisten Theorien, die auf hohen Energieskalen die elektroschwache Kraft mit der starken Kraft vereinigen

     

    Am LHC soll außerdem die bislang ungeklärte Natur der Dunklen Materie erforscht werden, aus der ein Großteil des Universums bestehen soll. Ein möglicher Kandidat für die Dunkle Materie ist das leichteste supersymmetrische Teilchen (LSP), nach dem ebenfalls Ausschau gehalten wird. Um mit dem LSP die Dunkle Materie erklären zu können, müsste es stabil sein und es wäre damit am LHC relativ leicht nachweisbar.

     

    Eine andere denkbare Erweiterung des Standardmodells, die am LHC untersucht werden soll, sind mögliche, bislang auf Grund ihrer geringen Größe unbeobachtete Raumdimensionen. Diese Zusatzdimensionen würden sich durch verstärkte Wechselwirkung mit Gravitonen oder durch die Erzeugung kurzlebiger schwarzer Löcherbemerkbar machen.

     

    Ein weiteres wichtiges Forschungsfeld ist schließlich die Erforschung der Materie-Antimaterie-Asymmetrie im Universum. Diese Asymmetrie beschreibt die Beobachtung, dass das sichtbare Universum ausschließlich aus Materie und nicht aus Antimaterie aufgebaut ist, obwohl beim Urknall nach gängigen Theorien Materie und Antimaterie in gleichen Mengen entstanden. Das Studium der B-Physik, schwerpunktmäßig am LHCb-Experiment, aber auch bei ATLAS, soll helfen, die CKM-Matrix genauer zu vermessen. Diese Matrix enthält einen CP-verletzenden Anteil, der einen wichtigen Baustein für die Erklärung der Materie-Antimaterie-Asymmetrie darstellt. Die Größe der durch das Standardmodell vorhergesagten CP-Verletzung kann jedoch die beobachtete Asymmetrie nicht erklären, so dass die Messungen wiederum über dessen Grenzen hinausgehen.

     

    Am LHC werden Top-Quarks in großer Anzahl erzeugt, er ist damit die erste sogenannte t-Fabrik. Dies ermöglicht trotz seines Charakters einer Entdeckungsmaschine das genaue Studium dieses noch wenig erforschten Teilchens.

     

    Der im Vergleich zu Protonenkollisionen seltener angewandte Betriebsmodus der Kollision von Bleikernen soll dazu dienen, kurzzeitig ein sehr hochenergetisches Plasma quasifreier Quarks und Gluonen zu erzeugen (Quark-Gluon-Plasma). Am Detektor ALICE sollen auf diese Weise die Bedingungen sehr früher Phasen des Universums nachgebildet und untersucht werden.

     

    Gefahren

     

    Da am LHC eventuell schwarze Mini-Löcher oder seltsame Materie erzeugt werden könnten, gibt es vereinzelte Warnungen vor möglichen Risiken der LHC-Experimente. Eine Gruppe um den Chemiker Otto Rössler reichte beim Europäischen Gerichtshof für Menschenrechte eine Klage gegen die Inbetriebnahme des LHC ein. Der damit verbundene Eilantrag wurde im August 2008 vom Gericht abgewiesen. Das Hauptsacheverfahren steht noch aus. Das deutsche Bundesverfassungsgericht lehnte die Annahme einer Verfassungsbeschwerde im Februar 2010 wegen fehlender grundsätzlicher Bedeutung und mangelnder Aussicht auf Erfolg ab. Fachwissenschaftler stellten wiederholt fest, dass vom LHC und anderen Teilchenbeschleunigern keine Gefahren ausgehen. Tragende Argumente sind hierbei, dass erstens die theoretisch möglichen, mikroskopischen schwarzen Löcher unmittelbar zerstrahlen würden, anstatt wie befürchtet immer mehr Masse/Energie aus der Umgebung aufzunehmen, und dass zweitens die natürliche kosmische Strahlung ständig mit noch höherer Energie als im LHC auf unsere Erdatmosphäre trifft, ohne dabei Katastrophen zu verursachen

     

    Schwarze mini Löcher

     

    Mitte der 1970er Jahre stellte Roger Penrose die Vermutung auf, Schwarze Löcher könnten auch im Labor erzeugt werden. Es gibt Theorien, nach denen es möglich ist, mit dem Large Hadron Collider, der am 10. September 2008[ in Betrieb genommen wurde, solche Schwarzen Löcher bis zu einmal pro Sekunde zu erzeugen. Dies setzt jedoch die Existenz von zusätzlichen kompakten Raumdimensionen voraus, welche unter anderem von bestimmten Modellen der Stringtheorie vorhergesagt werden.

     

    Diese Schwarzen Löcher wären allerdings deutlich kleiner als stellare Schwarze Löcher, die kosmologisch beobachtet werden. Ihre Ausmaße lägen in der Größenordnung von Elementarteilchen. Auf Grund von Quanteneffekten (siehe Hawking-Strahlung) würden sie sehr kurze Zeit nach ihrer Entstehung aller Wahrscheinlichkeit nach zerstrahlen. Die dabei entstehenden Elementarteilchen könnten mittels Teilchendetektoren nachgewiesen werden. Gemäß dem aktuellen Stand der Forschung auf diesem Gebiet wären die entstehenden Teilchenschauer (Jets) isotroper verteilt als diejenigen, die beim Zusammenstoß hochenergetischer Teilchen entstehen und daher von diesen zu unterscheiden.

     

     

    Die Vorhersage der Hawking-Strahlung beruht auf der Kombination von Effekten der Quantenmechanik und der allgemeinen Relativitätstheorie sowie der Thermodynamik. Da eine Vereinheitlichung dieser Theorien bisher nicht gelungen ist (Quantentheorie der Gravitation), sind solche Vorhersagen immer mit einer gewissen Unsicherheit behaftet

     

    Mit isotroper Strahlung ist in der Regel eine solche Strahlung gemeint, die in alle Richtungen des 3-dimensionalen Raumes gleichmäßig abgestrahlt wird

     

    Letzte Forschungsergebnisse

     

    Gefunden im "Tevatron"- Teilchenbeschleuniger am berühmten Fermilab bei Chicago

     

    Die Messergebnisse könnten die wichtigste Entdeckung der Physik seit Jahrzehnten begründen. Seit Monaten rätseln Wissenschaftler weltweit, was sie da vor sich haben. Es könnte ein neues Elementarteilchen sein - oder sogar eine fünfte Grundkraft der Natur.

     

    Jetzt wird auch im LHC danach gesucht.

     

    MFG

     

    Bak

  13. In eigener Sache

     

     

     

    Damit keine missverständnisse aufkommen.....

     

    Ich glaube daran dass es Außerirdische gibt. Sie müssen nicht intilligent sein, kömmt mal wieder darauf an wie man intilligenz definiert.

    Aber es wäre auch möglich das es sich nur um Mikroben handelt.

    Wie dem auch sei.. es gibt Leben da draussen, ob es nun freundlich ist oder nicht ... wissen wir nicht.

     

    Viele sagen.. wenn eine Zivilisation so hoch entwickelt ist muss sie friedlich sein.

     

    Ein Gedankenexperiment:

     

    Ihr seit in einem Raum. Vor euch ist ein Tisch mit einem Koffer. In diesem Koffer befindet sich 1 Milliarde Euro. Ihr könnt den Koffer nehmen und ihn nach Hause oder zur Bank bringen. Keiner wird euch behelligen, anzeigen oder ausrauben. Es wäre euer Geld und ihr könnt damit machen was ihr wollt.

     

    Der Haken....

     

    Um an das Geld zu kommen müsst ihr eine Fliege töten. Eine Fliege wie es sie in eurer Umgebung millionenfach gibt. Aber diese Fliege ist was besonderes ...sie hat statt 6 Beine ...7 Beine. Eine Laune der Natur ... und es fällt kaum auf. Warscheinlich wird es irgend wann wieder eine Fliege mit 7 Beinen geben.

     

    Was werdet ihr tun ? Es ist doch nur eine Fliege.....?????

     

    Gleiche Problem mit unseren Ausserirdischen....sehen sie uns als intilligent an, als was besonderes was man schützen sollte ? Oder nur als was, was man ohne Probleme töten kann ohne dafür mit Konsequenzen zu rechnen um an das zu kommen was sie haben wollen.

     

    Wir wissen es nicht.

     

    Die Technik....

     

    Wie ich schon mehrfach geschrieben habe, gelten überall die Naturgesetze ( jaaaa... bis auf das innere eines schwarzen Loches )

     

    Atome können wir ja schon manipulieren.

     

    http://www.mpq.mpg.de/cms/mpq/news/press/images/2011/PM_11_03_17_b.jpg

     

    Mit Hilfe eines Laserstrahls können einzelne Atome im Lichtgitter gezielt adressiert und deren Spinzustand verändert werden. Die Forscher konnten so eine vollständige Kontrolle über die einzelnen Atome erreichen und beliebige zweidimensionale Muster aus einzelnen Atomen „schreiben“.

     

    Das ist „relativ“ einfach da wir mit kleinen Dingen ( Laser mit kurzer Wellenlänge ) grosse Dinge verschieben....supereinfach ausgedrückt.

     

    Was wenn wir Quarks anders anordnen wollen ? Was kann ich da als Vergleich nehmen...

     

    Einschuss

     

    http://www.youtube.com/watch?v=R3O-u3kqaiM

     

    Erst mal muss ich sehr hohe Energien aufbringen um Materie zu beschleunigen und aufeinander prallen zu lassen. Wenn sie zusammenprallen komme ich an meine Quarks. Dieses Quark was dann auseinanderfliegt wie bei dem Vid, die verschiedenen Materialien muss dann so fliegen dass es ein anderes Quark so trifft, wie ich es haben will.

    ( 1 Mikromillimeter nach links)

    Wenn man andere Techniken nimmt.. da sind die Handwerksmaterialien zu gross. Vergleicht es damit als wenn ihr mit einem Wasserball auf eine Erbse werft und sie sich dann nur um 1 Mikromillimeter bewegen darf.

     

    Das könnt ihr vergessen....ehrlich.

     

    Das wird auch bei einer Zivilisation, die uns 1 Million Jahre in der Technik vorraus ist, nicht funktionieren.

     

    Andere Ligierungen will ich gar nicht abstreiten, die man z.B. nur im All herstellen kann. Aber das wars dann auch.

     

    Falls ich mich irre bin ich einer der ersten die schreien .. mist

     

    da lag ich falsch.

     

    Aber leider sprechen alle naturwissenschaftliche Argumente dagegen das Ausserirdische hier waren.

     

    Schaut euch UFO Hunters an und wenn ihr den Thread hier ein wenig gelesen habt, könnt ihr ja beurteilen ob da was drann ist oder nicht.

     

    UFO-Hunters: Erstkontakt [HQ/Deutsch] #1

     

    http://www.youtube.com/watch?v=fqnezTsB7Io Teil 1

     

    http://www.youtube.com/watch?v=_kYl6f5QT1M&feature=relmfu Teil 2

     

    http://www.youtube.com/watch?v=FPcAKixQtTs&feature=relmfu Teil 3

     

    http://www.youtube.com/watch?v=gKJZ2LJ0Byg&feature=relmfu Teil 4

     

    http://www.youtube.com/watch?v=JSjCBF0DQJk&feature=relmfu Teil 5

     

     

    MFG

     

    Bak

  14. Spock fährt nen Diesel

     

     

     

    Da das mit den Elementen hoffentlich geklärt ist ... hier mal die letzte grosse U.F.O Sichtung

     

    Augenzeugenvideo: 'Ufos über Jerusalem'

     

     

    Ok... das U.F.O scheint zwischen 10 und 20 m breit zu sein und bis zu 10 m hoch.

    Was haben die bitte als Energiequelle in so einem begrenztem Raum die so stark ist um das Ding so zu beschleunigen ?

     

    Animaterie wäre eine gute Antwort. Aber Antimaterie zu halten und verwerten zu können erfordert sehr ...sehr starke Magnetfelder und setzt außerdem Strahlung frei.

    Diese Art von Technologie ist niemals in so einem beengtem Raum möglich.Wir erinnern uns " Die Physik ist im ganzen Universum gleich "

     

    Dann dieser Start.... sieht nach von 0 auf ca. 1500 m/s aus, ungefähr diese Geschwindigkeit.

     

    Machine gun firing at night - Tracer Rounds

     

     

    Wo beibt denn bitte der Überschallknall ?

     

    Sonic BOOM - Überschallknall

     

    http://www.youtube.com/watch?v=VnNBsLNsiSQ

     

    Nehmen wir mal unser Space Shuttle

     

    es dauert 8 Sekunden, bis die Booster und Triebwerke das Shuttle auf 161 km/h = ( 44,7 m/s) beschleunigen. Nach einer Minute hat das Shuttle eine Geschwindigkeit von 1609 km/h = ( 446,9 m/s) und fast eine halbe Million Pfund Treibstoff verbraucht. Nach zwei Minuten hat das Shuttle dann eine Höhe von 45 Kilometern erreicht und eine Geschwindigkeit von 4828 Km/h = ( 1341,1 m/s) . Nun wird das Shuttle nur noch durch seine drei Haupttriebwerke beschleunigt, die eine Schubkraft von 1 Million Pfund erzeugen. Das Shuttle fliegt nun mit einer Geschwindigkeit von 8 Kilometern pro Sekunde.

     

    On board view of a Space Shuttle launch sequence

     

    start

     

    Space Shuttle Launch Audio - play LOUD (no music) HD 1080p

     

    sound

     

    Hier wird "einigermaßen langsam " beschleunigt. Aber das was auf dem Vid zu sehen ist... Ok das U.F.O kann unbemannt sein ..wegen des Wissenschaftlern beliebten Kohlenstoffchovinismus (später mehr), aber trotzdem Leute da haut sehr vieles nicht hin ...

     

    Da ist mir doch das hier wesentlich lieber.....

     

     

    Was soll ich noch schreiben / posten ? Ich glaube nun mal daran das überall im Universum die Naturgesetze herrschen, na ja bis auf das innere eines schwarzen Loches.

     

    Was wäre die alternative wenn ich nicht recht habe... Erich von Däniken wussete es schon immer besser ? Hmmmm......

     

    Ich habe seit einigen Wochen einige Streitgespräche mit einem Gildenkollegen der halt eine andere Meinung vertritt....Ich habe mal ein wenig nachgeforscht und diese Antworten bekommen....

     

    Wenn man etwas dahingehend betrachten will, ob es möglicherweise in der Zukunft tatsächlich existieren könnte, so muss man zwei Seiten betrachten: Die physikalische und die technische Realisierbarkeit.

    Wenn etwas heute physikalisch völlig unmöglich ist, so ist es egal, über welche Technologie man in der Zukunft vielleicht verfügen mag - es bleibt unmöglich. Die Gesetze der Physik sind nunmal so, wie sie sind, das kann man nicht ändern. Wenn aber irgendetwas gegen kein Gesetz der Physik verstößt, aber dennoch unmöglich erscheint, weil z.B. unglaubliche Speichermengen gebraucht würden, dann wäre das der Teil der technischen Realisierbarkeit - theoretisch möglich (weil kein Naturgesetzt gebrochen), praktisch unwahrscheinlich, dennoch aber nur eine Frage der Entwicklungsstufe der Technologie.

     

    Das Verhalten der Quarks ist aber ein physikalisches Gesetz, das ist jetzt so, und das wird immer so bleiben.

    Beispiel: Das Beamen in Star Trek. Es funktioniert nur dank des mysteriösen Gerätes namens "Heisenberg-Kompensator", welcher in einem Transporter in Star Trek verbaut ist. Dieser sorgt wohl dafür, dass die Heisenberg'sche Unschärferelation außer Kraft gesetzt wird und man somit Quantenteilchen exakt erfassen kann.

    Problem dabei: Die Heisenberg'sche Unschärferelation ist ein Gesetz der Physik, Ende. Keine Technologie kann das ändern, und deswegen wird es auch nie die Beam-Technologie geben, zumindest nicht so wie in Star Trek geschildert.

     

    IMHO lässt also die Aussage "Du weisst nicht was es für eine Technologie in 1 Million Jahre geben wird" darauf schließen, dass dein Gegenüber in Naturwissenschaften nicht sehr bewandert ist.

     

    oder diese....

     

    In einem gewissen Sinne hat Dein Kollege recht, man kann nicht im mathematischen Sinn beweisen, dass etwas grundsätzlich unmöglich ist, also "nie" machbar ist. Aber: Solange sich die Naturgesetze des Universums nicht ändern, was für uns Insassen eh sehr schlecht wäre, können neu entdeckte Naturgesetze nur Erweiterungen der bestehenden sein. Es wird

    also niemals eine neue Gravitationstheorie "entdeckt" werden, die sagt, dass losgelassene Steine nach oben fallen und alle bisherigen Beobachtungen Irrtümer sind. Genauso kennt man das Verhalten von Protonen & Neutronen im Atomkern schon sehr gut und jede neue Theorie muss die bisherigen Erkenntnisse beinhalten.

     

    Wirkliche Umbrüche gibt es eigentlich nur da, wo im Moment noch kein gesichertes Wissen existiert, z.B. bei der Quantengravitation

     

    Dieser Thread soll keinen bekehren, er soll eigentlich zeigen was möglich ist und was nicht.

    Natürlich kann jeder glauben was er will, was letztenlich richtig ist... wird die Zukunft zeigen...

     

    MFG

     

    Bak

  15. Hi Vatok

     

    Und da die Sterne ja im Schnitt zwischen 9 und 13 Milliarden Jahre leuchten (je nach Masse etc.),geben sie ja eine ungeheure Menge an Energie und somit Hitze ab.....wo bleibt also die ganze Wärme?

     

    Die "Sonnenstrahlen" treffen im All eben auf kaum ein Molekül, das sie aufheizen können wie zum Beispiel auf der Erde die Lufthülle und die Erde ansich.

     

    Zu dem Mangel an Materie, die von Sonnenstrahlen erwärmt werden könnten, kommt noch, daß die Sonnen recht weit voneinander entfernt sind. Das unserem Sonnensystem am nächsten liegende System ist Alpha Centauri, so bummelig 4,3 Lichtjahre entfernt, das sind knapp 407 Billionen Kilometer, demgegenüber beträgt Distanz unserer Sonne von der Erde mal gerade im Höchstfall 152 Millionen Kilometer. Selbst auf diese kurze Entfernung macht es uns Sonne im Moment nicht so sehr warm. So Zahlen kann man sich kaum vorstellen, aber wenn Du bedenkst, daß Alpha Centauri etwa 2,5 Millionen mal so weit von uns entfernt ist wie unsere Sonne mußt Du zugeben, daß das Weltall ein ziemlich einsamer Platz ist!

     

    Hinzu kommt das die Stärke der Strahlung mit der Entfernung proportional abnimmt.

     

     

     

    Hi Redeyes ( hab dich net vergessen;) )

     

    was geschieht mit den 4 tonnen wasserstoff die nicht in helium umgewandelt aber dennoch dem wasserstoff "fehlen"?

     

    Energieproduktion in der Sonne: zwei Wasserstoffkerne verschmelzen zu einem Deuteriumkern, einem Positron und einem Neutrino. Das Positron trifft rasch auf ein Elektron, sie löschen sich gegenseitig aus, und nur Energie bleibt übrig. Der Deuteriumkern verschmilzt dann weiter mit einem weiteren Wasserstoffkern zu Helium-3. Im letzten Schritt verschmelzen zwei Helium-3-Kerne zu Helium-4 und zwei Wasserstoffkernen.

    Zum sehen auf den Link klicken.

     

    http://www.scienceinschool.org/repository/images/issue3_fusion1_large.jpg

     

    Hoffe ich konnte helfen....

     

    MFG

     

    Bak

  16. Generationsraumschiffe und die Probleme...

     

     

     

    Rahmenbedingungen

     

    Verlässt ein Raumschiff (bemannt oder unbemannt) das innere Sonnensystem, so kann dieses die benötigte Energie nicht mehr mittels Solarpanels aus der Sonnenstrahlung generieren, es benötigt eine eigene Energiequelle. Bisherige Sonden verwendeten die Radionuklidbatterie.

     

    Eine Radionuklidbatterie, auch Radioisotopengenerator, Atombatterie oder kurz RTG (für radioisotope thermoelectric generator), wandelt thermische Energie des spontanen Kernzerfalls eines Radionuklids in elektrische Energie um. Sie gewinnt ihre Energie aus radioaktivem Zerfall, somit nicht aus Kernspaltung mit Kettenreaktion, und ist daher von Kernreaktoren zu unterscheiden.

     

    Weiterhin müsste das Raumschiff mit einem nennenswerten Bruchteil der Lichtgeschwindigkeit fliegen, um innerhalb einer angemessenen Zeit (d.h. innerhalb von Jahrzehnten oder Jahrhunderten) das Ziel erreichen zu können. Ein solches Raumschiff müsste autonom funktionieren, um den Zielort ohne Hilfe von der Erde aus, ansteuern und untersuchen zu können, da Signale von der Erde zum Raumschiff mehrere Jahre benötigen würden. Die Datensignale würden fortlaufend zur Erde oder zum Raumschiff gesandt werden. Ein weiteres Problem, dass sich aus den Entfernungen ergibt, ist die Missionsdauer und der Bezug zur Lebensdauer der Systeme. Vor allem die Elektronik ist hiervon betroffen. Aufgrund des noch jungen Technologiezweiges (Beginn etwa in den 1960er Jahren) existieren noch zahlreiche Fragen und Arbeiten die eine Aussage zur Lebensdauer von elektronischen Komponenten/Systemen treffen. Die Lebensdauer von elektronischen Komponenten / Satelliten ist auf einer solchen Mission zwar ein kritischer aber kein unmöglicher Aspekt, da z.B. der ATS-3 Satellit 2008 sein 41jähriges Jubiläum hatte und dabei immer noch aktiv war.

     

    Zusammengefasst sind folgende Parameter bedeutend:

     

    Eine Geschwindigkeit von ungefähr 0,1*c ( 10 % der Lichtgeschindigkeit) sollte erreicht werden, um das Ziel innerhalb eines angemessenen Zeitraums erreichen zu können.

     

    Die hohe Geschwindigkeit erfordert Schutzsysteme aufgrund der Bremsstrahlung und vor Objekten entlang des Flugweges.

     

    Bremsstrahlung ist die elektromagnetische Strahlung, die entsteht, wenn ein geladenes Teilchen, zum Beispiel ein Elektron, beschleunigt wird. Jede Geschwindigkeitsänderung eines geladenen Teilchens erzeugt Strahlung. Von Bremsstrahlung im engeren Sinne spricht man, wenn Teilchen in Materie gebremst werden.

     

     

    Raumfahrtantriebe

     

    Die Probleme der interstellaren Raumfahrt können vor allem in der benötigten Energiekonvertierung, d.h. der Verwendung eines passenden Raumschiffantriebs, gesehen werden. Soll das Objekt den nächstgelegenen Stern innerhalb eines überschaubaren Zeitraums (~ ein halbes Jahrhundert) erreichen, muss das Objekt innerhalb eines kurzen Zeitraums auf eine annähernd relativistische Geschwindigkeit (z.B. ~ 0,1c) beschleunigen.

     

    Um eine hohe Geschwindigkeitsänderung zu erhalten, wird eine hohe effektive Ausströmgeschwindigkeit des Reaktionsgases bzw. ein hoher spezifischer Impuls benötigt. Weiterhin muss viel Treibstoff umgewandelt werden, um die benötigte Energie zu erzeugen. Deshalb ist eine hohe Schubkraft notwendig, die die notwendige Beschleunigungsenergie innerhalb eines „kurzen“ Zeitraums erzeugt.

     

    Aus dieser Überlegung heraus, können deshalb zwei Triebwerkskategorien ausgeschlossen werden:

     

    1.Chemische Triebwerke:

     

    Diese Triebwerke besitzen zwar eine hohe Schubkraft, aber aufgrund der Verwendung von chemischer Energie ist die Effizienz dieser Triebwerke sehr gering.

     

    Engine Cam

     

     

    Rocket Launch from on-board camera

     

     

    2.Elektrische Antriebe:

     

    Die Effizienz dieser Triebwerke ist hoch, jedoch ist der Treibstoffausstoß, aufgrund der Verwendung von elektrischen Ladungen und deren Abstoßung untereinander, eher gering.

     

    Plasma Rocket

     

     

    In einigen Konzepten wird deshalb Hauptsächlich der nukleare Pulsantrieb favorisiert, der aus heutiger Sicht realisierbar wäre.

     

    Der Nukleare Pulsantrieb ist ein Vorschlag für den Antrieb von Raumschiffen, dem zufolge durch Atomexplosionen Schub erzeugt würde.

    Die plötzlich auftretenden G-Kräfte würden aber der Besatzung auch noch ganz schön zu schaffen machen, falls sie es überleben. Von der Strahlung mal abgesehen.

     

    Auch der Antimaterie-Antrieb könnte in ferner Zukunft viel versprechend sein.Aufgrund des Energieaufwands zur Beschleunigung der Treibstoffmassen, bevorzugen einige Wissenschaftler den treibstofflosen Antrieb, der mittels Krafteinwirkung durch äußere Felder das Objekt beschleunigt. Eine mögliche Fragestellung hierbei ist auch, ob die Gravitationsfelder der benachbarten Sternensysteme einen Einfluss auf den Flugweg eines Objektes haben könnten. In einer ESA-Studie konnte gezeigt werden, dass ein Mehrkörperproblem im interstellaren Raum vernachlässigbar ist, was bedeutet, dass nur die Einfluss-Sphäre eines Sternensystems von Bedeutung ist. D.h. ein Objekt kann im interstellaren Raum, außerhalb der Einfluss-Sphären, eine Position einnehmen, ohne durch die Gravitationskräfte der Sternensysteme wesentlich von der Position abgebracht zu werden.

     

    Laser Pumped Flying Saucer Spacecraft

     

     

    Konzepte für eine bemannte interstellare Raumfahrt

     

    Die bemannte interstellare Raumfahrt hat das Ziel, entfernte Sternensysteme zu erforschen oder in entfernten Sternensystemen Kolonien zu begründen. Wegen der sehr langen Reisedauer würden solche Missionen als einfache Fahrt gestaltet werden; die Raumfahrer würden nach Abschluss der Mission nicht zurück zur Erde fliegen.

     

    Generationenschiffe

     

    Das Prinzip des Generationenraumschiffs ist, dass nicht die Raumfahrer, die die Erde verlassen, sondern ihre Kinder oder Enkelkinder diejenigen sind, die am Ziel ankommen. Solche Generationenschiffe müssten ganz autark sein, d. h. an Bord des Schiffes müssten beispielsweise Nahrungsanbau, sowie Trinkwasser- und Sauerstoff-Recycling möglich sein.

     

    Der Vorteil des Generationenschiffs ist es, dass nur eine geringe Geschwindigkeit erreicht zu werden braucht und Reisedauern von mehreren hundert Jahren kein Problem sind, so dass einfache Antriebskonzepte angewandt werden könnten. Der Nachteil sind mögliche psychische Probleme der Mannschaft. Das größte Problem ist, dass die meisten Mitglieder die Ankunft am Ziel selbst nie erleben würden und daher das Schiff als ihre Heimat betrachten müssten.

     

    Schläferschiffe

     

    Die Besatzung des Schiffs wird nach Abflug von der Erde in den so genannten Kryoschlaf, eine Art „künstlichen Winterschlaf“ versetzt und bei der Ankunft am Ziel wieder aufgeweckt.

     

    Der Vorteil dieses Konzeptes ist, dass auf groß angelegte Nahrungsproduktion und Unterhaltungseinrichtungen verzichtet werden kann. Auch würden die meisten Raumfahrer die Ankunft miterleben. Ein weiterer Vorteil wäre, dass man auch mit niedrigen Geschwindigkeiten fliegen könnte. Allerdings sind die Auswirkungen eines solchen Kryoschlafs, so er technisch möglich wäre, beim Menschen noch unbekannt.

     

    Embryonentransport

     

    Bei dieser Art von Raumschiff würden tiefgefrorene menschliche Embryos auf die Reise geschickt. Ein paar Jahre vor Ankunft am Ziel würden diese aufgetaut und von Robotern großgezogen. Abgesehen von technischen Herausforderungen ist diese Methode auch ethisch umstritten.

     

    Relativistischer Flug

     

    Wird ein Raumschiff auf einen großen Bruchteil der Lichtgeschwindigkeit (≫0,9 c) beschleunigt, sieht ein Beobachter außerhalb des Schiffes, dass die Zeit an Bord des Schiffes deutlich langsamer verstreicht. Es wäre so möglich, innerhalb eines Menschenlebens kosmische Distanzen zurückzulegen. Bei einer zunächst positiven und dann negativen Beschleunigung, die der Erdschwerebeschleunigung entspräche und daher für den Menschen gut erträglich wäre, würde man eine entsprechend hohe Eigengeschwindigkeit allerdings nur so langsam erreichen, dass man auch einen Flug nach dem uns am nächsten gelegenen Sternsystem Alpha Centauri noch als länger denn die 4,34 Jahre empfinden würde, die das Licht dorthin benötigt. Für Beobachter auf der Erde würde ein Raumschiff, dessen Besatzung die Zeitdilatation ( kommt noch was )für eine subjektive Verkürzung der Reisedauer ausnutzt, weiterhin Tausende, Millionen und Milliarden Jahre benötigen, um entfernte Sterne oder gar Galaxien zu erreichen.

     

    Populationsgröße

     

    Im Jahr 2002 hat der Anthropologe John H. Moore geschätzt, dass eine Population von 150-180 Personen für 60 bis 80 Generationen reichen würde - das entspricht ca. 2000 Jahren.

     

    Eine viel kleinere anfängliche Bevölkerung ist auch möglich wenn die Astronauten weiblich sind. Solange Embryonen zur Verfügung stehen Die Verwendung einer Samenbank von der Erde ermöglicht auch einen kleineren Ausgangsbasis mit vernachlässigbarer Inzucht .

     

    Forscher in Conservation Biology neigten dazu, die "50/500" Faustregel zu erlassen. Diese Regel besagt eine kurzfristige effektive Populationsgröße (N e) von 50 benötigt wird, um eine inakzeptable Rate von Inzucht zu verhindern, während ein langfristiger N e von 500 erforderlich ist , um insgesamt genetische Variabilität zu erhalten. Die Gleichung entspricht einer Inzucht-Rate von 1% pro Generation.

     

     

    Space Odyssey 1/8 - Dokumentation

     

    Teil 1

     

    Teil 2

     

    Teil 3

     

    Teil 4

     

    Teil 5

     

    Teil 6

     

    http://www.youtube.com/watch?v=GAXy_VKUqks&feature=relmfu Teil 7

     

    http://www.youtube.com/watch?v=5D_pPKgbrCw&feature=relmfu Teil 8

     

     

     

    Zu lösende Probleme

     

    Unabhängig vom Antrieb müssen folgende Probleme für einen bemannten interstellaren Raumflug gelöst werden:

     

    Künstliche Schwerkraft

    Strahlenschutz

    Versorgung: Nahrung, Trinkwasser und Sauerstoff

    Zusammenhalt der Gruppe

    Kollision mit interstellarer Materie (Staubteilchen sind bei hohen Geschwindigkeiten ein großes Risiko)

     

    Wie ihr seht gibt es riesige und zum Teil unüberwindbare Gegebenheiten die es uns erschweren zu den Sternen zu gelangen. Diese Probleme haben aber auch alle anderen Zivilisationen im Universum

     

    MFG

     

    Bak

  17. Generationenschiffe

     

     

    Raumfahrt mit mehr als Lichtgeschwindigkeit ist nach derzeitigem Stand der Physik leider nicht möglich. Die vielversprechendsten Konzepte kommen lediglich auf maximal 10%, und das heißt, die Reise zu den Sternen kann ein langwieriges Unternehmen werden. Selbst ein Besuch unseres nächsten Nachbarn Proxima Centauri, in einem Abstand von nur 4,24 Lichtjahren, würde so über 40 Jahre dauern und das schließt noch nicht die Zeit ein, um das Raumschiff zu beschleunigen und am Ziel wieder abzubremsen, was ebenfalls mehrere Jahre dauern würde.

     

    Es bleibt also nur die Möglichkeit, die extreme Reisedauer in die Planungen mit einzubeziehen und damit zu rechnen, dass es mehrere Generationen brauchen würde, um einen fernen Stern zu erreichen. Generationenschiffe sind also die derzeit einzige denkbare Möglichkeit.

     

    Man könnte sich überlegen, dass eine Weltraumstation im Orbit der Erde ein guter Ausgangpu**gt für so eine Weltraumarche wäre, doch sind diese Konstruktionen, wie zum Beispiel eine O'Neill-Kolonie (kommt noch) – ein riesiger rotierender Zylinder, indem Landschaften nachgebildet sind - immer noch stark von der Erde und der Sonne abhängig, um zu funktionieren und für den interstellaren Einsatz möglichweise zu fragil oder zu teuer, wenn man diese Begrenzungen überwinden möchte. Für die Aufgaben einer interstellaren Reise muss man wahrscheinlich einen anderen Ansatz wählen.

     

    Für die veranschlagte Reisezeit muss das Raumschiff außerordentlich robust sein und seine Insassen nicht nur vor Mikrometeoriten, sondern auch vor der kosmischen Strahlung effektiv schützen. Eine konventionelle Konstruktion kommt deswegen eigentlich kaum in Betracht, statt dessen erscheint es sinnvoll, sich einen Asteroiden zu schnappen und diesen auszuhöhlen. Wie man einen Asteroiden in den Erdorbit bringt, ist natürlich ein Problem, aber wenn man soweit gekommen ist, einen Antrieb zu entwerfen, der 10% Lichtgeschwindigkeit erreichen kann, dürfte das nicht mehr unlösbar sein.

     

    Die Verwendung eines Asteroiden hätte zwei Vorteile, zum einen bietet er schon durch seine Masse Schutz vor den kosmischen Widrigkeiten. Außerdem stellt er, wenn man ihn gezielt aussucht, schon eine Reihe an Rohstoffen für den Bau des Raumschiffes zur Verfügung und vermindert damit die Transportprobleme von der Erde in den Orbit. Natürlich muss dann die nötige Industrie, und nicht die Güter allein zum Asteroiden gebracht werden, aber dieses Problem muss auch bei einem erdgestützten Aufbau gelöst werden, da für Reparaturen und Umbauten während des Flugs alle entsprechenden Einrichtungen ohnehin unverzichtbar sind.

     

    Captain Future 08 - Das Geheimnis des Sterns Koom

     

    http://www.youtube.com/watch?v=QnBQKbOSHvk&feature=relmfu Teil 1

     

    http://www.youtube.com/watch?v=aP1pjVVnTrM Teil 2

     

     

    Eine Variante zum Asteroiden ist die Verwendung eines Kometen, der im Gegensatz zum Asteroiden nicht aus Gestein, sondern hauptsächlich aus Eis besteht. Es muss abgewägt werden, welche Ressourcen auf lange Sicht sinnvoller sind, oder ob man nicht gleich zwei Generationenschiffe baut, eines aus einem Asteroiden und eines aus einem Kometen, in Bezug auf die Redundanz der Systeme und die Ausfallsicherheit ist diese Überlegung nicht abwegig.

     

    In einem solchen Generationenschiff würden die Habitate für die Bewohner wahrscheinlich ringförmig angelegt und eine Rotation würde für künstliche Schwerkraft sorgen. Eine vollständige Aushöhlung des Kerns wäre aber ökonomisch und in Hinblick auf die Stabilität nicht unbedingt sinnvoll und auch die Außenhülle muss massiv genug bleiben, um ihre Schutzfunktion nicht einzubüßen.

     

    Die Konstruktion ist aber nur ein Teil der Überlegung. Ganz wichtig sind auch die Menschen, die man auf eine solche Reise schicken möchte.

     

    John H. Moore, von der University of Florida, meint, dass schon eine Besatzung von 180 Personen ausreicht, um eine überlebensfähige Population für 60 - 80 Generationen zu bilden. Diese Zahl ermöglicht eine ausreichende Reproduktionsrate und wäre groß genug, um genügend genetische Variation zu erlauben – lediglich mit gezielter Geburtenplanung bei ausgewählten Partnern ließe sich diese Zahl wahrscheinlich noch etwas verringern. Statt der militärischen Struktur und Hierarchie, die heute bei Weltraummissionen gebräuchlich ist, würde ein Generationenschiff eher wie eine Sippe mit Familienstrukturen funktionieren.

     

    Ein großes Problem kann die Gruppendynamik werden, die auf engem Raum und mit wenig Ausweichmöglichkeiten schnell zu Konflikten führen kann.

     

    Und schließlich muss für ein künstliches Ökosystem gesorgt werden, das sich selbst unabhängig erhalten kann. Mit den überschüssigen Rohstoffen, die das aus einem Asteroiden oder Kometen bestehende Schiff ausmachen, können sicher Schwankungen ausgeglichen werden, aber das ist nur eine Notlösung, wenn das System dauerhaft bestand haben soll.

     

    Bisherige Versuche, wie Biosphäre 2 sind gute Ausgangpun**te, zeigen aber auch deutlich die Schwierigkeiten, bei dem Versuch ein Ökosystem nachzubilden. Dabei war das Projekt Biosphäre 2 vielleicht nur ein wenig zu ambitioniert, weil versucht wurde, ein zu komplexes Ökosystem nachzubilden (einen Strich durch die ersten Versuche machten Mikroorganismen im Boden, die Kohlendioxid produzierten und die Sauerstoffaufnahme des Betons).

     

    Überlegungen werden auch in den Ackerbau gehen müssen; um die in einem Raumschiff notwendigen Arbeiten (Wartung, Reparatur, wissenschaftliche Fragestellungen) neben der Nahrungsmittelproduktion durchführen zu können, wird man kaum auf konventionellen Ackerbau zurückgreifen können, sondern künstliche Aufzucht in Nährlösungen, Hydrokulturen usw. in Betracht ziehen müssen.

     

    Viele dieser Probleme können aber beseitigt werden, wenn man sich nicht auf ein Schiff verlässt, sondern immer wieder neue Schiffe mit verbesserter Technologie hinterherschickt, die genetische Diversität wäre gewährleistet, Vorräte und Ressourcen können aufgestockt werden und die Verbindung zum Heimatplaneten bliebe bestehen, was auch psychologische Probleme abmildert. Es ist jedoch fragwürdig, ob diese Vorgehensweise über hunderte von Jahren aufrecht erhalten werden könnte.

     

    Derzeit ist ein Generationenschiff die einzige technisch überhaupt denkbare Möglichkeit ferne Sterne zu erreichen, aber die Verpflichtung, die eine Gesellschaft damit einginge, wären enorm, was wohl in Grund dafür ist, dass diese Konzepte derzeit viel eher in Science-Fiction zu finden sind als in konkreten Überlegungen der Weltraumagenturen. Immerhin ist das ethische Problem, das damit verbunden ist, Mensch auf eine Reise ohne Wiederkehr zu schicken, noch nicht einmal diskutiert worden - aber sehr viel anders wie die ersten Entdeckungsreisen oder Auswanderungen in die neue Welt wäre es auch wieder nicht.

     

    Mehr dazu kommt noch

     

    MFG

     

    Bak

  18. Lest ihr eigentlich diesen Thread ????

     

     

    Schwarze Loch

     

    Galactic Center - Das galaktische Zentrum

     

     

    Das schwarze Loch im Zentrum der Milchstraße frisst Asteroiden!

     

    http://www.scienceblogs.de/astrodicticum-simplex/2011/11/das-schwarze-loch-im-zentrum-der-milchstrasse-frisst-asteroiden.php

     

    Wie endet die Sonne ?

     

    Das Ende von allem

     

    http://www.zeit.de/zeit-wissen/2010/02/Dossier-Kosmos/seite-4

     

    Der Tag an dem die Sonne explodiert

     

    http://www.youtube.com/watch?v=iTHhQd-GjFY&feature=related Teil 1

     

    http://www.youtube.com/watch?v=tDzjYAeO0xE&feature=results_video&playnext=1&list=PLAF0B45488B023A99 Teil 2

     

    http://www.youtube.com/watch?v=62bShYiMgck&feature=related Teil 3

     

    Glühbirne

     

    Die unterirdische Krypta in Dendera

     

    Unter dem Tempel von Dendera in Ägypten, befinden sich mehrere Kammern mit recht eindrucksvollen Wandreliefs. Eine dieser Kammern kann man als Tourist besichtigen. Man betritt sie durch ein enges Loch im Boden. Die Kammer ist niedrig und gerade mal 1,12 m breit. Während einer Länge von 4,60 erkennt man eine Reihe merkwürdiger Reliefs an der Wand. Davon hat eines in der Paläo-SETI-Szene für viele Diskussionen gesorgt.

     

    Insbesondere Reinhard Habeck und Peter Krassa haben es bekannt gemacht und verglichen eine Abbildung an der Wand mit überdimensional grossen Glühbirnen. Im Innern der "Glühbirne" befindet sich eine Schlange in wellenliniger Form, die als elektrischer Strom gedeutet wurde. Das Ende der "Schlange" führt zu einer Lotusblume, die in der einschlägigen Literatur mit der "Glühbirnenfassung" verglichen wird. Schliesslich verläuft so etwas wie ein Kabel zu einem Kästchen, auf dem der Luftgott kniet. Bemerkenswert ist der Pavian mit zwei Messern in den Händen, die als "schützende und abwehrende Macht" oder als "Gefahr" gedeutet werden, ähnlich wie unser Symbol des Totenkopfes.

     

    Bagdad-Batterie

     

    http://de.wikipedia.org/wiki/Bagdad-Batterie

     

    baghdad battery - a battery of the ancient past?

     

    http://www.youtube.com/watch?v=STNh9n1B44M

     

     

    Schreibt hier bitte fachliches Wissen rein .... nicht was ihr glaubt zu wissen.

     

     

     

    Und Googel ist euer Freund

     

     

     

    MFG

     

    Bak

  19. Antriebe

     

     

    Von der Energieversorgung bis zur Bewaffnung stellte die Imperium-Klasse eine technische Meisterleistung dar. Hauptreaktor, Energiegenerator und Antrieb bildeten hier wie bei vielen imperialen Schiffen eine feste Einheit und lagen unmittelbar beieinander. Der annähernd kugelförmige Hauptreaktor mündete in den zylindrischen Generator, der direkt mit der Hauptantriebsturbine verbunden war und so das mittlere Ionentriebwerk versorgte. Ähnlich verhielt es sich mit den beiden danebenliegenden Systemen für die Steuerbord- bzw. Backbord-Hauptantriebsturbinen, die – vom Aufbau her fast identisch – etwas kleiner ausfielen. Für die Hilfsantriebssysteme der vier kleineren Zusatz-Schubdüsen gab es ebenfalls eigene Reaktoren und Generatoren, so dass ein Totalausfall der Energieversorgungs- und Antriebssysteme durch technisches Versagen nahezu ausgeschlossen werden sollte.

     

    Ionenantrieb

     

    Der Aufbau eines Ionentriebwerks.Der Ionenantrieb ist der wohl bekannteste Unterlichtantrieb, der in jedem Raumschiff der Galaxis installiert ist. Ionentriebwerke verursachen einen Schub, indem ein Strom geladener Teilchen (Ionen) mit hoher Geschwindigkeit durch eine Abgasröhre entgegengesetzt zur Flugrichtung ausgestoßen wird. Unter den vielen Arten und Versionen des Ionentriebwerks, ist eines am erfolgreichsten: Der Zwillings-Ionenantrieb (Twin Ion Engine, kurz: TIE), der durch die schnellen und wendigen TIE-Jäger bekannt wurde.

     

    Realität

     

    Der Ionenantrieb

     

    Der Ionenantrieb ist dem chemischen Antrieb nicht komplett ungleich. Auch hier wird ein ausgestoßener Strahl zur Fortbewegung genutzt: In diesem Fall ein Ionenstrahl.

     

    Diese Antriebe werden seit längerer Zeit in Raumsonden zur Lageregelung eingesetzt, aber erst seit 1998 als Primärantrieb. Damals startete Deep Space 1 als die erste mit Ionenantrieb ausgestattete Raumsonde. Die Mission war ein voller Erfolg. Jedoch befinden sich viele Konzepte dieser noch recht jungen Technologie in Entwicklung. Europa zog im Jahre 2003 nach und stattete die Mondsonde SMART–1 mit einem Ionenantrieb aus.

     

    Der Ionenstrahl besteht aus einem leicht ionisierbaren Gas. Hier sind zum Beispiel Ammoniak und Xenon geeignet. Das Gas wird beschleunigt und ausgestoßen. Dabei wird das Gas zunächst ionisiert. Dies geschieht meist durch ein "Elektronen-Bombardement" oder mittels Berührung einer heißen Metalloberfläche. Das ionisierte Gas kann dann in einem elktrischen Feld beschleunigt werden (zwischen 30 und 200 Kilometer pro Sekunde). Die thermische Barriere der Ausstoßgeschwindigkeit der Partikel kann hier um das Vielfache überschritten werden, während sie beim chemischen Antrieb bereits erreicht ist. Die zur Ionisierung nötige Energie muss von Solarzellen oder von einem Kernreaktor zugeführt werden. Jedoch ist der Kernreaktor eine umstrittene Energiequelle, vor allem dann, wenn die Raumsonde, die ihn verwendet, einige Swing-By Manöver an der Erde vornehmen soll. Solarzellen oder sonstige Energiequellen wiegen meist mehr als der Antrieb selbst.

     

    Ionisation heißt jeder Vorgang, bei dem aus einem Atom oder Molekül ein oder mehrere Elektronen entfernt werden, so dass das Atom oder Molekül als positiv geladenes Ion (Kation) zurückbleibt. Der umgekehrte Vorgang, bei dem ein Elektron von einem positiv geladenen Atom oder Molekül eingefangen wird, wird als Rekombination bezeichnet.

     

    Die Effektivität des Ionenantriebes hängt also zum großen Teil von der benutzten Energiequelle ab.

     

    VASIMR at Full Power

     

     

    Umsetzung

     

    Man unterscheidet beim Ionenantrieb zwischen sechs Arten:

     

    Elektrostatische Antriebe:

     

    Als Treibstoff wird hier ein Gas verwendet, das ein hohes Molekulargewicht hat, leicht verdampfbar und leicht ionisierbar ist. Alkalielemente wie Cäsium und Rubidium, Edelgase wie Xenon, Krypton sowie Quecksilber erfüllen diese Eigenschaften. Hier ist Xenon der absolute Favorit, weil es bereits gasförmig vorliegt. Das ionisierte Gas wird hier in einem elektrischen Feld beschleunigt. Hier wird ein Wirkungsgrad von 75 Prozent erreicht oder eine maximale Auströmungs-Geschwindigkeit von 40.000 Metern pro Sekunde.

     

    Elektrothermische Antriebe:

     

    Dieser Antrieb ist dem chemischen Antrieb am nächsten verwandt. Es findet keine Verbrennung statt, sondern der Brennstoff wird über einen Lichtbogen auf bis zu 20.000 Kelvin erhitzt. Auch hier erfolgt der Austritt über Düsen, ähnlich dem chemischen Antrieb. Die erreichbare Ausströmungs-Geschwindigkeit von 20.000 Metern pro Sekunde liegt hier um ein Vielfaches höher als bei chemischen Antrieben, bleibt aber in Vergleich zu anderen Elektrischen Antrieben deutlich zurück. Hier wird als Brennstoff sehr häufig Wasserstoff benutzt, da hier die höchsten Ausströmungs-Geschwindigkeiten erreichbar sind. Trotzdem bleibt der Wirkungsgrad mit maximal 20 Prozent relativ gering.

     

    Elektromagnetische Antriebe:

     

    Dieser Antrieb stellt die Weiterentwicklung des Elektrothermischen Antriebes dar. Allerdings wird das Plasma nicht über eine Düse herausgeleitet, sondern wird durch ein magnetisches Feld abermals beschleunigt. So lässt sich die Ausströmungs-Geschwindigkeit auf bis zu 70.000 Meter pro Sekunde steigern, der Wirkungsgrad wächst auf 50 Prozent.

     

     

    Das klassische chemische Triebwerk

     

    Die Rakete wie man sie sich vorstellt, erhitzt durch Verbrennung ein Gas in einer Brennkammer. Die unter hohem Druck stehenden Verbrennungsgase können die Brennkammer nur in einer Richtung durch eine Düse verlassen. Dies tun sie mit hoher Geschwindigkeit, bis über 4 Kilometer pro Sekunde, wenn Sauerstoff und Wasserstoff verbrannt werden.

     

    Das Ionentriebwerk

     

    Der spezifische Impuls des Triebwerks liegt mit 30'000 m/s nun wesentlich höher als bei allen chemischen Triebwerken. Auch hier ist der Schub mit 0.092 Newton bescheiden ( das ist der Druck den 1 DN 4 Blatt auf deine Hand ausübt ).

     

    Das Triebwerk muss deshalb anderthalb Jahre arbeiten (14'000 Stunden).

     

    Das schnellste von menschenhand Objekt

     

    Nun entfernt sich die " New Horizons " inzwischen mit einer Geschwindigkeit von

    83.600 Kilometern pro Stunde von der Sonne.

     

     

    Ausblick

     

    Die Perspektiven des Ioneantriebes sind gut. Die bisher entwickelten Antriebe können erst als Basis des Potenzials angesehen werden. In Zukunft werden viele Raumsonden mit diesem Antrieb ausgestattet sein, sobald das Handicap mit dem geringen Schub aus der Welt geschafft ist. Leider ist er nicht für alle Missionen geeignet, da er erst auf langen Distanzen sein Potenzial ausspielen kann und so ist die Mondsonde SMART 1 vielleicht nicht gerade die beste Prüfung für diesen Antrieb. Außerdem ist im äußeren Sonnensystem die Sonneneinstrahlung schon so gering, dass mit heutigen Solarpaneelen kaum genug Energie erzeugt werden kann. Der elektrische Antrieb hat sicher beste Aussichten, das Erbe des chemischen Antriebes anzutreten...

     

     

     

    Ion drive vs. chemical rocket

     

     

    MFG

     

    Bak

  20. Strahlungsarten

     

     

    Ich habe letztens ein paar folgen Star Trek gesehen und ich fragte mich mal wieder .... Was könnte daran stimmen ?

     

    In einigen Folgen werden folgende Strahlungsarten genannt....

     

     

    Strahlungen

     

     

    Radioaktive Strahlungen

     

    Antimateriestrahlung

    Alphastrahlung

    Betastrahlung

    Deltastrahlung Fake

    Epsilonstrahlung Fake

    Gammastrahlung

    Hyperonische Strahlung Fake

    Ionenstrahlung

    Ionisierende Strahlung

    Neutronenstrahlung

    Protonenstrahlung

     

     

    Über Licht kommt moch was ....

     

    Radiowelle

    Infrarotstrahlung

    Licht

    Ultraviolette Strahlung

    Röntgenstrahlung

    Gammastrahlung

     

    Subraumstrahlung

     

    Chronitonstrahlung Fake

    Delta-Band-Strahlung Fake

    Geodätische Strahlung Fake

    Tachyonstrahlung

    Tetryonstrahlung Fake

    Thetabandstrahlung Fake

     

    sonstige Strahlungen

     

    Bertholdstrahlung Fake

    Eichnerstrahlung Fake

    Gravimetrische Strahlung Fake

    Gravitonstrahlung Möglich

    Kriegerwelle Fake

    Metaphasische Strahlung Fake

    Neurogene Strahlung Fake

    Omicronstrahlung Fake

    Polaronstrahlung

    Subnukleonische Strahlung Fake

    Subraummetreonstrahlung Fake

    Temporale Strahlung Fake

    Thalaronstrahlung Fake

    Thermionische Strahlung Fake

    Thoronstrahlung Fake

    Triolische Welle Fake

     

    Energieimpulse

     

    Chromoelektrischer Impuls Fake

    EMP

    Gravitonpuls Möglich

    Ionenimpuls Möglich

    Kedionimpuls Fake

    Magnetonimpuls

    Solitonpuls

    Subraumdifferenzialimpuls Fake

    Subraumfeldimpuls Fake

    Tachyonimpuls Fake

     

    Was es gibt / was möglich ist.

     

    Antimateriestrahlung

     

    Antiteilchen und auch Antimaterie-Atome lassen sich in Paarbildungsreaktionen mittels Teilchenbeschleunigern erzeugen. Mit wesentlich kleinerem Aufwand können Positronen durch Herstellung beta-plus-aktiver Radionuklide gewonnen werden. Diese Positronenstrahlung hat wichtige Anwendungen in der Medizin.

     

    Bei einer kollision von Materie / Antimaterie entsteht immer Gammastrahlung.

     

    Alphastrahlung

     

    Alphastrahlung oder α-Strahlung ist ionisierende Strahlung, die bei einem radioaktiven Zerfall, dem Alphazerfall, auftritt. Ein radioaktives Nuklid, das diese Strahlung aussendet, wird als Alphastrahler bezeichnet. Es handelt sich um eine Teilchenstrahlung. Der zerfallende Atomkern sendet einen Helium-4-Atomkern aus, der in diesem Fall Alphateilchen genannt wird.

     

    Betastrahlung

     

    Betastrahlung oder β-Strahlung ist eine ionisierende Strahlung, die bei einem radioaktiven Zerfall, dem Betazerfall, auftritt. Ein radioaktives Nuklid, das Betastrahlung aussendet, wird als Betastrahler bezeichnet.

     

    Gammastrahlung

     

    Gammastrahlung – auch γ-Strahlung geschrieben – ist im engeren Sinne eine besonders durchdringende elektromagnetische Strahlung, die beim Zerfall der Atomkerne vieler natürlich vorkommender oder künstlich erzeugter radioaktiver Nuklide entsteht.

     

    Ionenstrahlung

     

    Ionenstrahlung` besteht aus schnell bewegten Ionen, also Atomen oder Molekülen, die nicht ihre gewöhnliche Zahl an Elektronen besitzen und daher elektrisch positiv oder negativ geladen sind.

     

    Ionisierende Strahlung

     

    Ionisierende Strahlung ist eine Bezeichnung für jede Teilchen- oder elektromagnetische Strahlung, die aus Atomen oder Molekülen Elektronen entfernen kann, so dass positiv geladene Ionen oder Molekülreste zurückbleiben (Ionisation).

     

    Neutronenstrahlung

     

    Da Neutronen elektrisch neutral sind, hat Neutronenstrahlung in Materie eine hohe Durchdringungskraft, ähnlich wie Gammastrahlung. Der ionisierende Effekt entsteht indirekt, meist durch Anstoßen von leichten Atomkernen bzw. deren Bestandteilen (z. B. Protonen), die dann ihrerseits ionisierend wirken.

     

    Protonenstrahlung

     

    Protonen sind geladene Teilchen, die in einem Teilchenbeschleuniger aus Wasserstoffgas gewonnen und am RPTC in elektromagnetischen Feldern auf bis zu 60 Prozent der Lichtgeschwindigkeit (180.000 km/Sekunde) beschleunigt werden. Sie erreichen dadurch eine maximale Eindringtiefe in den Körper von bis zu 38 Zentimetern. Mit Hilfe von starken Magneten werden die Strahlen millimetergenau auf den Tumor gelenkt. Die Protonentherapie kann bei allen Krebserkrankungen eingesetzt werden

     

    Gravitonstrahlung

     

    Wenn z.B. zwei schwarze Löcher verschmelzen, dann gibt es eine Gravitationswelle. Diese als Strahlung zu bezeichnen .... na ja ...

     

    EMP

     

    Ein elektromagnetischer Puls, abgekürzt EMP, bezeichnet einen einmaligen kurzzeitigen, hochenergetischen, breitbandigen elektromagnetischen Ausgleichsvorgang. Es handelt sich dabei nicht um ein periodisches (pulsierendes) Ereignis, sondern um einen transienten Vorgang mit der wesentlichen Eigenschaft, in sehr kurzer Zeit auf einen bestimmten Maximalwert anzusteigen und dann vergleichsweise langsam auf den stationären Ruhewert abzufallen.

     

    Solitonpuls

     

    Ein Soliton ist ein Wellenpaket, welches sich durch ein dispersives und zugleich nichtlineares Medium bewegt und sich ohne Änderung seiner Form ausbreitet. Kommt es bei einem Zusammenstoß mit gleichartigen Wellenpaketen zu einer Wechselwirkung, bei der Energie ausgetauscht wird, so handelt es sich hierbei um eine solitäre Welle. Tritt kein Energieaustausch ein, so handelt es sich um ein Soliton.

     

    Polaronstrahlung

     

    Die Polaronen bezeichnen spezielle Quasiteilchen in Theorien der Deformation eines Kristalls.

    Wenn sich Elektronen durch einen Kristall bewegen, erzeugen sie, auf Grund ihrer elektrischen Ladung, in ihrer Umgebung eine Polarisation. Die benachbarten Elektronen werden wegen der Abstoßung gleichnamiger Ladungen etwas zurückgedrängt, die benachbarten positiven Atomrümpfe dagegen angezogen.

     

    Diese Polarisationswolke bewegt sich zusammen mit dem Elektron und bewirkt eine Erhöhung der effektiven Masse, besonders in sog. polaren Kristallen (z. B. mit unterschiedlichen Ionenladungen). Den Deformationen, die auf diese Weise erzeugt werden, ordnet man in theoretischen Annahmen selbstständige Quasiteilchen zu, die man Polaronen nennt.

     

    Magnetimpuls

     

    In der Uniklinik Göttingen setzen Forscher die Gehirne freiwilliger Versuchspersonen starken Magnet-Impulsen aus, um sie beim Denken zu stören. Auf diese Weise erfahren die Forscher, welche Hirnregion an welchen Denkprozessen beteiligt ist.

     

    Tachyonen als theoretische Möglichkeit

     

    Olexa-Myron Bilaniuk, Deshpande und E. C. G. Sudarshan wiesen 1962 darauf hin, dass es für die Gleichungen der speziellen Relativitätstheorie mehrere Lösungsmöglichkeiten gibt . Eine davon entspricht der ganz normalen Materie, die sich mit Unterlichtgeschwindigkeit bewegt. Eine andere würde Teilchen erlauben, die sich ständig mit Überlichtgeschwindigkeit bewegen und niemals bis auf Lichtgeschwindigkeit abgebremst werden können. Die Tatsache allein, dass es diese mathematische Lösungsmöglichkeit für die Gleichungen gibt, bedeutet jedoch nicht, dass Tachyonen auch real existieren müssen.

     

    Für diese Einteilung von Teilchen in drei Klassen fand Gerald Feinberg (1967) folgende Wortprägungen:

     

    Tardyonen Teilchen, die sich stets langsamer als mit Lichtgeschwindigkeit durch den Raum fortbewegen.

     

    Luxonen Teilchen, die sich stets mit Lichtgeschwindigkeit durch den Raum fortbewegen.

     

    Tachyonen Teilchen, die sich stets schneller als mit Lichtgeschwindigkeit durch den Raum fortbewegen.

     

    Davon hat sich aber nur der Name Tachyon durchgesetzt. Bei ansteigender Geschwindigkeit eines Tachyons verliert es Energie. Geht die Energie gegen 0, wird seine Geschwindigkeit sogar unendlich (transzendenter Zustand). Bei Tardyonen hingegen muss Energie hinzugefügt werden, um eine Geschwindigkeitssteigerung hervorzurufen.

     

    Tscherenkow-Strahlung

     

    Tscherenkoweffekt (idealer Fall ohne Dispersion)

    Tscherenkow-Effekt im Reed Research Reactor, Portland (Oregon)Im weiteren Sinn wird darunter die Strahlung verstanden, die entsteht, wenn sich geladene Teilchen in Materie mit höherer Geschwindigkeit als der Phasengeschwindigkeit elektromagnetischer Wellen in diesem Medium bewegen, wobei dann allgemeiner vom Tscherenkow-Effekt gesprochen wird. So beträgt die Lichtgeschwindigkeit in Wasser 225.000.000 m/s im Vergleich zu 299.792.458 m/s im Vakuum

     

    Kosmische Strahlung

     

    Die Kosmische Strahlung ist eine hochenergetische Teilchenstrahlung aus dem Weltall, die von der Sonne, der Milchstraße und von fernen Galaxien kommt. Sie besteht vorwiegend aus Protonen, daneben aus Elektronen und vollständig ionisierten Atomen. Auf die äußere Erdatmosphäre treffen zirka 1000 Teilchen pro Quadratmeter und Sekunde. Durch Wechselwirkung mit den Gasmolekülen entstehen Teilchenschauer mit einer hohen Anzahl von Sekundärteilchen, von denen aber nur ein geringer Teil die Erdoberfläche erreicht.

     

    Die galaktische kosmische Strahlung besteht ungefähr zu 87 % aus Protonen, 12 % Alpha-Teilchen (Heliumkerne) und 1 % schwereren Atomkernen.

     

    Teilchenschauer

     

    Kosmischer TeilchenschauerBeim Eintreten in die Erdatmosphäre in einer Höhe um 20 km über der Oberfläche erzeugt die kosmische Strahlung Teilchenschauer. Aus einem Proton der Energie von 10 hoch 15 eV entstehen mehr als eine Million Sekundärteilchen. Nur ein kleiner Teil von ihnen erreicht auch die Erdoberfläche.

     

    Schauertypen

     

    Der Beginn eines elektromagnetischen Schauers

     

    Es gibt zwei Grundtypen von Teilchenschauern. Elektromagnetische Schauer werden durch Teilchen erzeugt, die hauptsächlich oder ausschließlich durch die elektromagnetischen Kräfte wechselwirken. Dies sind normalerweise Photonen oder Elektronen.

     

    Hadronische Schauer werden durch Hadronen erzeugt. Dies sind z.B. Nukleonen und andere Teilchen, die aus Quarks bestehen. Sie wechselwirken größtenteils durch die Starke Kernkraft.

     

    Myon

     

    Das Myon ist ein Elementarteilchen, das dem Elektron ähnelt, jedoch eine deutlich höhere Masse (105,6 MeV/c2 statt 0,511 MeV/c2) aufweist. Wie das Elektron ist es mit einer Elementarladung negativ geladen und besitzt einen halbzahligen Spin. Beide unterliegen der elektroschwachen, nicht aber der starken Wechselwirkung.

     

    Pion

     

    Als Pionen, auch π-Mesonen, werden in der Teilchenphysik die leichtesten Mesonen bezeichnet. Da sie nach dem Standardmodell aus 2 Quarks aufgebaut sind, werden sie meist nicht mehr als Elementarteilchen bezeichnet. Aufgrund dieser Zusammensetzung sind Pionen wie alle Mesonen Bosonen mit ganzzahligem Spin. Weiterhin besitzen Pionen eine negative Parität.

     

    Neutrinostrahlung

     

    Neutrinos sind elektrisch neutrale Elementarteilchen mit sehr kleiner Masse. Im Standardmodell der Elementarteilchenphysik existieren drei Neutrinos: das Elektron-Neutrino, das Myon-Neutrino und das Tau-Neutrino.

     

    In Stößen der Neutrinos mit Materie finden, anders als bei den anderen bekannten Elementarteilchen, nur Prozesse der schwachen Wechselwirkung statt. Ein Strom von Neutrinos geht daher auch durch große Schichtdicken – z. B. durch die ganze Erde – fast ungeschwächt hindurch. Entsprechend schwierig ist der Nachweis von Neutrinos in Experimenten.

     

    Hawking-Strahlung

     

    Diese Strahlung wird aus Konzepten der Quantenfeldtheorie und der Allgemeinen Relativitätstheorie abgeleitet. Das Phänomen ist noch nicht vollständig untersucht und Gegenstand aktueller Forschung. Der Hawking-Effekt ist von Interesse, da er als potentielles Testfeld für eine quantenmechanische Theorie der Gravitation dienen könnte.

     

    So das wars erst mal ... falls euch noch andere Strahlungsquellen einfallen sollten oder hier was falsch ist bitte meldet euch

     

    MFG

     

    Bak

  21. Erst mal ....Danke für die

     

     

    10.000

     

    Klicks ...und das ihr hier regelmäßir reinschaut.....

     

    Hi Yaglan

     

    Oder bleiben wir mal bei unseren Sonnensystem. Die Sonne soll ich paar Millarden Jahren sich ausdehnen. bevor sie Explodiert. Das sowas passieren kann das habe ich akteptiert. Nur wann es geschen soll das kann man nicht messen. Dafür fehlt uns noch die Technik

     

    Das ist leider nicht ganz richtig...

     

    In einer einzigen Sekunde wandelt sie 657 Millionen Tonnen Wasserstoff in 653 Millionen Tonnen Helium um.

     

    Die Lebensdauer der Sonne lässt sich vorherberechnen. Wir kennen ihre Größe und Masse (in Kilogramm eine 2 mit 30 Nullen hintendran) und ihren Brennstoffvorrat (73% Wasserstoff). Wir können auch herausfinden, wieviel Energie sie ständig abgibt (eine 4 mit 26 Nullen in Watt pro Sekunde!). Aus diesen Angaben lässt sich errechnen, wann sie ihren Vorrat an Wasserstoff aufgebraucht haben wird. Die Sonne ist derzeit etwa in der Lebensmitte. 4,5 Milliarden Jahre gibt es sie mindestens schon, und ebenso lange wird es von jetzt ab dauern, bis sie keinen Wasserstoff mehr hat und erlischt.

     

    MFG

     

    Bak

  22. Energiequellen

     

     

     

    Was haben wir in diesem Universum denn als mögliche Energieträger ?

     

    Zu den primären Energieträgern zählen

     

    fossile Energieträger (Erdöl, Kohle, Erdgas)

    regenerative Energieträger (Sonnenstrahlung, Wasserkraft, Windkraft, Erdwärme, Biomasse, usw.)

    nukleare Energieträger (Uran, Plutonium, Animaterie)

     

    im weiteren Sinne auch:

     

    Nahrungsmittel

    Futtermittel

     

    Sekundäre Energieträger können zum Beispiel sein

     

    elektrische Ladung

    elektrisches Feld

    magnetisches Feld

    elektromagnetische Welle

    elektromagnetische Strahlung

    Treibstoff

    Sprengstoff

    Druckluft

    Wasserstoff

     

    Das sind alle es gibt nicht mehr, da wir ja alle Elemente im Universum kennen und was wir mit ihnen anstellen können.

     

    Sehen wir uns das nun genauer an.

     

    In einer Folge mit dem Lesch, da sagt er das Würmlöcher eine theoretische Größe von 10 hoch minus 33m haben

     

    Mit was kann ich so etwas beeinflussen ?

     

    Ein Wasserstoffatom ist 10 hoch -11m zu gross

     

    fossile Energieträger (Erdöl, Kohle, Erdgas) sind Molekühle, zu groß

    regenerative Energieträger (Sonnenstrahlung, Wasserkraft, Windkraft, Erdwärme, Biomasse, usw.) zu groß

    nukleare Energieträger (Uran, Plutonium, Antimaterie) mehr als ein Proton, zu groß

     

    Treibstoff zu groß

    Sprengstoff zu groß

    Druckluft zu groß

     

    elektrische Ladung Elektron ist 10 hoch - 18m zu groß

     

    Kleinste Wellenlänge ist die Gammastrahlung die ist 10 hoch -12m, daher fallen alle anderen auch weg

     

    elektrisches Feld

    magnetisches Feld

    elektromagnetische Welle

    elektromagnetische Strahlung

     

    So nun zu den miniatur schwarzen Löchern als Energieträger

     

    Diese Minilöcher geben Hawkingstrahlung ab und verdampfen dann.

     

    Weiterhin können die entstandenen Teilchen/Antiteilchen-Paare im Rahmen ihrer Annihilation Photonen abstrahlen, die ebenfalls in den freien Raum entkommen können, wie z. B. im Falle der Annihilation von Elektronen und Positronen, die in diesem Falle 2 um 180 Grad versetzte Gamma-Quanten mit je 511 keV abgeben. Auf diese Weise entsteht ein Netto-Energiestrom vom Schwarzen Loch weg, sodass insgesamt Masse bzw. Energie aus dem Schwarzen Loch in den freien Raum „verdampft“.

     

    Elektronenvolt sagt einen nicht viel....

     

    Als Vergleich:

     

    Die Spaltprodukte einer Kernspaltung haben eine Bewegungsenergie von zusammen etwa 200 MeV. Ein typisches Molekül in der Atmosphäre hat eine Bewegungsenergie (thermische Energie) von etwa 0,03 eV. Die Photonen von sichtbarem Licht (rot) haben eine Energie von etwa 2 eV. Im LHC am CERN ist geplant, Protonen mit einer Energie von 14 TeV und Bleikerne mit 1146 TeV miteinander kollidieren zu lassen.

     

    Die Energie eines einzelnen Kerns mit ca. 2 µJ bzw. 180 µJ ist dabei immer noch sehr gering (der Energiewert einer Tafel Schokolade mit 2200 kJ entspricht dem 1,1-Billionen- bzw. 12-Milliardenfachen).

     

    Berücksichtigt man aber die große Anzahl der Teilchen (1,15 × 1011 Protonen pro Puls, im Ring des LHC befinden sich bis zu 2808 Pulse ) kommt ein einzelner Puls mit 258 kJ schon nah an die Tafel Schokolade heran. Die Gesamtenergie der im Ring befindlichen Protonen übersteigt diese mit 724 MJ bei weitem.

     

    Energieverbrauch LHC - Cern

     

    Verbrauch nach Wintershutdown: 35 MW

    max. Energieverbrauch LHC: 700 GWh

    max. Energieverbrauch LHC + Inrastruktur: 1000 GWh

     

    Und falls es jemals doch funktionieren sollte aus einem schwarzen Loch Energie zu gewinnen, wer will das schon. Dagegen ist doch Kernenergie, wie spielen mit Murmeln.

     

    Ich bin zwar kein Physiker, aber ich kenne wirklich keinen Weg aus sowas Energie zu gewinnen.

     

    Zum Beispiel....

     

    Wenn ich ein theoretisches Wurmloch beeinflussen will, müsste ich anfangs Energie haben

    die ich darauf richten kann. Wir haben aber keine Energiequelle die so winzig gepunkted werden kann.

    Mann könnte es sich so vorstellen das ein Braunkohlebagger versucht einen Faden in ein Nadelöhr einzufädeln versucht.

     

    Braunkohlebagger

     

    http://www.greenpeace-aachen.de/archiv/energie/bilder/klima-braunkohle-bagger.jpg

     

    MFG

     

    Bak

  23. Mit Antimaterie zu den Sternen

     

     

    Antimaterie

     

    Ein Kilogramm Anti-Materie und ein Kilo Materie würden eine Energie freisetzen, die dem jährlichen Output von 500 Atomkraftwerken ( ein A - Kraftwerk ca.Leistung von 1600 MW ) oder der Sprengkraft von 4.200 Megatonnen TNT entspricht. ( Zar Bombe ca. 40-50 Megatonnen)

     

    Die Annihilation einer gegebenen Masse von 50 % Materie + 50 % Antimaterie würde über 100-mal so viel Energie freisetzen wie die Reaktion einer gleich großen Masse von Fusionsreaktor-Brennstoff.

     

    Für einen Flug zum Mars hin und zurück wären nur etwa 0,1 Gramm Antiprotonen nötig,

     

    In Cern werden zwar 50.000 Antiprotonen pro Durchlauf hergestellt, das ist aber bei weiten noch nicht 0,1 Gramm. Wir erinnern uns... 1 Sandkorn hat ca. 300,000 Atome im Querschnitt.

     

    Bei diesen Kollisionen treffen übrigens etwa 20 Protonen aus einem Paket von 10 hoch 11 Protonen auf 20 Protonen eines gegenläufigen Paktes. Und das alle 25 Nanosekunden – denn so lange dauert es, bis das nächste der 2.808 Pakete (115 Milliarden Protonen pro Paket) vorbeikommt. Das heisst nicht das jedes Paket trifft. Aber dennoch ganz schön viel.

    Nur wie bremse ich das ganze wieder ab und fange die Antiteilchen ein ?

     

    CERN hat einen Verbrauch für das Jahr 2009 von 1200 GWh oder 1200 Mio kWh = das entspricht dem Stromverbrauch von etwa 400.000 Zweipersonenhaushalten im Jahr

    Da die Strompreise aufgrund des erhöhten Heiz- und Lichtbedarfs der Bevölkerung im Winter erheblich höher ausfallen als im Sommer, wird der LHC Betrieb während dieser Zeit üblicherweise eingestellt. Dieser jährliche Wintershutdown dauert jeweils von November bis Mai.

     

    Durch die Detektion der Teilchenschauer wird pro Jahr eine Datenmenge von 15 Petabytes (=15 Millionen Gigabytes) generiert.

     

    Um aber die Anlage hochzufahren benötigt mann alleine 2 Std.

     

    Eine anschauliche Umrechnung der Energie, die hinterher in einem vollbesetzten LHC-Ring steckt, ergibt: Eine startende Boeing 747 (300 t, 300 km/h) kommt auf 1000 MJ, im LHC sind etwa 750 MJ gespeichert. Nur dass die Boeing um einiges größer ist und die Energie im Strahl des LHC auf den Bruchteil der Masse eines Sandkorns verdichtet ist.

     

    Was passiert wenn mich 1 Atom treffen würde ?

     

    Das wäre ungefähr die Kinetische Energie von einem vollbeladenen 40 Tonner LKW der euch frontal trifft, bei einer Geschwindigkeit von 80 km/h

     

     

    Als eine Energiequelle wird künstlich erzeugte Antimaterie nie genutzt werden können: Für die Erzeugung wird immer mindestens so viel Energie benötigt, wie die Vernichtung wieder freisetzt. Aus technischen Gründen läge außerdem der Wirkungsgrad bei der Erzeugung unter 100%.

     

    Der Gesamtenergieverbrauch pro Jahr in Deutschland liegt bei gerade mal 15 PJ, das würde bedeuten das man um 1 kg Antimaterie herzustellen, (bei einer Effizienz von 100%) sogar den Gesamtenergieverbrauch Deutschlands von 6 Jahren benötigen würde.

     

     

    Dann ist da noch die Ökonomie. In wie weit lohnt es sich Antimaterie herzustellen ?

    Wir haben da einen Faktor von 1 zu 10.000. Das heisst....

     

    Nehmen wir mal 1 Antimaterie Atom in unseren Tank und kommen damit 100 km weit ( nur mal angenommen) . Mit herkömmlichen Energieträgern würde ich 10.000 mal so weit kommen also 1.000.000 km. Daher ist es noch nicht rentabel Antimaterie herzustellen.

     

    Habe nochmal ein wenig nachgeforscht um das ganze in realen Zahlen zu bringen....

     

    Die Herstellung eines Milligramms Antimaterie würde mit heutiger Technik rund 100 Milliarden Dollar kosten - etwa 10.000-mal zu viel, um für kommerzielle Anwendungen interessant zu sein.

     

    Nach einigen recherchen glaube ich, dass der Faktor 10.000 viel zu klein ist ,für die Berechnung der Unkosten, zu der Herstellung für Antimaterie .

     

    P.S. Vielen Dank für das Lob...liest man immer gerne ;)

     

    MFG

     

    Bak

  24. Hi RathisXD

     

    14x im Lottogewinnen und das auch noch hintereinander: (1/139.838.160,0)^14 (hoch 14) ---> einfache Baumdiagrammrechnung: man multipliziere die wege mit einander nicht addieren.

     

    Danke für die Verbesserung :p

     

     

    ansonsten schöner beitrag bis auf den ufo schwachsinn.

     

    Was genau da ?... Aber ich muss es bringen ... um zu zeigen was möglich ist und was nicht .

     

    Und danke für das Lob :p

     

    MFG

     

    Bak

×
×
  • Create New...