Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News 12VHPWR-Stecker: Überlasteter Steckverbinder auch ohne Adapter möglich
- Ersteller Hibble
- Erstellt am
- Zur News: 12VHPWR-Stecker: Überlasteter Steckverbinder auch ohne Adapter möglich
BOBderBAGGER
Fleet Admiral
- Registriert
- Feb. 2008
- Beiträge
- 15.454
Wenn man mit einer 4090 FE alles richtig macht wird es auch nicht so wild sein, ein Boardpartner Karte mit einer Höheren TBP, ausgenudelte Stecker, falsch verlegte Kabel und eine hohe dauerlast über stunden hinweg und schon kann es durchaus heiß werden.
Arcturus128
Captain
- Registriert
- Apr. 2015
- Beiträge
- 3.816
Was denkst du was sonst so alles in der EU verkauft wird? 😆Piranha771 schrieb:Nur eine Frage der Zeit bis wir die ersten toten wegen abgefackelter Buden haben. Sowas sollte keine Zulassung in der EU bekommen.
LTCMike
Cadet 4th Year
- Registriert
- Nov. 2017
- Beiträge
- 115
wenn ich die vorher angegebene FAQ von NVIDIA zu ihrer neuesten Kreation so durchsehe, fallen da schon einige "Marketing-Moves" auf, die m.M.n. nicht so "unwild" sich gestalten, ich zitiere aus deren FAQ:BOBderBAGGER schrieb:Wenn man mit einer 4090 FE alles richtig macht wird es auch nicht so wild sein, ein Boardpartner Karte mit einer Höheren TBP, ausgenudelte Stecker, falsch verlegte Kabel und eine hohe dauerlast über stunden hinweg und schon kann es durchaus heiß werden.
Da hat jemand ganz in guter Politiker-Manier m.M.n. gar nicht die Frage beantwortet, die sich nämlich bzgl. ATX2 Spec richtet und in der Antwort wird stumpf auf die ATX 3 Spec verwiesen - denn mir ist hier rätselhaft, wie der neue Stromanschluss auf den 4000er Karten "smart" etwas mit einer PSU-Kategorie bzgl. Leistungsbedarf "aushandeln" will, die gar nicht über einen entsprechenden Signalkanal verfügt. Es sei denn, dass das technisch so ausgelegt wäre, dass ohne den passenden Signalkanal nur eine Minimalleistung abgerufen wird ...Are the RTX 40 Series Adapters “smart” enough to interface with a ATX 2.0 PSU and appropriately regulate the power to the GPU?
Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec.
das ist schon fast witzig: wenn also die PSU 4x PCI-E für den Strom der Grafikkarte anbietet und deshalb alle 4 verbunden werden, darf die "intelligent" per Adapter verkabelte GPU a la NVIDIA also mehr Leistung ziehen - bleibt nur wieder die Frage: woher will die Karte wissen, was eine ATX2-PSU so auf ihren ggf. mehreren Rails für den jeweiligen PCI-E-Anschluss verfügbar hat bzw. aktuell leisten kann?What’s a ‘smart’ power adapter?
The adapter has an active circuit that detects and reports the power capacity to the graphics card based on the number of 8-pin connectors plugged in. This enables the RTX 4090 to increase the power headroom for overclocking when 4x 8-pin connectors are used versus 3x 8-pin connectors.
das wird bei aktuellen Gehäusebreiten und der eh schon deutlich erhöhten Bauhöhe der neuen Generation von GPUs sicher spannend, ob dann so mancher nicht ein extra Loch in seine Gehäuse-Seitenwand fräsen muss oder wir erleben bald wieder Gehäuse-Verkleidungen mit einem seitlichen "Turbo-Buckel", in dem aber dann kein zusätzlicher Seitenwandlüfter steckt sondern nur der Platz für die Biegeradien der Verkabelung gelassen wird - und auch bei einigen sich abzeichnenden 3,5 Slot Custom-Designs wird es abhängig vom Towergehäuse sicher bei so manchem spannend im verfügbaren Restraum zwischen der Grafikkarte und dem Netzteil darunter noch genug Luft zu haben (bzw. vllt. kommen dann ganz nach alter Turbositte da dann auch Ansaugtrichter für Frischluft zum Einsatz).If I bend the RTX 40 Series adapter will it cause issues with the connection between my PSU and GPU?
The adapter has been proven to work in a wide variety of conditions. Please follow our compatibility diagram: plan a minimum of 1.4” or 36mm clearance above the top of the graphics card for cable bend and airflow clearance.
Zuletzt bearbeitet:
(Typos bereinigt)
Leereiyuu
Lieutenant
- Registriert
- März 2020
- Beiträge
- 584
Ich frage mich seit gefühlt Ewigkeiten woher dieser Unfug kommt: Seit wann rechtfertigt der Kauf eines teuren Produkts damit zusammenhängende, sinnlose, weitere Geldausgaben? Das ist einfach ekelhaftes Neid-Denken.Verak Drezzt schrieb:wer sich eine 2000€ aufwärts 4090 leistet
Welche Zulassung?Piranha771 schrieb:. Sowas sollte keine Zulassung in der EU bekommen.
Glaubst du jedes Produkt muß erst einmal zugelassen werden?
Umd nein CE verlangt bei Netzteilen keine Prüfung (ausser vielleicht im Medizinischen Bereich).
Keine Ahnung wie es bei anderen ist - mit Neid hat es bei mir nichts zu tun.Leereiyuu schrieb:Seit wann rechtfertigt der Kauf eines teuren Produkts damit zusammenhängende, sinnlose, weitere Geldausgaben? Das ist einfach ekelhaftes Neid-Denken.
Wer eine 4090 kauft weiß doch vorher, dass sie 12HPRW haben und extreme Anforderungen an das NT stellen.
Wie hätte es denn sonst gelöst werden sollen. Man erwartet Topleistung die eben nur noch (zumindest bei 4090) mit extremen Strombedarf erreicht werden kann.
Klar ist es nicht schön wenn man dann auch noch ein neues NT braucht. Kommt aber weder überraschend noch kann man ohne 4090 den Rechner nicht mehr benutzen.
Von daher würde ich sagen sagen wer sich eine 4090 leisten will muß sich dann eben auch ein NT dazu leisten können.
Ergänzung: Rein logisch betrachtet. Auf wen ist man eher neidisch - jemand der seine letzten Euros zusammenkratzt um sich eine 4090 zu leisten und am NT zu knabbern hat oder auf jemand der einfach die Schultern zuckt und sagt mir doch egal kauf ich eben noch ein neues NT - ich habs ja ?
Zuletzt bearbeitet:
- Registriert
- Nov. 2020
- Beiträge
- 533
Eigentlich ist die Antwort sogar sehr klar:LTCMike schrieb:Da hat jemand ganz in guter Politiker-Manier m.M.n. gar nicht die Frage beantwortet, die sich nämlich bzgl. ATX2 Spec richtet und in der Antwort wird stumpf auf die ATX 3 Spec verwiesen
"Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec."
Und hier bezieht man sich auf die PCIe Gen5 specs. Es interagiert gemäß den Specs. So lese ich das.
Wenn ich das noch richtig im Kopf habe, dann schreibt NV dazu, dass es um die 450 Watt der 4090 geht und dazu setzt NV ein Netzteil mit min. 850 Watt voraus.LTCMike schrieb:bleibt nur wieder die Frage: woher will die Karte wissen, was eine ATX2-PSU so auf ihren ggf. mehreren Rails für den jeweiligen PCI-E-Anschluss verfügbar hat bzw. aktuell leisten kann?
Auch steht den FAQs, dass sie diesen Adapter mit unterschiedlichsten Netzteilen getestet haben.
Ich denke, die haben ihre Hausaufgaben schon gemacht. Schließlich ist es ja ganz offiziell auf ihrer eigenen Seite zu finden - wenn da mal was passieren sollte, müssten sie (in meinem Verständnis) auch dafür haften.
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.671
Kann ich direkt widersprechen. Gibt genug Leute die einfach genug Geld haben und sich wie schon immer einfach das Neuste gekauft haben, Geld spielt dabei keine Rolle.cloudman schrieb:Wer eine 4090 kauft weiß doch vorher, dass sie 12HPRW haben und extreme Anforderungen an das NT stellen.
Das heist aber nicht automatisch das diese Leute technisches Verständnis haben, vorher war alte Karte raus Neue rein und genauso werden die das auch diesmal machen, vielleicht dann mit ner bösen Überraschung.
Bisher ging das meist auch gut weil diese Leute eh meist überdimensionierte Systeme hatten aber diesmal ist es ja etwas spezieller.
LTCMike
Cadet 4th Year
- Registriert
- Nov. 2017
- Beiträge
- 115
Nochmal, die Frage in der selbgestrickten NV-FAQ lautet eben "Are the RTX 40 Series Adapters “smart” enough to interface with a ATX 2.0 PSU and appropriately regulate the power to the GPU?" und die Antwort bezieht sich auf ATX3 Spezifikationen.Gesualdo schrieb:"Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec."
Und hier bezieht man sich auf die PCIe Gen5 specs. Es interagiert gemäß den Specs. So lese ich das.
Eine ATX2.0 PSU hat schlicht keinerlei Signal- oder Datenleitungen auf den herkömmlichen 6 bzw. 8-Pin PCI-E-Anschlüssen, um hier irgend etwas zu "regeln"; diese Sense-PINs im 12VHPWR-Stecker-Kabel-Konglomerat sorgen auch nicht für eine ausgefeilte Datenverarbeitung von Leistungsdaten, sondern geben für die Grafikkarte, abh. davon wie die 2 Pins gegen Masse geschaltet werden oder offen sind, den maximalen Leistungshunger frei.
Hier "drückt" sich NVIDIA deshalb m.E. ziemlich unseriös vor einer realistischen Antwort, die m.E lauten müsste, dass der Anwender bei Verwendung der 3- oder 4-fach PCI-E Adapter selbst zusehen muss, ob seine Anschlüsse des ATX2-NT genug Leistung bereitstellen können, wenn es nicht über den 12VHPWR-Anschluss nebst ATX-3-Spezifikation verfügt. Für alles weitere setzt man dann einfach auf funktionierede OC-Protection der PSU.
auch hier s.o.: ein ATX2-NT kann mit der Grafikkarte über einen 6 oder 8-Pin PCI-E keine Informationen zu seiner Leistungsfähigkeit des korrespondierenden Anschluss austauschen und sich oder die Grafikkarte danach "regeln". Dass NV die Mindestleistung eines NT für die einzelnene 4000er Karten empfiehlt, ändert halt nix an der Tatsache, dass sie in den Antworten irgendeine "intelligente" oder smarte Regelung und quasi automatische Abwärtskompatibilität suggerieren, die technisch halt nicht gegeben ist.Gesualdo schrieb:Wenn ich das noch richtig im Kopf habe, dann schreibt NV dazu, dass es um die 450 Watt der 4090 geht und dazu setzt NV ein Netzteil mit min. 850 Watt voraus.
Auch steht den FAQs, dass sie diesen Adapter mit unterschiedlichsten Netzteilen getestet haben.
Aber soll ruhig jeder selbst von den pauschal "NV-Verteidigern" seine Erfahrungen sammeln: Ich kann mir gut vorstellen, dass zumindest bei der 4090 (und hier v.a. auch den Custom Modellen, die bis zu 600W über das NT ziehen können sollen) so einige feststellen werden, dass ggf. die Leistung auch eines 850W oder auch 1.000W ATX2 NT nicht für einen stabilen Betrieb unter satter Gaminglast ausreicht. Und selbst bei der "großen" 4080er wäre ich mir nicht sicher, dass es reicht. Und selbst wenn die Leistung stabil hoch gehalten wird, bleiben halt noch die weiteren Unzulänglichkeiten dieser "Adapter-Frickelei", die im worst case einzelne Pins oder gleich die gesamte Steckverbindung elektrisch-thermisch überlasten. Auf eine Haftung für abgerauchte Komponenten jenseits von Kulanz würde ich jedenfalls, so wie hier seitens NV & Co argumentativ vorgegangen wird, nicht bauen. Noch kennt man ja außer viel Marketing-Geschwurbel nicht einmal das "Kleingedruckte", das einem zusammen mit dieser Konstruktion "verkauft" wird.
Zuletzt bearbeitet:
(Typos fixed)
Den neuen Stecker-Standard empfinde ich als absolute Fehlentwicklung. Warum?
Obwohl die Last deutlich gestiegen ist, wurde der Stecker verkleinert und anfälliger gemacht.
Warum hat man nicht gleich Spannung auf 24VDC erhöht? Damit wäre das kein Problem gewesen.
Bei derart hohen Strömen auf so kleinen Kontaktstellen ist eine schleichende Degradierung durch Oxidbildung ja schon vorprogrammiert und iwann raucht dann der Stecker ab. Das wäre 99%+ der Leute doch total egal wie groß der Stecker ist.
Ich empfinde 600W Grafikkarten aber ganz generell als Fehlentwicklung.
Das ist für mich die oberste Grenze für den ganzen PC im Heimbereich. Professionelle Anwensungen mal ausgenommen.
Obwohl die Last deutlich gestiegen ist, wurde der Stecker verkleinert und anfälliger gemacht.
Warum hat man nicht gleich Spannung auf 24VDC erhöht? Damit wäre das kein Problem gewesen.
Bei derart hohen Strömen auf so kleinen Kontaktstellen ist eine schleichende Degradierung durch Oxidbildung ja schon vorprogrammiert und iwann raucht dann der Stecker ab. Das wäre 99%+ der Leute doch total egal wie groß der Stecker ist.
Ich empfinde 600W Grafikkarten aber ganz generell als Fehlentwicklung.
Das ist für mich die oberste Grenze für den ganzen PC im Heimbereich. Professionelle Anwensungen mal ausgenommen.
Und welche böse Überraschung. Wenn ihr 1000W netzteil es nicht packt schaltet das NT eben ab - OCP usw.sikarr schrieb:Das heist aber nicht automatisch das diese Leute technisches Verständnis haben, vorher war alte Karte raus Neue rein und genauso werden die das auch diesmal machen, vielleicht dann mit ner bösen Überraschung.
Und ja wer dann die Kabel mit der Zange um 90 Grad biegt und damit provoziert, dass die Stecker keinen guten Kontakt mehr haben - mei ist halt dumm.
Dieses Geraune von Bränden und Toten ist ziemlich übertrieben.
Dann dürften auch keine Lichtschalter, Steckdosen etc im Baumarkt verkauft werden. Wer die falsch anschließt und die Kabel nicht richtig fixiert riskiert auch einen Kabelbrand und verliert noch dazu den Versicherungsschutz weil er es nicht durch einen Elektriker machen hat lassen.
Wollen wir jetzt alles einschränken weil es immer einen Idioten gibt der nur pfuscht?
Ich wollte auch dem Neid Quatsch widersprechen der hier aufkam
LTCMike
Cadet 4th Year
- Registriert
- Nov. 2017
- Beiträge
- 115
Wir reden bei einer solchen Grafikkarte aber schon noch von einem Komplett-Fertigprodukt und nicht von einer Bastelkiste mit Elektronik-Bauteilen zum selbst zusammensetzen, oder?cloudman schrieb:Dann dürften auch keine Lichtschalter, Steckdosen etc im Baumarkt verkauft werden. Wer die falsch anschließt und die Kabel nicht richtig fixiert riskiert auch einen Kabelbrand und verliert noch dazu den Versicherungsschutz weil er es nicht durch einen Elektriker machen hat lassen.
Wollen wir jetzt alles einschränken weil es immer einen Idioten gibt der nur pfuscht?
Das Problem besteht m.E. ganz stark in einer entsprechend transparenten Kommunikation, was den Betrieb in einem Selbstbau-PC betrifft, der sich nun eben nicht mehr deutlich unterhalb der bislang geltenden Spezifikationen und Standards bewegt, sondern an dessen Grenzen schrammt. Da muss jemand beim Einbau keinen doppelten Links-Daumen haben, dass es im Gaming-Lastbetrieb zu Problemen kommen kann. Im besten Fall, greift, wie du auch sagst, die OCP des NT (das hatte ich selbst schon bei einem Marken NT, das formal mit seiner Nennleistung für meine Vega64 hätte reichen sollen und dann bei Lastspitzen ebenfalls per Protection ausstieg und die Kiste abgeschaltet hat; nichts dramatisches, aber da waren halt die Schutzschaltungen etwas arg sensibel ausgelegt). Im schlechtesten Fall hat man jedoch eine schleichende elektrisch-thermische Überlastung, die im besten Fall "nur" die betroffenen Steckverbindungen zerstört und im schlechtesten einen schlagartigen Kurzschluss mit bei den anzunehmenden elektrischen Lasten nicht unwahrscheinlicher Brandentwicklung verursacht - und glaube mir: ein Elektrobrand ist nichts, was einfach zu beherrschen ist.
Und bei dieser Sachlage, die eben auch entsprechende Meldungen seitens NVIDIA an die zuständige Standardisierungskommission (PCI-SIG) mit nachfolgender Warnung ausgelöst hat, hilft halt kein schönfärberisches Marketing-Geschwurbel bzgl. automatischer Abwärtskompatibilität, sondern man muss seitens der Anbieter Ross&Reiter nennen, was vermutlich zumindest für die 4090-Serie den Einsatz eines echten ATX3-NT bedeutet und dies auch für die 4080er wohl anzuempfehlen ist - egal wieviel Kilowatt das aktuell eingesetzte Platin-irgendwas NT leisten kann, da diese 8-Pin PCI-E Adapter-Frickel-Lösung halt bei den angestrebten Dauerlasten eben maximal suboptimal einzuordnen ist.
Sag ich doch - wer die Teile sill muss kosten für die Stromversorgung einplanen - zumindest war das der Ausgangspunkt der Diskussion.LTCMike schrieb:4090-Serie den Einsatz eines echten ATX3-NT bedeutet und dies auch für die 4080er wohl anzuempfehlen ist - egal wieviel Kilowatt das aktuell eingesetzte Platin-irgendwas NT leisten kann, da diese 8-Pin PCI-E Adapter-Frickel-Lösung halt bei den angestrebten Dauerlasten eben maximal suboptimal einzuordnen ist.
Wenn ein 1.2KW Netzteil 4 PCIe Anschlüsse hat und 4 kabel verwendet werden sehe ich auch wenig Probleme. Die Tests werden es zeigen nicht das unvollständige WCFTech Jay sowieso Alarmismus Zeug.
Die meisten Post warten Beschwerden dass sie ihre relativ neuen NT ersetzen oder mit Adapter betreiben müssen (sieht dich sch... aus)
Vor dem Verkausstart über mangelnde Transparenz zu reden ist etwas zu früh. Warten wir doch mal ab bevor wir uns hier spekulativ verrückt machen.
Und ja für mich sind PC Komponenten genauso 'Bastelkram' wie Smarthome Unterputz Dimmer u. ä.
Wer keine Ahnung hat muss halt die Finger davon lassen - sorry
Meine Meinung - andere sind erlaubt 😀
Ghostfacekalle
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 956
Eine Grafikkarte ist nicht wirklich ein Fertigprodukt nach deiner Einschätzung. Ein Elektronikbauteil trifft es eher.LTCMike schrieb:Wir reden bei einer solchen Grafikkarte aber schon noch von einem Komplett-Fertigprodukt und nicht von einer Bastelkiste mit Elektronik-Bauteilen zum selbst zusammensetzen, oder?
LTCMike
Cadet 4th Year
- Registriert
- Nov. 2017
- Beiträge
- 115
demnach wäre ja auch ein USB-Hub o.ä. nur ein Elektronikbauteil: läuft allein nicht, braucht eine Verbindung zu weiterer PC-Hardware und ggf. sogar nen zusätzlichen Niedervolt-Stromanschluss ... schon etwas arg vereinfachend so eine Diskussion, um die kruden NVIDIA-Vorstellungen zum Betrieb in nem Selbstbau-PC als Für-Experten- Only (aka Elektriker o.ä.?) zu rechtfertigen - Denn die Beispiele auf die ich reagiert habe, haben ausschließlich Basis-Bauteile aus dem Baumarkt für Elektro-Installationen aufgelistet, die genau genommen auch nur durch geschultes Fachpersonal zu montieren wären... Wenn das auch auf die neuen Grafikkarten zutrifft, sollte man aber ganz schnell den Retail-Selbstbau-Markt weg-regulieren und nur noch zertifizierten Meisterbetrieben den Verbau gestatten...Ghostfacekalle schrieb:Eine Grafikkarte ist nicht wirklich ein Fertigprodukt nach deiner Einschätzung. Ein Elektronikbauteil trifft es eher.
Zuletzt bearbeitet:
(Typos fixed)
Leute es gibt nicht nur Schwarz / Weiß.
Der Baumarktvergleich hinkt vielleicht ein bisschen. Ich finde aber schon, dass jemand der mit 1kW Geräten hantiert ungefähr wissen sollte was er tut.
Darum gings mir. Biegeradius nicht überschreiten und keine Kabel selbst basteln sondern freigebene Kabel verwenden ist doch im Grunde alles was man beachten muss. Ok Einrasten bis es klick macht.
Der Baumarktvergleich hinkt vielleicht ein bisschen. Ich finde aber schon, dass jemand der mit 1kW Geräten hantiert ungefähr wissen sollte was er tut.
Darum gings mir. Biegeradius nicht überschreiten und keine Kabel selbst basteln sondern freigebene Kabel verwenden ist doch im Grunde alles was man beachten muss. Ok Einrasten bis es klick macht.
Ghostfacekalle
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 956
@LTCMike
Bei Fertigprodukt denke ich eher an ein Produkt was der Entkunde qasi nur an den Fernseher stöbselt und gleich loslegen kann.
Bei einer Grafikkarte muss man halt auch den PC öffnen ,die Karte verbauen. Ein bissl Wissen von dem was man da macht muss halt auch vorhanden sein. Das war mein Gedanke dahinter.
Bei Fertigprodukt denke ich eher an ein Produkt was der Entkunde qasi nur an den Fernseher stöbselt und gleich loslegen kann.
Bei einer Grafikkarte muss man halt auch den PC öffnen ,die Karte verbauen. Ein bissl Wissen von dem was man da macht muss halt auch vorhanden sein. Das war mein Gedanke dahinter.
Tinpoint
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 9.986
Igor testet keine Netzteile, das ist Ariscatch 22 schrieb:ich übersetze dann mal:
es ist egal, wie bald Nvidia seine RTX 4090 / 4080 auf den Markt wirft. Solange es nicht mehrere durch unabhängige Quellen (Igor, Gamers Nexus z.B.) ausführlich getestete Netzteile gibt, sollte man die Finger davon lassen.
https://www.tomshardware.com/author/aris-mpitziopoulos
Die tests sind nur Übersetzungen ins Deutsche von
https://www.youtube.com/c/HardwareBusters
und Gamers Nexus da in einem Atemzug zu nennen und das in einer News von Nico
Nvidia behauptet darin es war nur ein Hersteller bei dem das Problem überhaupt auftritt.Dancefly schrieb:Falls es noch nicht gepostet wurde
https://www.nvidia.com/en-us/geforc...6/geforce-rtx-40-series-power-specifications/
Während der frühen Entwicklungs- und Testphase haben wir ein potenzielles Problem mit einem Prototyp eines von einem einzigen Lieferanten hergestellten Steckers festgestellt.
PCI-SIG hatte aber folgendes veröffentlicht:
- 3 unterschiedliche Hersteller wurden getestet
Also ich glaube eher weniger das die 10 von einem einzigen Hersteller waren.^^Deshalb gehe ich davon aus das sich Nvidia überhaupt nicht auf den in der News bezogenen Test bezieht, oder sie lügen dreist.^^- Bei mindestens 10 Bauteilen wurde beobachtet, dass sie entweder geschmolzen sind oder sich hot spots bildeten
Ähnliche Themen
- Antworten
- 493
- Aufrufe
- 34.448
- Antworten
- 123
- Aufrufe
- 20.071
- Antworten
- 253
- Aufrufe
- 50.798
- Antworten
- 118
- Aufrufe
- 19.821
- Antworten
- 285
- Aufrufe
- 35.736