das bekomm ich schon bei einer 2080ti zu spürenObvision schrieb:400+ müssen es echt nicht sein. Da merkt man dann doch schon steigende Raumtemperaturen
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen
- Ersteller Jan
- Erstellt am
- Zur News: GeForce RTX 4000: Nvidia will es bei Lovelace noch einmal klassisch wissen
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 5.940
Klingt wie solche dual GPUs… 295X usw. die hatten auch immer einen enormen Verbrauch.
Völlig falscher Weg!
Aber hier im Forum wird es sicherlich wieder viele geben, die direkt upgraden.
Selbst mit meiner alten Hardware (rx480, 4790k) macht mir im Hochsommer das zocken keinen Spaß, weil es so heiß wird…
UND das wird nur noch schlimmer, dank des Klimawandels! Und die GPU Hersteller battlen sich um den höchsten Verbrauch…
verkehrte Welt!
Völlig falscher Weg!
Aber hier im Forum wird es sicherlich wieder viele geben, die direkt upgraden.
Selbst mit meiner alten Hardware (rx480, 4790k) macht mir im Hochsommer das zocken keinen Spaß, weil es so heiß wird…
UND das wird nur noch schlimmer, dank des Klimawandels! Und die GPU Hersteller battlen sich um den höchsten Verbrauch…
verkehrte Welt!
Wenn das Spiel das kann, dann klar. Aber manche alten Titel, gerade die, die bei Veröffentlichung damalige Hardware komplett überfordert haben, haben so was nicht.mihe schrieb:Mal ne doofe Frage - macht es nicht mehr Sinn jeweils im Game die FPS anstatt das PL zu limitieren?
Du kannst aber auch im Treiber direkt ein FPS Limit vorgeben.
Das variiert je nach Spiel.
Ein Assassin's Creed ist mit 80-90 FPS super rund, CS:Go darf gerne mit 144 laufen und Anno sollte auch mit 40 Bildern pro Sekunde Spaß machen.
Ergänzung ()
Powerlimit ist halt super bequem im Afterburner zu regeln.Cohen schrieb:Warum sollte man das über das Powerlimit regeln?
Einfach die gewünschten maximalen fps im Grafiktreiber einstellen (z. B. 60 fps, 80 fps, 100 fps, 120 fps,... je nach Vorlieben und Genre). Dann laufen ältere Spiele wie Gothic 3 relativ stromsparend (je 30 - 50 Watt für CPU und GPU).... und Spulenfiepen gibt es bei den meisten Grafikkarten erst ab mehreren hundert fps, wenn man die Spiele ungebremst laufen lässt.
Anhang anzeigen 1107530
FPS Limit ist sicherlich nicht schlechter.
Ergänzung ()
Ich habe im Afterburner einfach ein paar Profile gespeichert.Meteora RR schrieb:Mit welchem Tool lässt sich das Power Limit "spielspezifisch" anpassen?
Die meisten Spiele können ja ihre FPS begrenzen, nur wenn das nicht integriert ist, ist das PL ein einfaches Tool.
Ich finde alles andere als Undervolten ist bei der 3080 Wahnsinn, wenn man nicht basteln kann oder will (WaKü oder Padmod).Trinoo schrieb:noch mehr Verbrauch? Hab meine 3080 schon undervoltet da sie sonst schluckt ohne Ende
nö, also irgendwann ist die Schmerzgrenze erreicht... aber gut, die 3080 wird mir wahrscheinlich auch noch ne Weile reichen denke ich
Der GDDR6X-Speicher glüht vor sich hin, die GPU heizt ebenfalls ordentlich. Da haben wir Glück, dass dieser Sommer mal relativ kühl ist (also nicht tagelang 30°+) - wird auch wieder anders kommen. Und trotzdem wird es mit ner 3080 schon ordentlich Warm in der Bude. Mein Gehäuse und/oder meine 3080FE sorgten dafür, dass die Grafikkarte an wärmeren Tagen regelmäßig und häufig in die 83° Drosselschwelle lief.
Bereits leichtes Undervolting bringt knapp 50-70W weniger Verbrauch und die Grafikkarte läuft direkt deutlich kühler (und damit automatisch auch weniger Hitzeabgabe in den Raum). Keine Hotspot-Temperatur über 100° und kein ständiges hitzebedingtes Drosseln - bei fast identischen FPS (1440p).
cmi777 schrieb:Ich finde alles andere als Undervolten ist bei der 3080 Wahnsinn, wenn man nicht basteln kann oder will
Jap, weil einige Karten die "Power"-Brechstange voreingestellt haben, ansonsten würde es auch ein fps-Limit tun.
Ich verliere mit der 3080 FE gerne 5% Performance, wenn ich gleichzeitig 20% an Strom/Abwärme spare.
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 858
Ich beziehe mich ausschließlich auf die Rasterization performance bei Raytracing ist es gut möglich das NVIDIA weiterhin in Führung bleibt.Laphonso schrieb:Die 7900XT wird nicht 40% mehr Raytracing Power (im Sinne der Performance/ fps) als die 4090 fahren. Das hast Du in der Rechnung vergessen. Zudem hat die 4090 ggf. on top wieder 50% mehr VRAM.
Da sie wohl weiterhin ein 256Bit SI verwenden tippe ich bei NAVI 31 auf 32GB GDDR6 und bei NAVI 32 auf 16GB.
NVIDIA wird da wohl im besten Fall auch nur 32GB auffahren können.
Allerdings halte ich die Speicherbestückung bei den NVIDIA Karten eh für voll bekloppt.
3060 (12GB) unnötig viel Speicher für eine so langsame Karte.
3060ti (8GB) geht noch in Ordnung
3070 (8GB) zu wenig
3070ti (8GB) Speicherkrüppel
3080 (10GB) Speicherkrüppel
3080ti (12GB) deutlich zu wenig
3090 (24GB) zu viel des Guten macht die Karte nur unnötig teuer.
6600XT (8GB) perfekt
6700XT (12GB) perfekt
6800 (16GB) etwas zu viel 12GB wären perfekt
6800XT (16GB) perfekt
6900XT (16GB) sweetspot
Blumentopf1989
Commander
- Registriert
- Okt. 2010
- Beiträge
- 2.741
Meine RTX 3070 ist aktuell vom Verbrauch her in meinen Augen echt angenehm, auf Dauer ist sie bei Last bei 240 Watt. Die 3070ti ist im Verhältnis schon wieder zu weit oben, die 3080 und 3080ti sorgen für eine immense Abwärme im Gehäuse mit ihren 350+ Watt auf Dauer, die 3090 sowieso.
Die 3080ti Karten werden entweder sehr warm oder doch recht laut wenn es sich um klassische Luftkühlungslösungen handelt. Bei der 3080 ist für mich die Grenze gewesen was die akustische Belästigung angeht.
Ich könnte mir bei der 4090 tatsächlich eine AIO Lösung als mehr oder weniger Standard vorstellen. Leider sind diese Karten im Idle durch die Pumpe aber absolut unangenehm.
Die 3080ti Karten werden entweder sehr warm oder doch recht laut wenn es sich um klassische Luftkühlungslösungen handelt. Bei der 3080 ist für mich die Grenze gewesen was die akustische Belästigung angeht.
Ich könnte mir bei der 4090 tatsächlich eine AIO Lösung als mehr oder weniger Standard vorstellen. Leider sind diese Karten im Idle durch die Pumpe aber absolut unangenehm.
Ergänzung ()
Ist mir mit einer aktuellen Verkabelung und Sicherungskasten aus 2019 auch schon passiert. Die Kombination von recht teurer Brennstuhl Mehrfachsteckdose mit 2 Monitoren, Soundsystem, Drucker und dem 1000 Watt BeQuiet Netzteil für den PC mochte mein Sicherungskasten in regelmäßigen Abständen nicht, wenn ich den Stecker reingesteckt hatte (wegen Gewitter vorher rausgezogen). Mit dem aktuellen Corsair AX 860 Watt Netzteil gibt es keine ProblemeSebbi schrieb:3680 W bei 16 A - normal sind aber Räume mit 6 A abgesichert, sprich 1380 W oder 10 A / 2300 W
Problem sind die Sicherungsautomaten, die dann auf die größeren nötigen NT ziemlich allergisch reagieren beim Einschalten oder sptzen
Zuletzt bearbeitet:
Klever
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.393
@Blumentopf1989
Das erwarte ich auch, eine AiO Lösung im Angesicht des Verbrauchs von >400 Watt wäre da ziemlich effektiv.
Die Güte und Lautstärke der Pumpe wird da aber vom Hersteller abhängen, wird wohl schlechtere und bessere geben wie bis jetzt auch.
Dass die alle im Idle unangenehm sind, kann ich für mich nicht bestätigen, bei mir werkelt eine 2080 Ti mit AiO-Kühlung von Arctic und die Pumpe ist da in Idle für mich so gut wie unhörbar und nicht störend.
Das erwarte ich auch, eine AiO Lösung im Angesicht des Verbrauchs von >400 Watt wäre da ziemlich effektiv.
Die Güte und Lautstärke der Pumpe wird da aber vom Hersteller abhängen, wird wohl schlechtere und bessere geben wie bis jetzt auch.
Dass die alle im Idle unangenehm sind, kann ich für mich nicht bestätigen, bei mir werkelt eine 2080 Ti mit AiO-Kühlung von Arctic und die Pumpe ist da in Idle für mich so gut wie unhörbar und nicht störend.
Zuletzt bearbeitet:
Der aktuelle trend geht ja eh dahin, dass die beiden hersteller nur noch mittelklasse bis high-end anbieten (400€+) und das ehemalige einstiegssegment komplett den vorjahresmodellen/dem gebrauchtmarkt überlassen.
Was viele in ihrem mimimi verbraucht viel und kostet mehr vergessen ist eben dass die performance/€ von generation zu generation zugenommen hat, ebenso wie die performance/Watt gestiegen ist.
Man kann einfach nicht die neue 80er mit der alten 80er 1 oder mehrere generationen zurück vergleichen, da zugleich die leistungs und preisklassen immer wieder verschoben wurden.
@matty2580
Das waren deine worte, auf die dich die beiden hingewiesen haben. Das hobby pc war in den 90ern genauso teuer wie heute, warum ist es also jetzt auf einmal so teuer, dass du es aufgegeben hast und damals nicht?
E:
Was momentan teuer wird ist das high-end. und nur das.
Der einstieg ins pc gaming ist trotz scalperpreisen für gebraucht karten immer noch so günstig wie selten. Für die klassischen Massentitel ala fortnite, csgo oder lol tut es sogar eine apu alleine und mit den in massen vorhandenen 4/580 und 1060 bekommt man für unter 200€ eine für 1080p mehr als taugliche karte, dazu 4 oder 6 kerner für unter 100€ + rest und man hat für 500-600€ einen rechner der selbst aktuelle AAA titel problemlos stemmen kann
Was viele in ihrem mimimi verbraucht viel und kostet mehr vergessen ist eben dass die performance/€ von generation zu generation zugenommen hat, ebenso wie die performance/Watt gestiegen ist.
Man kann einfach nicht die neue 80er mit der alten 80er 1 oder mehrere generationen zurück vergleichen, da zugleich die leistungs und preisklassen immer wieder verschoben wurden.
@matty2580
Das waren deine worte, auf die dich die beiden hingewiesen haben. Das hobby pc war in den 90ern genauso teuer wie heute, warum ist es also jetzt auf einmal so teuer, dass du es aufgegeben hast und damals nicht?
E:
Was momentan teuer wird ist das high-end. und nur das.
Der einstieg ins pc gaming ist trotz scalperpreisen für gebraucht karten immer noch so günstig wie selten. Für die klassischen Massentitel ala fortnite, csgo oder lol tut es sogar eine apu alleine und mit den in massen vorhandenen 4/580 und 1060 bekommt man für unter 200€ eine für 1080p mehr als taugliche karte, dazu 4 oder 6 kerner für unter 100€ + rest und man hat für 500-600€ einen rechner der selbst aktuelle AAA titel problemlos stemmen kann
Zuletzt bearbeitet:
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.875
Früher hatten viele ein SLI System und jetzt regen sich einige über 400W auf...
Inzwischen wird auch mehr mit 10A abgesichert und nicht mehr 16A.
Bei 25°C warens glaub ich 17,5A Maximalbelastung bei 3x1,5mm2; bei 30°C sind es nur noch 16,5A Max.
Da kanns schnell mal schmoren im Hochsommer bei bescheidener Verlegung.
Ergänzung ()
Steht auf jeder Sicherung drauf. Einfach mal den Kasten aufmachen.tackleberry schrieb:Was halten eigentlich normale Haushaltsicherungen aus?
Inzwischen wird auch mehr mit 10A abgesichert und nicht mehr 16A.
Bei 25°C warens glaub ich 17,5A Maximalbelastung bei 3x1,5mm2; bei 30°C sind es nur noch 16,5A Max.
Da kanns schnell mal schmoren im Hochsommer bei bescheidener Verlegung.
Zuletzt bearbeitet:
dernettehans
Lt. Commander
- Registriert
- März 2021
- Beiträge
- 1.297
"Der Verbrauch soll abermals steigen" Nein Danke. Ich kaufe nur eine neue GPU wenn sie weniger Strom verbraucht als die alte und nicht anders rum.
nur 5 sekunden dauert undervolting. ergebnis? 250w max mit ner 3080, ist nur 5% langsamer im vergleich zu oc. mit ner wasserkühlung gerade mal 40 grad lauwarm.
der speicher wird nur so heiß weil nvidia oder auch alle anderen partner 1cent schrottpads draufpacken. mit guten pads sind die temps direkt mal 20-40 grad runter
der speicher wird nur so heiß weil nvidia oder auch alle anderen partner 1cent schrottpads draufpacken. mit guten pads sind die temps direkt mal 20-40 grad runter
fullnewb
Lieutenant
- Registriert
- Dez. 2014
- Beiträge
- 685
Au waia, ich würde lieber eine Grafikkarte mit etwas geringeren Stromverbrauch kaufen, sofern es in Zukunft noch derartiges gibt.
Nur der Vollständigkeit halber:Nuklon schrieb:[...] Bill Gates neuem 2KW Minikernreaktor. Warum heizen, wenn man zocken kann.
https://www.golem.de/news/terrapower-golem-de-testet-bill-gates-mini-atomkraftwerk-2104-155390.html
Golem.de schrieb:Nur falls die Kommentare nicht reichen: April, April. Frohe Ostern!
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.623
Wenn wie von 3D Center aufgegriffen spekulativ 450 bis 480W fuer den RDNA3 Vollausbau in Form einer RX 7900XT(X) faellig werden, kann man sich ja schon denken, dass die wohl maximal 2 beschnittenen Chipvarianten davon auch nicht viel tiefer liegen duerften, also von unter 350W (realistischer waeren wohl 390 W fuer das kleinste Navi31 Modell) ginge ich da schaetzungsweise nicht aus.
Dann bliebe noch der etwas kleinere Dual-MCM Chip mit dem Navi 32 in mindestens 2 Auskoppelungen (als Vollausbau und beschnitten) und vielleicht waeren da mit der kleineren (somit kleinsten RDNA3 MCM-) Variante um oder leicht unter 300 W erreichbar, zumindest koennte man diese Hoffnung haben, aber das ist trotzdem schon ein Batzen an Abwaerme (selbst wenn man per Undervolting da noch auf 250W herunter kommen koennte).
Was der Spass denn kosten soll, steht noch auf einem ganz anderen Blatt, ich gehe beim Top-/Halo-Modell, also der RX 7900XT(X) von mindestens knapp 2000 Euro UVP (also doppeltem RX 6900XT Preis) aus, zumal man deutlich mehr als doppelt so viel Leistung wie bei einer RX 6900XT bekommen duerfte und weit vor dem (Ada Lovelace) Konkurrenten liegen duerfte (bis nVidia dann irgendwann per Hopper oder anderweitig nachziehen und die Leistungskrone zurueck holen koennte), wenn die Geruechte am Ende denn halbswegs akkurat sein sollten.
Also wenn wir das fuer die Regionen der finanziell/fuer die meisten interessanteren Performance/Oberklasse-GPU-Regionen weiter spinnen (uns also von den Early Adopter und Hobby Enthusiasten Region mit RTX 4080Ti und RTX 4090 sowie RX 7900XT(X) und RX 7900, evt. RX 7800XT entfernen), dann duerften die RX 7800 und RX 7700(XT) Karten wohl stufenweise (100-150 Euro Schritte?) mit etwas Glueck unter 1000 Euro liegen (also ein Navi 32 Vollausbau, bspw. als RX 7800 bei knapp 1000 Euro, ebenso wie vielleicht eine RTX 4080) und dann gelingt vielleicht der Einstieg in Dual-MCM mit Navi32 (bspw. einer RX 7700) schon mit 700-750 Euro UVP, wer weiss?
Wenn sich solche Preisbereiche bewahrheiten sollten, dann wird man wohl von beiden Chipentwicklern an der Mehrheit der Gamer vorbei entwickeln/produzieren, wie es aussieht, und dann wird es spannend wie viel Leute dann bei dem Verbrauch und den GPU-Kosten noch fuer PC Gaming eine Lanze brechen werden (das haengt natuerlich auch davon ab wie weit die Leistungsklassen dann noch herunter gehen und damit auch der Preis noch Einsteigern zumutbar ist und welcher Leistungzuwachs und Verbrauch da im Vergleich zur Vorgaengergeneration geboten wird).
Ob man diese Leistung (als Gamer dann in aktuellen Spielen) und den Verbrauch dann allerdings unbedingt brauchen wird, ist eine andere Frage, ebenso wie die Verfuegbarkeit und ja, ich koennte mir vorstellen, dass man bei AMD/RTG zuerst Navi32 vorstellt (wohingegen dann mit den AD102 Topmodellen seitens nVidia gegen gehalten wuerde) um dann erst mit Navi31 das Ass elegant aus dem Aermel zu ziehen, aber warten wir das "Katze und Maus" Spiel von AMD/RTG und nVidia vermutlich Ende kommenden Jahres einfach ab .
So, das ist erst einmal reichlich Spekulatius und Glaskugelleserei, vielleicht gibt es ja Anfang 2022 dann schon wieder ergaenzende Details in Form neuer Geruechte und evt. dann auch schon zu Intels/Koduris DG3 Gaming-dGPU-Offensive, abwarten und Tee trinken .
Dann bliebe noch der etwas kleinere Dual-MCM Chip mit dem Navi 32 in mindestens 2 Auskoppelungen (als Vollausbau und beschnitten) und vielleicht waeren da mit der kleineren (somit kleinsten RDNA3 MCM-) Variante um oder leicht unter 300 W erreichbar, zumindest koennte man diese Hoffnung haben, aber das ist trotzdem schon ein Batzen an Abwaerme (selbst wenn man per Undervolting da noch auf 250W herunter kommen koennte).
Was der Spass denn kosten soll, steht noch auf einem ganz anderen Blatt, ich gehe beim Top-/Halo-Modell, also der RX 7900XT(X) von mindestens knapp 2000 Euro UVP (also doppeltem RX 6900XT Preis) aus, zumal man deutlich mehr als doppelt so viel Leistung wie bei einer RX 6900XT bekommen duerfte und weit vor dem (Ada Lovelace) Konkurrenten liegen duerfte (bis nVidia dann irgendwann per Hopper oder anderweitig nachziehen und die Leistungskrone zurueck holen koennte), wenn die Geruechte am Ende denn halbswegs akkurat sein sollten.
Also wenn wir das fuer die Regionen der finanziell/fuer die meisten interessanteren Performance/Oberklasse-GPU-Regionen weiter spinnen (uns also von den Early Adopter und Hobby Enthusiasten Region mit RTX 4080Ti und RTX 4090 sowie RX 7900XT(X) und RX 7900, evt. RX 7800XT entfernen), dann duerften die RX 7800 und RX 7700(XT) Karten wohl stufenweise (100-150 Euro Schritte?) mit etwas Glueck unter 1000 Euro liegen (also ein Navi 32 Vollausbau, bspw. als RX 7800 bei knapp 1000 Euro, ebenso wie vielleicht eine RTX 4080) und dann gelingt vielleicht der Einstieg in Dual-MCM mit Navi32 (bspw. einer RX 7700) schon mit 700-750 Euro UVP, wer weiss?
Wenn sich solche Preisbereiche bewahrheiten sollten, dann wird man wohl von beiden Chipentwicklern an der Mehrheit der Gamer vorbei entwickeln/produzieren, wie es aussieht, und dann wird es spannend wie viel Leute dann bei dem Verbrauch und den GPU-Kosten noch fuer PC Gaming eine Lanze brechen werden (das haengt natuerlich auch davon ab wie weit die Leistungsklassen dann noch herunter gehen und damit auch der Preis noch Einsteigern zumutbar ist und welcher Leistungzuwachs und Verbrauch da im Vergleich zur Vorgaengergeneration geboten wird).
Ob man diese Leistung (als Gamer dann in aktuellen Spielen) und den Verbrauch dann allerdings unbedingt brauchen wird, ist eine andere Frage, ebenso wie die Verfuegbarkeit und ja, ich koennte mir vorstellen, dass man bei AMD/RTG zuerst Navi32 vorstellt (wohingegen dann mit den AD102 Topmodellen seitens nVidia gegen gehalten wuerde) um dann erst mit Navi31 das Ass elegant aus dem Aermel zu ziehen, aber warten wir das "Katze und Maus" Spiel von AMD/RTG und nVidia vermutlich Ende kommenden Jahres einfach ab .
So, das ist erst einmal reichlich Spekulatius und Glaskugelleserei, vielleicht gibt es ja Anfang 2022 dann schon wieder ergaenzende Details in Form neuer Geruechte und evt. dann auch schon zu Intels/Koduris DG3 Gaming-dGPU-Offensive, abwarten und Tee trinken .
Zuletzt bearbeitet:
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.129
Du vergisst dabei leider, dass nicht jede Anwendung die gleichen Anforderungen an die Grafikkarte stellt, womit ein generelles FPS-Limit auch nicht immer den gleichen Stromverbrauch bedeutet.Cohen schrieb:Warum sollte man das über das Powerlimit regeln?
Einfach die gewünschten maximalen fps im Grafiktreiber einstellen (z. B. 60 fps, 80 fps, 100 fps, 120 fps,... je nach Vorlieben und Genre). Dann laufen ältere Spiele wie Gothic 3 relativ stromsparend (je 30 - 50 Watt für CPU und GPU).... und Spulenfiepen gibt es bei den meisten Grafikkarten erst ab mehreren hundert fps, wenn man die Spiele ungebremst laufen lässt.
Anhang anzeigen 1107530
Gothic 3 ist ja mittlerweile wirklich ein "alter Schinken" (obwohl ich es auch heute noch sehr mag), aber dass man hier für z.B. 60 FPS deutlich weniger Grafikpower benötigt, als z.B. für die gleichen 60 FPS in gleicher Auflösung bei einem Spiel wie Horizon: Zero Dawn oder Kingdom Come: Deliverance steht wohl ausser Frage.
Davon ab hat VSync bzw. FPS-Limitierung in Verbindung mit Free/G-Sync tatsächlich nur Vorteile, ökonomisch für alle wie auch visuell für den Anwender.
K
Kliim
Gast
Es gab doch vor Jahren Verstrebungen seitens der eu, den Energieverbrauch neuer Hardware zu beschränken. Was wurde daraus?
Tatsächlich reicht ein ordentliches 500 Watt Netzteil auch heute noch für 99% der Single-Gpu Systeme.silentdragon95 schrieb:Ich vermisse die Zeiten, in denen ein 500W Netzteil für 99% der Single-GPU Systeme ausgereicht hat...
Damit kannst du zb völlig problemlos einen Ryzen 5800X und RTX 3070 befeuern.
Ähnliche Themen
- Antworten
- 53
- Aufrufe
- 6.227
- Antworten
- 3.747
- Aufrufe
- 346.440
- Antworten
- 166
- Aufrufe
- 25.536
- Antworten
- 113
- Aufrufe
- 13.060
- Antworten
- 70
- Aufrufe
- 8.192