News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

h00bi schrieb:
eher CB hat mich enttäuscht.
Kein Wort über einen eigenen Test oder Muster oder Benches oder sonstwas.
was glaubst du denn, woher die samples für tests vor dem nda kommen?
 
  • Gefällt mir
Reaktionen: PS828 und Laphonso
@SavageSkull
Was aber im Umkehrschluss bedeutet, dass die Entwickler rücksichtnehmen müssen. Standard sind aktuell 10GB VRAM, also wird dem entsprechend programmiert. Wären heute 16GB Standard könnte man auch deutlich abwechslungsreichere und anspruchsvollere Texturen entwickeln. Was ist mit Crysis und seinen 8K Texturen? Das wird sicherlich nicht ohne die 3090 vernünftig laufen, oder Crytek hat einextrem gutes System entwickelt.
 
Kronos_ schrieb:
Naja offensichtlich hat NVIDIA doch so Einiges richtig gemacht wenn wir hier die 2000 Kommentare erreichen :^)
Major Releases mit neuen GPU Generationen haben wir ja auch nur alle 2 Jahre im Schnitt, und einige haben Turing übersprungen und warten ggf. seit 3, 4 oder 5 Jahren schon auf neue Karten.

Die AMD RDNA2 Threads werden auch diese Antowrtmassen erhalten, ist doch nice!

Der Hype ist real, quasi :D
 
Andybmf schrieb:
@CharlieBarlie : ich bin mit meinem, doch etwas älteren netzteil ja auch ein bissel am zweifeln.
deshalb habe ich mal meine cpu und graka gleichzeitig gestresst. 9900k auf 5ghz allcore, 2080 stock.
7 lüfter im gehäuse, pumpe im gehäuse, 9 lüfter vom mo-ra, ansonsten was man so braucht, zwei monitore und das alles zieht aus der dose knapp 500 watt. ich denke, ich lass mein 680 watt netzteil einfach drin, wenn ich eine 3080 einbaue.

Das kannst du nicht so einfach messen. Die kurzen Lastspitzen welche viele Netzteile gerne in die Knie zwingen bekommst du nicht gemessen.

Deine 680 Watt sich nicht schlecht aber wem es noch um Effizienz geht wird da nicht glücklich.
So gut wie alle Netzteile haben die beste Effizienz zwischen 40-50% Auslastung.

Allgemein zu allen die hier schon wieder massiv Netzteilanforderungen klein reden:

Hört nur mal auf immer so einen Quatsch zu verbreiten, fast täglich haben wir in Foren Probleme wo ein billiges oder zu schwach Dimensioniertes Netzteil das Problem ist.

Hier wollen schon wieder ne Menge Leute eine 3080 an ihr geliebtes 550 Watt Netzteil hängen, in der Hoffnung es funktioniert gerade so.

Ja ein qualitativ hochwertiges Netzteil federt auch offiziell Lastspitzen (Beispiel: Straight Power 550-> 650 Watt Lastspitzen) gut aber aber warum wird da so massiv gegeizt und alles auf Kante genäht. Im Vergleich zum Rest eines Gaming PC´s und in Anbetracht der Lebensdauer kostet doch ein Netzteil nicht viel aber ist umso wichtiger.

Ich nehme da gerne Igor und seine richtigen Tests zur Hand.

Beispiel: Radeon VII wo die Lastspitzen bis zu 450 Watt betragen, empfiehlt Igor 400 Watt für die GPU einzuplanen.

https://www.igorslab.de/heisses-eis...-wind-auf-augenhoehe-zur-geforce-rtx-2080/16/

Beispiel: 5700XT wo die Lastspitzen bis zu 350 Watt betragen, empfiehlt Igor 300 Watt für die GPU einzuplanen.

https://www.igorslab.de/sapphire-ra...st-navi-einstieg-mit-gewissen-schwingungen/6/

Beispiel: 2080 Super wo die Lastspitzen bis zu 450 Watt betragen, empfiehlt Igor 350 Watt für die GPU einzuplanen.

https://www.igorslab.de/nvidia-geforce-rtx-2080-super-launch-test-review/6/

Warum muss so krankhaft am Netzteil gespart werden, ich verstehe das nicht.
Dann wird sich noch gefreut das es an seiner innerlichen Kotzgrenze funktioniert.

Bitte hört auf in einem IT Forum solchen Müll zu verbreiten, wie sind hier nicht bei der Computerbild.

Für die neuen Ampere GPU´s würde ich nur qualitativ Hochwertige Netzteile ab / mit 750 / 850 Watt empfehlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: amico81 und ML180
trane87 schrieb:
Standard sind aktuell 10GB VRAM

"Standard" sind aktuell nicht einmal 8GB VRAM.
1599122860178.png

https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
 
  • Gefällt mir
Reaktionen: KlaraElfer, keyring80, engineer123 und eine weitere Person
Pisaro schrieb:
Wird bei mir leider auch nie passieren, da ich leider ein Spiel Spiele was mehr als 10GB braucht damit die Frametimes stabil bleiben :(.

Das ist m.M. aber kein Problem der Hardwareproduzenten, sondern kann genausogut schlecht programmiert/umgesetzt sein. Stelle man sich vor, jede Grafikkarte hätte nun 20GB Ram, dann kommt bestimmt irgendwann der 1. Titel, bei dem der VGA Ram auch "vollläuft". Für mich wird die Diskussion um die Speichergröße etwas überbewertet.
 
also ich bin mir immer noch nicht sicher aber mein Verstand tendiert zur 3080er da ich definitiv bis zur übernächsten Generation auf WQHD bleibe reicht doch die Karte dicke oder?
Dann noch ein netter ZEN3 8C Single CCX und die Welt ist perfekt.
 
Kronos_ schrieb:
Naja offensichtlich hat NVIDIA doch so Einiges richtig gemacht wenn wir hier die 2000 Kommentare erreichen :^)

Gefühlt die Hälfte der Kommentare bezieht sich auf Diskussionen rund um den Grafikspeicher...
Ich würde sagen es polarisiert.
 
Pisaro schrieb:
Wird bei mir leider auch nie passieren, da ich leider ein Spiel Spiele was mehr als 10GB braucht damit die Frametimes stabil bleiben :(.

Fallguy ?

Zum Thema: Mir geht es eigentlich nicht um den VRAM da ich eh immer alle Texturen auf low stelle weil meistens Multiplayer Shooter gespielt werden und mir da die Immersion nicht wichtig ist.
Was mir aber wichtig ist sind stabile Bilder pro Sekunde und das möglichst kühl und leise.
Da müssen mir die Karten erst zeigen was sie drauf haben.
 
@xexex
Ich zitiere auch gerne Steam Hardware Survey, aber da man hier nicht Filter kann nach den beiden großen Gaming Standorten ist das unnötig. Wie viele von den Internet Cafes in Asien haben noch CRT Monitore und uralte LCD Displays. Da ist die Technik stellenweise 10 Jahre alt. Das zieht natürlich den Schnitt extrem runter. Mich würde interessieren wie es nur in Amerika und Europa aussieht. In den asiatischen Ländern ist einfach das Smartphone immer noch die erste Wahl.

@MiaSanMiaaa
Hab mich da ungünstig ausgedrückt. Meine Standard der aktuellen GPU Generation von Nvidia. ;) Meine Aussage zu Steam Survey ist dennoch korrekt.

Nachtrag:
Laut Steam sind 23% AMD Verbaut. Alleine in Europa sind 60% verbaut...
https://www.eha.digital/research/amd-tops-60-in-european-cpu-preference-study/

Wir sind aber halt auch PC-Gaming Land Nummer 2.
 
Zuletzt bearbeitet:
Laphonso schrieb:
a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.
Das Zauberwort lautet hier "applicable"... "anwendbar"!
Per Definition sind eben alle high res textures die mehr als 10 GB belegen, dann auf einer 3080 nicht anwendbar :D
 
  • Gefällt mir
Reaktionen: Apocalypse
Pisaro schrieb:
Wird bei mir leider auch nie passieren, da ich leider ein Spiel Spiele was mehr als 10GB braucht damit die Frametimes stabil bleiben :(.
Ja- Dann passt es doch optimal:
1599123267860.png


Mit den 10GB hättest Du dann 12GB-14GB nutzbaren VRAM.
 
  • Gefällt mir
Reaktionen: Apocalypse, Darkscream, mylight und eine weitere Person
.Sentinel. schrieb:
Du nimmst 99% einer Firma in die Sippenhaft von dem einen %, was es in Firmen immer gibt, die Mist bauen oder ihren Kragen nicht voll genug kriegen.

Anders kann man als Kunde ein Unternehmen schwerlich abstrafen.
Und alles deswegen durchgehen lassen kann man auch nicht.

Ist schwierig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
LipsiaV schrieb:
Ich nehme da gerne Igor und seine richtigen Tests zur Hand.

Beispiel: Radeon VII wo die Lastspitzen bis zu 450 Watt betragen, empfiehlt Igor 400 Watt für die GPU einzuplanen.

https://www.igorslab.de/heisses-eis...-wind-auf-augenhoehe-zur-geforce-rtx-2080/16/

Beispiel: 5700XT wo die Lastspitzen bis zu 350 Watt betragen, empfiehlt Igor 300 Watt für die GPU einzuplanen.

https://www.igorslab.de/sapphire-ra...st-navi-einstieg-mit-gewissen-schwingungen/6/

Beispiel: 2080 Super wo die Lastspitzen bis zu 450 Watt betragen, empfiehlt Igor 350 Watt für die GPU einzuplanen.

https://www.igorslab.de/nvidia-geforce-rtx-2080-super-launch-test-review/6/

Warum muss so krankhaft am Netzteil gespart werden, ich verstehe das nicht.
Dann wird sich noch gefreut das es an seiner innerlichen Kotzgrenze funktioniert.
Nehmen wir mal an Igor empfiehlt für die 320W 3080 400W einzuplanen sind dann noch 150W für die CPU übrig, die im Fall eines 3700X mit 65W definiert sind und auch mal 85W fressen können. Nach Festplatte und diverses sind wir immer noch unter der Nennleistung eines 550W Netzteils.
Ich sehe da keine Probleme für mein Dark Power pro 11 mit 550W.
 
  • Gefällt mir
Reaktionen: Bright0001
Fazit: Extreme Enttäuschung aufgrund des völlig überzogenen Preises
 
  • Gefällt mir
Reaktionen: Iscaran
akuji13 schrieb:
Anders kann man als Kunde ein Unternehmen schwerlich abstrafen.

Dann kriegst du bei AMD/Nvidia aber ein Problem. Nvidia hat bei der 970 gelogen, AMD hat in den letzten Jahren so gut wie vor jeder Vorstellung einer neuen Generation gelogen, also was kaufen? Intel?
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wassergekühlt RTX 2080Ti für 600 auf eBay.... versteh diese Panikverkäufe nicht.
 
  • Gefällt mir
Reaktionen: Doenereater
Zurück
Oben