News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

TorenAltair schrieb:
Ich verstehe ehrlich gesagt den Hype nicht so ganz. Mal abgesehen davon, dass keine unabhängigen Tests bisher vorhanden sind, grübel ich doch ob der Einstellung mancher zu den Preisen. Da werden über nur 700 Euro gejubelt. Das sind 1370 DM. Das Top-Modell von Intel im Desktopbereich, der 10900K, kostet "nur" 500 Euro.

Vergleichst Du jetzt ernsthaft die Preise für eine nackte CPU (mit 206 mm²) mit einer GPU (mit 627 mm² ) + aufwändiger 12-Layer-Platine + 10 GB GDDR6X + teurem Kühler (ca. 150€) + viel weiteres Gedöns auf der Platine. Dazu kommen noch die Entwicklungskosten für die Platine und den Kühler (für die reinen Chips setze ich das mal gleich) und noch eventuelle Lizenzkosten für HDMI, DisplayPort, Videocodecs usw.

Im Vergleich dazu kostet der 10900K nicht "nur" 500 Euro. Die CPU wäre im Vergleich maßlos überteuert. Eher müßte Intel den für 150 Euro anbieten.
 
  • Gefällt mir
Reaktionen: Mcr-King und lubi7
Ms Niveau... wir sinken....
Die nvidia Karten werden geil. Die Preise sind so weil man in der rtx 3080 Kategorie konkurrenz von Amd erwartet. Ich hoffe Amd liefert zeitnah etwas. Thats it und ich mag nvidia nicht xD. Aber man kann und muss immer sachlich an das ganze gehen.
 
  • Gefällt mir
Reaktionen: Mcr-King
cypeak schrieb:
AAAAAAHH..ich laufe gleich amok!
kann CB bitte mal einen aufklärenden tech artikel schreiben der kurz und knackig die speicherinterfaces und mögliche bestückungen erklärt?

Von deiner Interpretation eines Halbsatzes von mir auf mein absolutes Unwissen zu schließen verleitet mich fast auf deine Eigenschaften zu schließen. :P

cypeak schrieb:
ja mei, nvidia ist bestimmt einfach nur faul mal kurzfristig das speicherinterface des chibs so zu überarbeiten dass er mal eben jede beliebige kombination an speicherbestückung ermöglich.
was für vorstellungen haben hier leute eigentlich vom chipdesign und entwicklung von solchen produkten??

Ruhig Blut :) Wenn du dich generell lieber nur auf "höheren Niveau" über GPUs unterhälst bist du bei CB falsch. Komm doch mal öfter ins 3dc, ist dann eher dein Niveau - warum hast du da nur 14 Beiträge? :P
Achja, ich übrigens kein vollkommener Idiot was Hardware bzw. Hardwaredesign angeht, auch wenn es mich Sicherheit so einige gibt, gerade bei 3dc, die einfach besser bescheid wissen - weil Sie Hardwaredesigner sind zum Beispiel. Aber ich stecke da auch seit Ende der 90er schon etwas drin in der Materie, wie du auch seit einer 2MB Matrox


cypeak schrieb:
am ende des tages trägt auch ein speicherinterface zur chip-komplexität bei, welche dann auch kosteneffektiv gefertigt werden muss.
(..)16gb geworden bei einem preispunkt von 900€ hätten wieder alle über die krasse preissteigerung gewettert..

ich denke, man darf nvidia zwar nicht alles ohne mediale kritik durchgehen lassen, aber man sollte auch die kirche im dorf lassen, denn all diese kleinen änderungen haben einen preis den jemand am ende bezahlen können muss.
12-layer platinen, (etc)...das gibts nicht umsonst und auch nicht zum "gleichbleibenden" preis der vorgeneration!

Beruhigung hat wohl hier nun eingesetzt. :D

Das man nicht jedes x Bit breite SI an jeden Chip klatschen kann ist klar. xD Man designed ja eine Architektur so, dass man ein bestimmtes Ziel erreicht, welches Vorher, wie bei jedem Projekt klar definiert ist, natürlich auch bei der Speicheranbindung und entsprechend auch des Ramausbaus. Das alles muss man, das ist klar, ab einem bestimmten Stadium eines Projektes festlegen und daher habe ich auch nicht von kurzfristigen Änderungen im Design gesprochen.

Hier wurde mit Absicht so designt. Ich persnönlich, hätte mir nur eine andere Lösung gewünscht aus ganz subjektiven Gründen - einige sehen das anders, einige Stimmen mir zu. Andere Meinungen zu äußern heißt nicht die Kirche aus der Dorfmitte abzureißen ;)

Über die Nachteile eines 512bit SIs bin ich mir bewusst bzgl Kosten hatte ich ja selber schon kurz was geschrieben und Strom. Und wie du in meinem letzten Posting gelesen hast evtl - bin ich niemand der da über Preise jammert, da ich eher über die 799 Euro positiv überrascht bin. 900 Euro für 100% mehr Rohleistung + Raytracing gegenüber 1080 Ti und 16GB Speicher wären absolut OK - in der Kriegskasse ist sogar mehr. Auchwenn weniger natürlich immer besser ist...
Nur der Stromverbrauch - das ist so eine Sache, dir mir tatsächlich nicht gut passt - Trotzdem mochte ich meine GTX 480 :D

Mir wäre ein 16GB/32GB Design mit 512Bit lieber gewesen, auch wenn es etwas mehr kostet, weil ich im September/Oktober eigentlich einen neukauf geplant hatte. 16GB min. wollte ich, 12GB wären die Notlösung. 10GB sind inakzeptabel, 20GB gibts (noch) nicht und 24GB sind mir mit 1700 Euro inkl Wakü doch etwas zuviel.

Ich grummel, muss für 20GB dann wohl den AMD-Launch abwarten trotz junkender Finger, oder falls entgegen all meiner Erwartungen keine 20GB Version kommt eine zweite Generation aussetzen (G-Sync Monitor - AMD kommt aktuell nicht in Frage) oder doch noch etwas vom Konto plündern und dann durch die hohen Ausgaben wochenlang unzufrieden sein und über den Stromverbrauch Sachen in den Bart murmeln.
Außerdem finde ich das Founders-Design nicht gerade gelungen.

Die Karten sind keine eierlegenden Wollmilchsäue bzgl meiner Ansprüche wie es z.B. 9700 Pro, Geforce 8800GTX oder GTX 680 gewesen sind. Sondern eher ein 7950GX2 Quad-SLI oder HD4870 Crossfire - vllt nicht ganz so schlimm.

Positiv finde ich eigentlich nur die scheinbar gute Performance von Ampere - die aber noch unabhängig getestet und bestätigt werden muss und das die Preise nicht angezogen wurden - womit ich eigentlich gerechnet hatte.

Davon bin ich genervt und geb das auch gern mal mit einem schnuddeligen Halbsatz ins Forum als Kommentar. Das ist nichts worüber du dich so aufregen musst, dass du gleich Amok laufen willst. Nichts für Ungut. :D
 
buuge schrieb:
Finde ich ebenso.
Die 3070 hätten sie schon mit 10-12 GB bringen können und die 3080 12-16GB.
ja? wie sieht das an einem 256bit bus der 3070 den aus?
oder am 320bit bus der 3080?

(ja, es gibt einen weg, aber nicht mit diesen speicherbandbreiten!)
 
  • Gefällt mir
Reaktionen: McFritte
Es mag zwar momentan nicht im Vordergrund sein:
Kann es sein, dass sich Computerbase verschrieben hat oder habe das richtig gelesen?
Wird die Nvidia 3000 Serie nur DisplayPort 1.4 unterstützen? Den ich habe im Voraus auf anderen Webseiten gelesen das die Nvidia 3000 Serie DisplayPort 2.0 unterstützen wird. Was ja Sinn mach für ein Produkt für die nächsten 2 Jahre.
 
L1TerminalFault schrieb:
Möchte ungern dir die Illusion nehmen: Nvidia wollte bei TSMC 7nm, nur es gab keine ausreichenden Kapazitäten mehr, weil AMD alles bekommen hatte! ( Hierzu gab es ja diverse Meldungen )

Es sind jetzt einige Fragen offen!

Weshalb schlucken die Nvidia GeForce: RTX 3090, 3080 & 3070 so viel Strom, laufen die möglicherweise am Anschlag, weil AMD NAVI 2 so mächtig ist?

Aus welchem Grund sollte Navi 2 mächtig sein? Realistisch sind +20-30% zu Navi 1. Man wird also Welten hinter Nvidia sein. Leider kriegen wir ein Monopol. Vielleicht wird es bald keine Desktop GPUs von AMD mehr geben.
 
Also ich beiß mir in den Hintern wenn ne 3070 sogar an der 2080 Ti vorbei fliegen sollte in Spielen, weil dann tut es mal richtig weh, zumal der Preis bei 1400€ nicht gerade günstig war.
Andererseits freut es mich dann, wenn es in der Grafikleistung einen ordentlichen Schritt vorwärts geht, bleibt nur zu hoffen dass man im nächsten Battlefield nicht am unteren Ende der Benchmarks krebst :skull_alt:.
 
Bei der 3070 und irgendwann im Oktober. Bekomm ich schon das Kotzen..... Absolut kein Nerv nochmal 1 Monat zu warten. Was soll der Mist
 
  • Gefällt mir
Reaktionen: Supermax2004
Da sieht man mal wie überteuert Turing war. 2080TI Leistung für 500€...
Die neuen Karten sind aber wieder Speichersparkarten....Bin auf Big Navi gespannt...Muss ja gut werden, wenn NV seine Preise wieder zurück fährt.
 
  • Gefällt mir
Reaktionen: iceshield, DarkerThanBlack und Mcr-King
3070 mit mehr Leistung als eine 2080Ti für weniger als die Hälfte des Preises... Autsch..

Ich kapiere diese Kühler aber immer noch nicht.
 
wuschipuschi schrieb:
Super damit Kann demnächst meine GTX 1060 in Rente und wird durch die 3070 ersetzt. :)
Behälst du deine CPU?
Ich habe einen 2700X und überlege mir die 3070 oder gleich 3080 zu holen, befürchte jedoch, dass meine CPU der bottleneck wird.
 
  • Gefällt mir
Reaktionen: wuschipuschi
Werde noch den Release der Big Navi Karten abwarten und wenn es 2080Ti Leistung für den selben Preis der 3070 und dann noch mit 12-16GB Vram geben wird, wird's wohl wieder ne AMD bei mir werden.
 
  • Gefällt mir
Reaktionen: Mcr-King
DannyBoy schrieb:
Behälst du deine CPU?
Ich habe einen 2700X und überlege mir die 3070 oder gleich 3080 zu holen, befürchte jedoch, dass meine CPU der bottleneck wird.

Ja das habe ich mir auch gedacht, aber erst mal ja eventuell bissl später nocj nen neuen Ryzen. :D
 
  • Gefällt mir
Reaktionen: DannyBoy
Aber schon geil wie nvidia ihr topmodel 2080ti was preislich noch bei 1200euro liegt mit der billigsten karte ins jenseits befördert. Jetzt is die karte schlagartig keine 400 mehr wert.
 
Sehe gute Arbeit von nVidia. Die Preise finde ich persönlich für die Leistung ok.

Meine 1080 TI ist jetzt etwas über 3 Jahre, und da könnte man ja sich wieder mal was gönnen. :D Bis aber die neuen AMD Prozessoren da sind, wird eh gewartet.
 
  • Gefällt mir
Reaktionen: gartenriese, Laphonso, Celinna und 3 andere
@Irrlicht_01
moin moin!
der satz war wirklich flapsig dahingesetzt - frei nach motto "ich-wünsch-mir-was" - und das kam in den threads zu ampere auffällig häufig vor.

Irrlicht_01 schrieb:
Man designed ja eine Architektur so, dass man ein bestimmtes Ziel erreicht, welches Vorher, wie bei jedem Projekt klar definiert ist, natürlich auch bei der Speicheranbindung und entsprechend auch des Ramausbaus. [...]

Hier wurde mit Absicht so designt. [...]

ja, man definiert ziele und approximiert mit welchen mitteln man diese erreichen möchte - bei cpu und auch beim gpu design, ist das ergebnis aber nicht so sehr voraussehbar - gerade wenn man an der technologiespitze reitet, weiß man nicht immer wo ein chipdesign landet; dafür kommen inzwischen zuviele variablen zusammen.
allein schon eine neue fertigung kann eine große spanne an performancemöglichkeiten bei einem design ausmachen.
es wäre auch nicht das erste mal dass ein schmaleres speicherinterface einem breiterem überlegen ist und umgekehrt. bis man etwas real testbares im labor hat, ist schon ein großteil der schritte eine chipdesigns durch - änderungen werden danach sowohl kostspielig als auch zeitlich nicht ohne folgen blieben. eine änderung kann da locker halbes bis dreivierteljhahr verzögertes release bedeuten - was im wettbewerb eine halbe ewigkeit bedeutet.
deswegen gehe ich eher davon aus dass nvidias pläne nicht so aufgegangen sind wie man es sich gedacht hat - dafür scheint zw. einem ga102 und einem ga104 eine zu große lücke zu sein, so dass nvidia die übliche aufteilung hätte durchspielen können, bei der eine 3080 auf einem vollausbau des ga104 bassiert - für die 3070 hat es dann aber gut gereicht.

Irrlicht_01 schrieb:
Mir wäre ein 16GB/32GB Design mit 512Bit lieber gewesen, auch wenn es etwas mehr kostet, weil ich im September/Oktober eigentlich einen neukauf geplant hatte. 16GB min. wollte ich, 12GB wären die Notlösung. 10GB sind inakzeptabel, 20GB gibts (noch) nicht und 24GB sind mir mit 1700 Euro inkl Wakü doch etwas zuviel.

da sind wir wieder im "mir-wäre-lieber" land. für meinen geschmack ist so eine argumentation zu sehr von den vram zahlen getrieben und erinnert an eine zeit in der graka käufer meinten dass die vram größe für die performance entscheidend ist. "inakzeptabel" sagt aus: das geht garnicht, dabei geht es sehr wohl. viele haben auch mit 8gb der 2080 sehr gut leben können und für die sind 2gb mehr offenbar auch durchweg okay.

dabei geht es um vram größe nur nachrangig - entscheidend ist doch was die grakas unterm strich für performance abliefern und z.b. wie konstant die frametimes auch in szenarios mit viel vram-kopiererei aussehen. wenn diese gut sind, interessiert es mich doch kaum ob es 10 oder 12gb sind die auf meiner graka verlötet sind.
irgendein flaschenhals ist immer im system wenn man maximal viel leistung haben möchte - das hat sich auch in den letzten 20 jahren nicht geändert.

wie ich es sagte: hätten wir bei der 3080 16gb bei 900$ gesehen, wären alle an die decke gegangen.
wären es 12gb gewesen, wäre es wieder ein 384bit SI und das wäre wohl zu nah an der 3090. (ich schätze nvidia verendet für die 3080 sowieso eine salvage lösung, bei der das speicherinterface im zweifelsfall eben auf 320bit gecuttet sein muss, damit der ga102 überhaupt noch verwendbar ist.)
 
Thor-75 schrieb:
Jetzt is die karte schlagartig keine 400 mehr wert.

Von den ganzen 2070 Super und non Super 2080ern mal abgesehen. Bin gespannt was am Ende für meine noch rumkommt. Denn wenn sich das bestätigt mit der Performance, werde ich definitiv ne 3070 wenn nicht gar ne 3080 einsetzen.
 
eax1990 schrieb:
Also ich beiß mir in den Hintern wenn ne 3070 sogar an der 2080 Ti vorbei fliegen sollte in Spielen, weil dann tut es mal richtig weh, zumal der Preis bei 1400€ nicht gerade günstig war.

naja, es heißt nicht umsonst dass die großen graka modelle oft unvernünftig sind, den sie altern an_ihrem_preis_gemessen überproportional schnell.

die "ti" waren immer die karten, bei denen man für die letzten 10, 20, oder 30% an leistung deutlich mehr an geld hinlegen musste.
in aller regel ist die nachfolgende generation dann deutlich nah dran oder gar über der ti gelandet - ob man jetzt 15-20 jahre zurück geht oder sich die situation bei der 780ti -> 970 oder 980ti -> 1070 anschaut...und das zu einem verhältnismäßig attraktivem preispunkt. (ok, turing auf pascal war die unrühmliche ausnahme; ohne frage!)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese und Mcr-King
Zurück
Oben