News Umfragen zum Marktstart: Die GeForce RTX 4070 startet gut verfügbar ab 639 Euro

Caramelito schrieb:
Wie soll da eine 7800 XT hinpassen?
Hast du überlesen das Navi 31 nen Hardwarebug hat der zu Leistungseinbußen führt? AMD wäre ja wohl dämlich, das bei Navi 32 zu nicht beheben.
 
Die RTX 4070 ist quasi die RTX 3080 FE im moderneren Gewand. Sie ist technisch eine durchaus attraktive Mittelklasse-GPU, auch wenn 12GB Videospeicher in zwei Jahren nur noch für 1080p ausreichen wird, sofern man mit maximaler Grafikqualität inklusive Raytracing spielen möchte. Nur der Preis muss deutlich sinken. Die RTX 3070 FE hatte 2020 eine UVP von 499$. Hier sollte auch ungefähr die UVP des Nachfolgers angesiedelt sein.
 
  • Gefällt mir
Reaktionen: C0rteX
Jo die 4070 ist ne top Karte und würde sich auch verkaufen wie warme Semmeln, wenn der Preis stimmt.


Die 4060(ti) hingegen mit 8GB VRAM und 128bit Memory Bus, wird ne richtige shitshow werden. Würdiger Nachfolger einer RTX3050 halt.
 
  • Gefällt mir
Reaktionen: Gortha, C0rteX und BOBderBAGGER
Fallout667 schrieb:
Naja Stock zu Stock FE zu FE gab es das auch noch nicht. Eine übertaktetes Custom Design zählt da auch nicht wirklich. Dann müsste man OC Custom gegen OC Custom vergleichen.
Selbst die GTX 1060 im Referenzdesign ist laut der Tabelle im Screenshot schon 75% schneller als die RTX 960 und quasi gleichauf mit der RTX 980.
 
@Caramelito
Wenn ich jetzt kaufen müsste, ist eine 12 GB Karte uninteressant. Ich habe einen LG C1. Ich spiele also auch neben 1440p, auf 4k. Da in wqhd die 12 GB schon langsam eng werden, muss ich mehr kaufen. Meine Grenze sind 1000 Euro. Da hat Nvidia nichts was ich mindestens 3 Jahre bespielen kann.

@ComputerJunge
Es geht hier doch nicht um Moral oder das richtige tun. Ich kaufe wie einige andere halt einfach erstmal nicht, weil ich meine Karten für länger als den Releasezeitpunkt der neuen Gen einplane und diese Preispolitik ohne Mining und Corona nicht akzeptiere. Im Schnitt nutze ich meine Karten 3 Jahre. Ich warte die lineups beider Hersteller ab und lass die sich preislich sortieren. Dann bekommt man noch den besten Deal und ich umgehe Kinderkrankheiten oder verspätete Releases, die dem einen oder auch dem anderen eine derartige Preisgestaltung erlauben.

Ich sag ja auch nicht das man gar nicht kaufen sollte. Wem die Karte abrauscht oder nichtmal mehr einen Mix aus mittel bis hoch spielen kann, muss doch fast, aber 4070 wäre da keine Option für mich. Ich bin gespannt auf das Sommerloch und AMD. Wir sehen ja die Bewegung der Preise in den letzten Wochen. Die Regale sind voll und der Druck auf die Unternehmen wächst.

Beide Unternehmen sind nicht unsere Freunde. Ich hätte am liebsten noch Intel richtig Konkurrenzfähig. 3 nahezu gleichstarke Kontrahenten und wir hätten Karten zu Preisen, davon können wir nur träumen. Da wären keine 66 und 50 Prozent Margen zu sehen.

Wenn man sich den Fall bei den CPUs ansieht, wo wären wir dann heute ohne AMD? Würde uns Intel immernoch 4 Kerner mit 5 Prozent mehr Leistung für 450 Euro anbieten?

Und ja, ich habe kurz nach Release die 6700xt gekauft, aber mit meiner 1060 6 GB konnte ich mitten in Corona auf wqhd nicht einmal mehr richtig zocken und das war die einzige Karte, die mir von der Zukunftssicherheit noch ein gutes Gefühl gegeben hat. Eine 3070 hätte mich noch 300 mehr gekostet und ich wäre mit den 8 GB halt nicht gut gefahren. Lockdown und zuviel Geld haben mich dann nach 1 Jahr doch weich werden lassen. Die Kohle hat sich aber überwiegend der Händler eingesteckt und nicht AMD. Die UVP fand ich nämlich noch in Ordnung damals.

Aber gut, nach allen Meldungen verkauft sich das lineup von Nvidia nicht wirklich gut, also scheinen genug Leute jetzt keine Lust zu haben, sondern warten ab wie sich die Preise weiter entwickeln.

Im Juni kommt dann laut Gerüchten die 7800 xt in chiplet Design mit 16 GB. Mal sehen wie das so ohne Hardwarebug wird. Rdna 4 soll ja auch viel schneller kommen als die üblichen 2 Jahre. Das chiplet Design bei grakas ist neu und ein sehr guter Ansatz. Chips können nicht unbegrenzt wachsen, aber wie schon bei ryzen 1000 sind die ersten gens meist noch nicht ganz ausgereift. Ich erwarte mit der nächsten gen dafür einen größeren Sprung. Vielleicht halte ich es bis dahin noch aus.

Ich versuche die Games mittlerweile 3 bis 6 Monate nicht zu kaufen. Bei elden Ring hab ich gleich zugeschlagen, aber bei den meisten halte ich das noch aus. Man bekommt einfach ein viel besseres Spielerlebnis und die Bugs sind auch weniger. VRAM Verbrauch lässt sich halt nicht fixen. Man kann die Texturen nicht laden wie in Hogwarts, aber man keine maximale Qualität einstellen. Das ist auch völlig in Ordnung. Wie lange dreht und nvidia schon 8 GB an? Der Sprung war längst überfällig und wird mit dem Refresh der Konsolen mit Sicherheit nicht geringer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge
C0rteX schrieb:
Okay, offenbar bist du nicht nur schlecht informiert...

Der Vorteil ist, wenn man die Fanboys erstmal auf der Ignoreliste hat, muss man es nicht mehr lesen und Fremdschämen.

Das Zitat ist nicht von mir. Wird langsam echt zusammenhanglos. Da ist mir meine Zeit zu schade. 👋
Du wurdest gortha sachlich auseinander genommen und alles, was dir als Antwort einfällt, ist ihn als fanboy zu verunglimpfen und ihn auf igno zu setzen anstatt auf irgendeines seiner Argumente sachlich einzugehen. Wenn hier jemand verblendeter (anti-) fanboy ist, dann ja wohl du. Für diese intellektuelle Unredlichkeit landest du auch bei mir auf igno, dein seit Seiten stets gleiches geschwurbel bringt niemanden irgendwie weiter.
 
  • Gefällt mir
Reaktionen: Gortha
SonyFriend schrieb:
Und: Effizienz zählt heutzutage auch bei vielen Menschen.
aber immer nur dann wenn Nvidia und Intel besser sind.
Die 3000 hat wie viel mehr als die 6000 amd Generation benötigt? 50-70 Watt?
Hat niemanden interessiert, selbst das man neue Netzteile kaufen musste, egal ist ja für Nvidia.

Tja und bei Intel spielt dies auch keine Rolle, weder die bei erscheinen bereits tote Plattform, noch die 50-100% Mehrverbrauch im Gaming.
Denn die angezeigte Temperatur ist ja höher bei amd also = Hitzkopf. 🙄
 
  • Gefällt mir
Reaktionen: Qonqueror, Dai6oro und C0rteX
Da fehlt eine Option:
Ich habe gerade Last-Last-Gen 2000er Serie gekauft.
Uch mache die Preise net mit.
 
GERmaximus schrieb:
aber immer nur dann wenn Nvidia und Intel besser sind.
Die 3000 hat wie viel mehr als die 6000 amd Generation benötigt? 50-70 Watt?
Hat niemanden interessiert, selbst das man neue Netzteile kaufen musste, egal ist ja für Nvidia.

Tja und bei Intel spielt dies auch keine Rolle, weder die bei erscheinen bereits tote Plattform, noch die 50-100% Mehrverbrauch im Gaming.
Denn die angezeigte Temperatur ist ja höher bei amd also = Hitzkopf. 🙄

Wo war denn der Unterschied so groß? Eigentlich waren die doch immer recht dicht beieinander.

6600xt - 3060: 160W - 180W
6700xt - 3060ti: 220W - 200W
6800 - 3070: 250W - 220W
6800xt - 3080: 300W - 320W

Ausnahme war eigentlich nur die 3090, welche aber auch deutlich vor der 6900xt war.
 
Couch-Potatoe schrieb:
Wo war denn der Unterschied so groß?
Es scheint da verschiedene Tests zu geben, da ich aber sowohl die 6900xt, sowie die 3080ti und die 3090 hatte, ja es war mehr als 20 Watt ;)
Edit: evtl. habe ich das falsch in Erinnerung weil bei AMD anders gemessen wurde als bei Nvidia, da war ja was mit dem Verbrauch:confused_alt:
Couch-Potatoe schrieb:
Ausnahme war eigentlich nur die 3090, welche aber auch deutlich vor der 6900xt war.
jein. Nur mit RT bei 4k. bei allen anderen Dingen war die 6900xt eher messbar bis deutlich vor der 3090. Raster, 1440p hohe hz, Verbrauch...
 
GERmaximus schrieb:
aber immer nur dann wenn Nvidia und Intel besser sind.
Die 3000 hat wie viel mehr als die 6000 amd Generation benötigt? 50-70 Watt?
Hat niemanden interessiert, selbst das man neue Netzteile kaufen musste, egal ist ja für Nvidia.

Tja und bei Intel spielt dies auch keine Rolle, weder die bei erscheinen bereits tote Plattform, noch die 50-100% Mehrverbrauch im Gaming.
Denn die angezeigte Temperatur ist ja höher bei amd also = Hitzkopf. 🙄
Meine 6750 xt verbraucht mehr als die 3070 im anderen PC, also genau andersrum.
Intel finde ich persönlich Klasse, dass die 16 GB RAM unterhalb 400€ anbieten.
 
@C0rteX
Ich wollte auch „nur“ nochmal darauf hinweisen, dass VRAM-Knappheit auch durch ggf. unnötig hohe Nachfrage auf Softwareseite erzeugt wird. Das ist halt alles fließend.
Mir war das mit der Grenzwertigkeit der 12 GB beim Kauf voll bewusst. Und ich bin gespannt, wie ich darüber in zwei, drei Jahren denken werde.

Das mit der Moral war nicht direkt auf Dich bezogen, sondern eher ein allgemeines Seufzen.
 
  • Gefällt mir
Reaktionen: Gortha und sikarr
@GERmaximus

Ok, die 3090 gesteh ich dir zu. Aber sonst war es doch recht ausgeglichen was die Energieeffizienz anging. Mal 20W mehr auf der einen, mal auf der anderen Seite. Da hat eigentlich keine Karte deutlich herausgestochen.
In dieser Generation sind die NVidea Karten aber doch deutlich effizienter als ihre AMD Pendants. Das ist dann schon mal erwähnenswert. Und gerade im unteren Bereich wird das dann vielleicht auch zu einem Verkaufsargument. Da schauen die Leute dann doch auf jeden Euro rechnen dann vielleicht eher Preis und Nutzungskosten über 2-3 Jahre gegeneinander auf.
 
  • Gefällt mir
Reaktionen: GERmaximus
@Couch-Potatoe
Ja da hast du absolut Recht.
Mir geht es jetzt auch weniger um die Absoluten Zahlen. Meine Wahrnehmung ist einfach nur das die Leute immer sagen:
Wenn AMD effizienter wäre würden wir AMD kaufen
dann sind sie es mal und es juckt förmlich keine Sau.
Wenn ich AMD wäre, würde ich nur noch CPUs und APUs sowie Einsteiger und maximal noch Mittelklasse GPUs entwickeln. Die dadurch eingesparten Kosten dann eher in die CPUs oder APUs stecken. Highend GPUs sind seit der Fury mit ihren 4gb HBM Flop gefühlt immer nur ok von AMD und finden kaum anklang. Die Mittelklasse und Budget Bereich hingegen empfand ich immer als sehr angesehen
 
mibbio schrieb:
Selbst die GTX 1060 im Referenzdesign ist laut der Tabelle im Screenshot schon 75% schneller als die RTX 960 und quasi gleichauf mit der RTX 980.
Ja und 75 sind keine 85. Sind 10 weniger. Also gab es bisher eben noch keine 85% Steigerung bei den 60er Karten.
Ergänzung ()

PatriK schrieb:
puhhh eine 2060 war keine 70% schneller als eine 1060. eine 3070 auch nicht 65% gegenüber der 2070.
Doch waren sie, schau einfach in die Tests hier auf CB. Evtl verwechselst du das mit den 2060 Super und 2070 Super. Die 2060 Super war ja genauso schnell wie die 2070. Da waren die Steigerungen dann natürlich wesentlich geringer. Bei Turing lagen die 2060 und 2070 halt viel näher beieinander als bei Pascal, die waren nur knapp 20% auseinander. Dafür fand es dann halt noch die GTX 1660, 1660 Super und die GTX 1660ti.
Bei Pascal lagen zwischen der 1060 und 1070 etwa 40%.
 
Zuletzt bearbeitet:
Kein Wunder das die Verfügbarkeit gut ist, die Teile liegen auch wie Blei in den Regalen.
 
Um hier mal die laestige Diskussion ein wenig zu entschaefen -> Samsung 8nm auf TSMC 4N (5nm, fuer Nvidia optimiert) sind mehr als 2 Nodes ergo sind die %+ vollkommen normal bei dieser Generation bei Nvidia Grafikkarten und eben auch beim Leistung-Plus.

Tatsaechlich koennen die ja noch fast 25% drauflegen (mit einer 4090 TI, auf die ich warte) die sie ja im Grunde gar nicht brauchen, weil AMD irgendwas bei der neuen Generation "verbockt" hat. Da rauchen im Moment die Koepfe, warum die 7000er ihre Leistung nicht richtig auf die Strasse bringen (es gibt ja durchaus ein paar Ausnahmen) und vielleicht kommt die 7800XT ja mit einem Refresh der 7950XT und 7950XTX. Ist ja nicht mehr lange bis Juni ...
 
|SoulReaver| schrieb:
Ganz klar. ich habe es auch nicht gut geheißen. ich selbst bin ein Verfechter dieser in den letzten Jahren Preispolitik. NUUUUR schuld sind und seit ihr alle selber. anstatt zurück lehnen wird gekauft gekauft gekauft. Und das feuert die egal was wie verlangen es wird gekauft Preispolitik an. Wir haben und hatten es immer in der Hand.
Da gebe ich Dir voll und ganz Recht.
Genau aus diesen Gründen bin und war ich bei diesem Thema schon recht Stur.
 
  • Gefällt mir
Reaktionen: |SoulReaver|
Zurück
Oben