News Umfragen zum Marktstart: Die GeForce RTX 4070 startet gut verfügbar ab 639 Euro

BOBderBAGGER schrieb:
Jap die hochauflösenden Texturen sind stellenweise "wegoptimiert" worden. ;)
Gut, das weiß ich jetzt nicht was diese unfähige Spieleschmiede mal eben Quick-and-Dirty als Lösung genutzt hat, um ihre Kunden mit 8 GB Vram schnell besser zu stellen.
Haben am Markt vorbei entwickelt was VRam-Kapzität angeht.

Man kann allerings sehr wohl intelligenter VRam verwalten. Nicht nur Texturen gegen minderwertige austauschen.
 
  • Gefällt mir
Reaktionen: sikarr
BOBderBAGGER schrieb:
Jap die hochauflösenden Texturen sind stellenweise "wegoptimiert" worden. ;)
Mit D4 ist übrigens der nächste Titel unterwegs der mit high Quality assets die 10 und 12 GB Liga auch ohne RT ins straucheln Bring.
Quatsch!

Wir haben D4 zu Dritt mit zwei Kumpels über beide Beta-Wochenenden zig Stunden gesuchtet.

Alle hatten 8Gig Karten und unter WQHD NULL Probleme.
Ein Kumpel hat sogar einen 1440p Widescreen.

Wo schnappt ihr diese Gerüchte eigtl immer auf? Habt ihr das Game mal selbst gezockt?
 
  • Gefällt mir
Reaktionen: Gortha und sikarr
Wan900 schrieb:
Alle hatten 8Gig Karten und unter WQHD NULL Probleme.
High Resolution Assets die man zusätzlich installieren muss, die habt ihr auch benutzt ja ?
Komisch das alle die ich mit 8 GB Karten kenne sich über Stottern in bestimmten Bereichen beschwert haben das nach der Reduzierung der Grafik Einstellungen Plötzlich weg war.


Gortha schrieb:
Haben am Markt vorbei entwickelt was VRam-Kapzität angeht.
Der Markt aka Current Gen Konsolen sind schon eine weile bei 16GB. Wenn die Karten nicht an Compute sondern VRAM scheitern hat da jemand ganz anderes am Markt vorbei entwickelt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX
BOBderBAGGER schrieb:
High Resolution Assets die man zusätzlich installieren muss, die habt ihr auch benutzt ja ?
Komisch das alle die ich mit 8 GB Karten kenne sich über Stottern in bestimmten Bereichen beschwert haben das nach der Reduzierung der Grafik Einstellungen Plötzlich weg war.
Ja haben wir. Die volle Installation mit High-Res Texturen. -> keine Probleme in ca. 40-50 Stunden Spielzeit.

Bzgl des Stotterns: Ich weiß nicht welche Systeme deine Bekannten hatten, aber das dies lediglich eine Beta war, sollte auch bedacht werden.
Das es dann vielleicht nicht auf jedem System ohne „Zucken“ läuft ist doch auch logisch.

Ich habe grad mal bei Battle net geguckt: Mindestvoraussetzung ist eine 660 mit 2GB!
Empfohlen wird eine 970 mit 3,5GB bzw 4GB😂

Aber klar: Unter 16GB geht natürlich nichts mehr.
 
BOBderBAGGER schrieb:
Der Markt aka Current Gen Konsolen sind schon eine weile bei 16GB. Wenn die Karten nicht an Compute sondern VRAM scheitern hat da jemand ganz anderes am Markt vorbei entwickelt
Nur die "Current Gen" von amd, also die 6000er High- bis Mid-End haben 16 oder 12 GB VRam. Alles von NVidia und AMD davor hatte nur 8 GB. Das ist der großteil des Marktes an Kunden für diese Spieleschmiede. Deswegen haben sie auch am PC-Markt vorbeientwickelt. Das meinte ich.

Eine Konsole hat 16 GB für alles. Da kann nicht alles für die Grafik verwendet werden, Betriebssystem und Spiel brauchen auch RAM.
Ergänzung ()

BOBderBAGGER schrieb:
High Resolution Assets die man zusätzlich installieren muss, die habt ihr auch benutzt ja ?
Warum sollte man bei WQHD oder gar FullHD 4k aka UHD Texturen nutzen sollen?

Ich habe die D4 Beta auf Max Details mit meiner 12 Gig 4070ti auf WQHD problemlos spielen können.
KA, ob ich da diese 4k Texturen hatte.
 
Zuletzt bearbeitet:
Wan900 schrieb:
Das es dann vielleicht nicht auf jedem System ohne „Zucken“ läuft ist doch auch logisch.
Mit reduzierten Einstellung lief es wunderbar.
Ich habe die Texturen selbst nicht getestet, kannst dich gerne in den einschlägigen Foren oder auf redit umsehen da haben haufenweise Leute Probleme bis hin zum Crash gehabt.
Ergänzung ()

Gortha schrieb:
Warum sollte man bei WQHD oder gar FullHD 4k aka UHD Texturen nutzen sollen?
Weil 650€ für ne GPU hingeblättert habe und möchte das meine Games so gut es nur irgendwie geht aussehen ?

So weit ist es schon gekommen das PC Gamer gegen bessere Texturen argumentieren.
 
BOBderBAGGER schrieb:
Weil 650€ für ne GPU hingeblättert habe und möchte das meine Games so gut es nur irgendwie geht aussehen ?
Ich weiß halt nicht, ob die Ultra 4K Texturen einen Mehrwert optisch haben bei WQHD. Weiß nicht wie gut die Texturen der Stufe dadrunter sind.
Ergänzung ()

BOBderBAGGER schrieb:
Weil 650€ für ne GPU hingeblättert habe und möchte das meine Games so gut es nur irgendwie geht aussehen ?
Was hast du denn?
 
BOBderBAGGER schrieb:
Das eine hat mit dem anderen nichts zu tun
Natürlich, klar der RAM Verbrauch ist bei 4K automatisch höher also bei FHD und WQHD, sind ja auch mehr zu berechnende Pixel. 4K gabs auch bei einer 1080 Ti schon und da wurde auch schon über den Ram gejammert, aber die Entwickler können trotzdem den Verbrauch optimieren das liegt aber am Entwickler und nicht am Hersteller.
BOBderBAGGER schrieb:
Der Markt aka Current Gen Konsolen sind schon eine weile bei 16GB. Wenn die Karten nicht an Compute sondern VRAM scheitern hat da jemand ganz anderes am Markt vorbei entwickelt
Playstation 5 hat 16Gb GDDR6 Ram, für alles + 512Mb DDR4 Ram für Services. Die 16Gb Ram sind aber nicht exklusiv für die GPU da, die müssen sich GPU und CPU teilen.

Bei der Xbox sind es auch 16Gb GDDR6 Ram aber hier wurde der Ram auf 10Gb für GPU und 6Gb für OS aufgeteilt. also kann man davon sprechen das 16Gb VRam nicht mal bei NextGen Konsolen vertreten sind.

Aber ich gebe dir dahingehen Recht das wenn die Konsolen mehr VRam bekommen sich das Analog auf den PC bzw. GPU Markt Auswirken wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
1681902823295.png

Bringen die bei WQHD oder FullHD einen optischen Mehrwert außer RAM-Verschwendung?
 
Fällt im Mai für durchscnittlich 50€ronen mindestens. Also anstelle von 635€ dann 585€.

https://www.3dcenter.org/news/news-des-18-april-2023
Ergänzung ()

sikarr schrieb:
Prinzipiell natürlich, Ram Verschwendung ist das ja nicht sondern es sollte im Optimalfall schärfere und detailreichere Texturen und Modelle nach sich ziehen.
Nur wenn diese in WQHD oder eben FullHD auch zur Geltung kommen.
Wenn man optisch bei der Pixelanzahl von WQHD keinen UNterscheid zwischen High und Ultra(High-Resolution-Assets) erkennen kann, dann ist es Perlen vor die Säue.
 
Zuletzt bearbeitet:
Fallout667 schrieb:
Naja ob die 7700XT die Konkurrenz zur 4070 bildet glaube ich noch nicht so ganz, wird wohl eher die 7800XT werden. Die 7900XT ist ja auch nur Konkurrenz zur 4070ti. Und mehr als 12GB wird die 7700XT wohl auch nicht haben.

Und wo hast du ne Strix 1080 zum Releasae bitte für 560€ bekommen, das war dann aber das Schnäppchen überhaupt. Die FE hatten zu Release ne UVP von 759€, für meine MSI GTX 1080 hab ich zum Release im Frühling 2016 850€ bezahlt.
Habe die Karte damals über einen Freund ohne Garantie gekauft. Der arbeitet bei einem Lieferanten der Hardware Stores beliefert. Daher der günstige Preis. Besitze auch aktuell eine 4080 die mich nur 800€ gekostet hat. Für mehr wäre sie mir auch nicht ins Haus gekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
AlmightyAmun schrieb:
Besitze auch aktuell eine 4080 die mich nur 800€ gekostet hat. Für mehr wäre sie mir auch nicht ins Haus gekommen.
Ab jetzt ist deine Forum InBox nicht mehr sicher^^ haha:D
:skull_alt:
 
  • Gefällt mir
Reaktionen: Fallout667 und AlmightyAmun
Bisher ist sie ruhig :P Ist auch gut so haha 😆
 
AlmightyAmun schrieb:
Habe die Karte damals über einen Freund ohne Garantie gekauft. Der arbeitet bei einem Lieferanten der Hardware Stores beliefert. Daher der günstige Preis. Besitze auch aktuell eine 4080 die mich nur 800€ gekostet hat. Für mehr wäre sie mir auch nicht ins Haus gekommen.

Können wir bitte beste Freunde werden? Was wäre denn ein Freundschaftspreis für die 4090? 😘

4080 für 800 wäre ich auch direkt dabei. Das ist ein fairer Preis. Ist ja auch nur marginal abweichend von den 1300 oder 1400 die Nvidia dafür Mal wollte bzw. immernoch will.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: sikarr
C0rteX schrieb:
Ich schreibe 12 GB werden bereits eng. Beispiele selbst in wqhd sind so ziemlich alle AAA Spiele der letzten Monate.
Merke ich nix von, ich spiele auf WQHD, nen mal ein paar Beispiele vielleicht habe ich sie in der Bibliothek.
C0rteX schrieb:
Ich spiele meist auch in optimized settings und mit upscaling. Ultra settings sind doch meist eher nicht lohnenswert.
Wenn es die Karte hergibt drehe ich alles nach Rechts, bei der 1060 konnte ich das nur in den seltensten Fällen.
C0rteX schrieb:
Das ich das kann, liegt daran weil ich vor 2 Jahren eben nicht die 3070 gekauft habe. Mit der hätte ich ja heutzutage selbst in full HD durch die 8 GB Probleme.
Dazu kann ich nix sagen da ich die Gen übersprungen habe, ich habe also nur den Vergleich von 6Gb auf 12Gb wobei die 6Gb ja an eine 1060 gebunden waren die eh kaum für hohe Settings geeignet waren.
C0rteX schrieb:
Ist eine Frage des Anspruchs. Bei mir ist bei 1000 Euro Ende. Wenn ein Hersteller keine Karte unter 1000 Euro bieten kann, die mir 3 Jahre mindestens high Texturen in 4 k bieten kann, dann kann ich diesen leider nicht kaufen.
Ist bei mir ähnlich, natürlich würde ich gerne weniger bezahlen müssen aber wenn ich keine Angebote bekomme habe ich nur 2 Optionen, 1. nicht kaufen oder 2. mehr zahlen. Muss jeder mit sich selber ausmachen.
C0rteX schrieb:
Ist jetzt eine Weile her, aber wenn ich mich Recht erinnere, hatte ich mit der 1060 23 fps in wqhd auf Low settings in Shadow of the Tomb Raider. Können aber auch mittlere Details gewesen sein. Auf jeden Fall sah es nicht mehr gut aus und die fps waren ungenügend.
Muss ich mal testen, habe ich nie gespielt.
C0rteX schrieb:
verstehe ich das Fanboyverhalten einfach überhaupt nicht
Ich auch nicht, ich hoffe ja das Intel mal noch die Kurve kriegt. Es war abzusehen das Intel mit der 1. Gen nicht sofort den Markt umkrempeln wird. Aber die letzten Treiberupdates lassen hoffen es gibt große Performancegewinne. Wenn sie das bei der nächsten Gen dann auch bei der Hardware schaffen könnte der Traum war werden und ein 3. Big Player den Markt aufmischen.
C0rteX schrieb:
Keine Bedrohung? AMD hat diese Woche 60 Prozent Marktanteil bei Mindfactory trotz 4070 Release.
Nvidia hat auch noch andere Bereiche und Mindfactory bildet auch nicht Markt ab, gibt auch noch andere Läden, es gibt einen Eindruck der aber nicht stimmen muss.
C0rteX schrieb:
Texturen sind da leider eine relativ feste Größe. Man kann schlechtere Texturen nehmen und Texturen nicht laden. Das der Unwillen für ausführliche Optimierungen vorhandenen ist, dafür gibt es genug Beispiele. Da können wir uns auf den Kopf stellen. Also muss man das mit bei der Kaufentscheidung berücksichtigen.
Gibt ja Texturestreaming und auch rBAR und SAM schlagen in die Kerbe. Bloss man muss auch realistisch sein. Die Leute erwarten Qualität und Leistung auf Highend Nivau wollen aber nix dafür zahlen (das soll nicht heißen das ich die aktuellen Preise gut finde). Ich weiß auch nicht warum die Hersteller mit dem VRam so geizen.
 
  • Gefällt mir
Reaktionen: C0rteX
BOBderBAGGER schrieb:
Einfach weil man es kann.
Man könnte auch einfach mehr drauf packen ^^. Ich denke aber es hat einfach Marketinggründe, wenn man weiß das man die Konkurenz nicht überholen oder anderen exklusiven Features überbieten kann, packt man "einfach" mehr Speicher drauf.

Ich habe viele Bekannte die bei einer Grafikkarte immer nach dem VRam fragen, die fragen nicht welches Modell hast du sondern wieviel VRam hat die. Damit zielen die Personen aber nicht auf die hier besprochene Textur Problematik oder das zocken in 4K ab, sondern es ist für die eine einfache Kennziffer, mehr Vram muss besser sein. Die stecken nicht genug in der Materie um etwas mit Takt, CUs, RT, Speicherinterface usw. anzufangen zu können sondern die machen es am VRam fest.

Die Hersteller wissen das denn nur so können ja so Perlen wie eine 3060 mit 12Gb oder die RX 5500 mit 8Gb auf den Markt kommen, die von ihren jeweils größeren Brüdern mit weniger Speicher geschlagen werden. Aber 12GB oder 8Gb anstatt 6Gb kann man natürlich besser vermarkten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
sikarr schrieb:
Die Hersteller wissen das denn nur so können ja so Perlen wie eine 3060 mit 12Gb oder die RX 5500 mit 8Gb auf den Markt kommen, die von ihren jeweils größeren Brüdern mit weniger Speicher geschlagen werden. Aber 12GB oder 8Gb anstatt 6Gb kann man natürlich besser vermarkten.
Da hast du vollkommen Recht.
Ich hatte in der Corona-Zeit selber mal eine RX 5500 XT kaufen können, für 270€ - mein Sohn war froh, überhaupt etwas fürs Spielen in seinen PC zu bekommen.
Später hab ich die Karte in einem anderen PC wieder verkauft. Der Interessent hatte bei mir sogar die Wahl zwischen einer 5500XT und 6600XT, beide 8 GB.
Darauf angesprochen meinte er nur, dass ihm die 5500 XT reichen würde, hätte ja auch 8 GB!
 
Zurück
Oben