News AMD Radeon RX 7600: Bilder zeigen die Sapphire RX 7600 Pulse mit 8 GB Speicher

Hominem schrieb:
Ampere hat nur soviel gesoffen wegen der scheiss samsung fertigung. Ada und ampere sind nicht so unterschiedlich aber tsmc ist halt um einiges besser, kostet halt auch. A

Ampere auf dem selben node wir rdna 2 damals, die wären AMD davongelaufen.
Der Infinity Cache hatte da auch noch viel reingespielt.
Deswegen hat NVIDIA das Konzept bei Ada ja auch übernommen.
 
Taurus104 schrieb:
Legitim. Aber bei Karten bis 500 darf man dann halt nicht mit guter RT Leistung in hohen Auflösungen rechnen, nativ.

Klar. Aber Upscaling setzt sich immer mehr durch und ich bin nicht empfindlich, wenn es kleinere Fehler geben sollte
 
Mal auf die Tests und vor allem den Preis gespannt.
400€ würde ich für viel zu hoch halten, angesichts der zu erwarteten Leistung und der Tatsache, dass man eine 6700XT inzwischen für ~370€ erhält.
250$ würde bei uns inkl. Steuer dann wohl um die 300€ entsprechen.
Wäre denke ich realistischer, man wäre grob im Preisbereich der 6650XT vielleicht etwas darüber, hätte etwas mehr Leistung und vermutlich etwas weniger Verbrauch, beim Vram und der Anbindung würde sich nichts ändern.
 
BaluKaru schrieb:
Deswegen hat NVIDIA das Konzept bei Ada ja auch übernommen.
Technisch nicht ganz richtig. AMDs Infinity Cache ist vereinfach ein L3 Cache mit integrierten L2. L3 Cache hat stark positive Auswirkungen auf das Speicherinterface. L2 Cache den Nvidia bei ADA etwas erhöht hat, hat darauf so gut wie keine Auswirkungen. Der größere L2 hilft mehr bei der effizienten Abarbeitung der Daten durch den Chips.
 
  • Gefällt mir
Reaktionen: Rockstar85 und C0rteX
Termy schrieb:
Die Kunden lassen es ja mit sich machen, wieso soll AMD da also nicht auch auf den Zug aufspringen? :freak:
Ich seh das nicht so! Der PC Markt bricht ein ohne Ende! Die Absatzzahlen sind im Sinkflug und alle großen Hersteller sind in den roten Zahlen! Speicher wird billiger und auch CPUs und GPUs müssen billiger werden! Das Preisniveau ist mittlerweile absurd hoch, für €2.000,- hab ich mir damals mein erstes Auto gekauft (27.000,- Schilling) und heute bekommst du nicht mal einen ganzen PC mit High-End Hardware. Die Inflation in Europa zeigt sehr deutlich das Spieler nicht unendlich Geld haben und die Zeiten in denen der Markt verlangen kann was er will, sind zum Glück vorbei.
 
  • Gefällt mir
Reaktionen: Rock Lee, Mcr-King und thrasir66
Hurricane.de schrieb:
Das mag ja sein, ich persönlich denke sogar dass Nvidia dafür 500€ verlangen wird. Das ändert aber nichts an meiner Aussage, dass eine Grafikkarte mit 8GB VRAM meiner Meinung nach im Jahr 2023 maximal 300€ kosten darf.
Vielleicht bekommst die 16 gb vram Version für 500 da kannst dann nix sagen hehe
Ergänzung ()

Taurus104 schrieb:
Legitim. Aber bei Karten bis 500 darf man dann halt nicht mit guter RT Leistung in hohen Auflösungen rechnen, nativ.
Klar glaub kaum das die 16 gb Version der 4060ti 500 kostet aber wenn wäre es der fairste Preis nvidia je hatte haha
 
Zuletzt bearbeitet:
Mit 8gb völlig uninteressant und der technische Sprung ist auch nur sehr gering. Für alle die eine Karte in der Preisregion suchen, ist die 6700(xt) doch perfekt und bietet mehr vram.
@Vitche Ich finde es wirkt im Artikel so, als ob die 4060 ti gesichert sei, dem ist doch aber garnicht so... Es gibt leaks auf Twitter, die eine 4060 ti mit 16gb vermuten, sicher ist da aber noch nichts, also tut doch bitte als seriöse Seite nicht so, als wenn es offiziell bestätigt wurde
 
  • Gefällt mir
Reaktionen: Dittsche
Diese ganzen AMD Namensgebungen können einen Frischling im Hardware Bereich bestimmt verwirren ^^
 
  • Gefällt mir
Reaktionen: ScorpAeon
Taurus104 schrieb:
Technisch nicht ganz richtig. AMDs Infinity Cache ist vereinfach ein L3 Cache mit integrierten L2. L3 Cache hat stark positive Auswirkungen auf das Speicherinterface. L2 Cache den Nvidia bei ADA etwas erhöht hat, hat darauf so gut wie keine Auswirkungen. Der größere L2 hilft mehr bei der effizienten Abarbeitung der Daten durch den Chips.
Das ist falsch. AMD hat ihren Cache fürs Speicherinterface als L3 Cache zwischen L2 und Bus gehängt, während NVIDIA dafür den L2 Cache aufgeblasen hat (wahrscheinlich dann auch nicht in der 6T Bauweise wie beim L3, sondern in einer komplexeren Struktur). Dieser ist dann gepoolt sowohl für den Dataflow in der GPU, als auch für die Vorlagerung zum Bus zuständig. Das macht NVIDIAs Lösung potenter, sorgt allerdings für höhere Latenzen für Daten, welche die GPU im L2 Cache zwischenlagern möchte.

Die Speicherhierarchie von Ada ist nochmal deutlich stärker auf das Abfangen von pulls aus dem Bus getrimmt als das von RDNA2/3. Sonst würden die Ada GPUs auch an ihrer Bandbreite verhungern.

Leider möchte NVIDIA nicht mit genauen Werten zur hitrate rausrücken und auch in der Doku werden keine quantitativen Daten genannt.

"Falls Sie das an AMDs Vorstoß mit dem "Infinity Cache" genannten Level-3-Zwischenspeicher innerhalb der RDNA-2-GPUs erinnert, sind Sie auf dem richtigen Dampfer. Hüben wie drüben hilft der große Zwischenspeicher dabei, wichtige Daten stets neben den Rechenwerken zu haben, anstelle den langen und energieintensiven Umweg Richtung Grafikspeicher zu gehen. Bedauerlicherweise nennt Nvidia auch auf mehrfache Nachfrage keine Zahlen zum GPU-internen Durchsatz und den Hit Rates (Erfolgsquote, etwas im Cache zu finden), allerdings lassen die Benchmarks auf eine sehr effiziente Lösung schließen."

https://www.pcgameshardware.de/Gefo...est-Benchmarks-RTX-4090-vorbestellen-1404846/


CB hatte einen mobilen Ableger von Navi33 schon im Test.
Ist nicht der Vollausbau gewesen, aber grundsätzlich macht der Chip gegen eine Potentielle 4050TI/4060 im Desktop eine ganz gute Figur.

https://www.computerbase.de/2023-04...t/#abschnitt_tdpskalierung_von_40_bis_90_watt
 

Anhänge

  • Screenshot 2023-05-10 135141.png
    Screenshot 2023-05-10 135141.png
    49 KB · Aufrufe: 148
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rockstar85, Dittsche und HierGibtsNichts
D3xo schrieb:
1060 war noch eine echte x60 und keine Mogelpackung. Für 450€ wird das kleine Kärtchen mit schmalen Interface wie Blei in den Regalen liegen.
Die 4070 kam mit 650€ uvp auf den markt. Mehr muss ich nicht sagen oder? Nvidia wird keine 300€ Lücke lassen. Mag sein, dass sich die realen Preise dann über die nächsten Monate nach unten korrigieren, aber 450 werden erst mal minium angesetzt, ich rechne eher sogar mit 500. vielleicht sieht man sie in einem halben jahr dann bei 400€
 
  • Gefällt mir
Reaktionen: Mcr-King
Hominem schrieb:
Was? undervolte ada du hast pascal verbrauch
Das meine ich ja, ich will daß nicht machen müssen. Das muß auch werkseitig gehen. TDP nach oben geht ja auch, also müssen die das auch in die Gegenrichtung hinkriegen, bei gleicher oder mehr Leistung.
 
4070 180-200 watt average stock was willst du noch?

Dann musst du auf die 4060 warten die liegt bei 120 watt wie die gtx 1060 aber ist 2.5 mal so schnell.
 
HaRdWar§FreSseR schrieb:
Was hat sich AMD bei der Speicherbestückung gedacht? Wenn ich die Wahl hätte, so würde ich mir lieber, wenn die Leaks stimmen, eine 4060 Ti mit 16 GB kaufen den 8 GB ist einfach nicht mehr zeitgemäß.
Ich weiß nicht ob hier AMD an den Pranger zu stellen ist....was hat sich NV dabei gedacht, eine 4060ti mit 16GB zu veröffentlich und 2x eine 4070(ti) mit nur 12GB und erst wieder eine 1200€+ GPU a la 4080 mit genauso 16GB?

Was ist an einer Einsteiger Karte wie der 4060 8GB und einer RX7600 mit 8GB so verkehrt? Das passt doch für FHD für um die 300€.

Aber wenn ein Hersteller eine 900€ Karte (wie der 4070ti z.B.) mit nur 12GB veröffentlicht (und diese dann auch noch gekauft wird von manchen), dann läuft doch da eher was falsch.

Sorry, da finde ich komplett NV nicht mehr Zeitgemäß so seine zahlende Kundschaft zu veräppeln...
 
  • Gefällt mir
Reaktionen: Eli0t und C0rteX
Hi

Ich ne R6800 mit Garantie um 375 brkommen.
Eine Giganyte die kommt verdammt knapp an ne 3089 ran.
400 wäre mir für eine 7600 zu teuer.

Gruss Labberlippe
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
danyundsahne schrieb:
Aber wenn ein Hersteller eine 900€ Karte (wie der 4070ti z.B.) mit nur 12GB veröffentlicht (und diese dann auch noch gekauft wird von manchen), dann läuft doch da eher was falsch.

Sorry, da finde ich komplett NV nicht mehr Zeitgemäß so seine zahlende Kundschaft zu veräppeln...
Aber die 4070TI hat doch dlss3 und FG *ironieaus haha
 
BaluKaru schrieb:
Sonst würden die Ada GPUs auch an ihrer Bandbreite verhungern

Genau das tun sie ja auch. Schau dir die neueren Spiele in 4k an. Hogwarts zum Beispiel oder auch Cyberpunk. Da operiert die 4070ti gerade Mal auf dem Level der 3080 mit 10 GB. Das sind was? 20 bis 25 Prozent zusätzlichen Leistungsverlust nur durch Bandbreitenlimitierungen in 4k gegenüber 1440p in rechenintensiven Spielen? Für 850 euro eine absolute Frechheit. Es gibt keine hinnehmbare 4 k Karte von Nvidia unter 1200 bis 1300 Euro. Da reden wir lieber gar nicht erst von der dünnen Speichermenge. Und der Preis der 4080 gemessen am value ist sowie so ein Witz. Da könnte DLSS doppelt so gut wie FSR sein. Ein Kauf steht völlig außer Frage.

Ich packe direkt eine Quelle mit reproduzierbaren Benchmarks dazu. Ich weiß ja wie manche hier sein können.

 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rockstar85, Holgmann75 und Banker007
nvidia Hate Train wieder voll in fahrt. wieder die gleichen Leute, welch überraschung. Dann die ironie in der Signatur. Kannst dir nicht ausdenken sowas.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
yamiimax schrieb:
Aber die 4070TI hat doch dlss3 und FG *ironieaus haha
Was noch mehr Speicher von dem üppigen 12GB VRAM verbraucht, ganz super :D
 
  • Gefällt mir
Reaktionen: Mcr-King
Selber getestet oder wieder nur am papagei sein? die 500mb

Edit: beitragsverlauf alles klar. amd boy
 
Zurück
Oben