Notiz GPU-Gerüchte: AMD Radeon RX 6700 XT für bis zu 2.950 MHz freigegeben

Also mich würde nur VR interessieren. Hach schwer das alles :/
 
matty2580 schrieb:
Auch bei PCGH berichtet man heute über eine mögliche 3070ti.
Die hat dann aber wie die 3080 10GB, für 600€.
https://www.pcgameshardware.de/Nvid...hten-als-Reaktion-auf-Radeon-RX-6800-1362765/

Schade, auf diese Karte hätte ich noch etwas spekuliert, zumindest in einer 12GB Version, nachdem AMD mit dem Geld, pardon, RAM-Regen um die Ecke kam. Wäre ja mal ein netter Zug seitens Nvidia gewesen, mal nicht mit dem Speicher zu geizen und so die Auswahl für den Endkunden noch schwieriger zu gestalten. Erschreckend das die AMD 6700 (12GB) mit einer 3060 Ti (8GB) konkurieren soll. Natürlich ist ein großer Speicher nicht alles, aber die ersten Flaschenhälse in Spielen ergeben sich da nunmal bereits. Vielleicht bei der 3060 weniger, da deren Einsatzgebiet wohl nicht auf WQHD abzielt. Aber gerade die normale 3070 mit ihren 8GB ist ein Witz. Hinzu kommt dann noch, dass man mit neuer/n Technologie(n) um die Ecke kommt (RTX, DLSS 2.0, usw), aber den Speicher-Standard von Anno Tubak übernimmt.
 
  • Gefällt mir
Reaktionen: rumpeLson
Rein aus psychologischer Sicht macht AMD es richtig. Dem Kunden das Gefühl zu geben übertakten zu können und somit mehr Leistung rauszuholen bleibt Nvidia Nutzern erspart
 
Discovery_1 schrieb:
Ist das Raytracing-Feature daran Schuld?
Die zusätzlichen Einheiten unter anderem für RT. RT verbrennt halt massiv Rohleistung die irgendwo her kommen muss. Die Gegenwärtigen Techniken sind eben auf Effizienz ausgelegt. Ein Unreal hatte anno 1998 eben per Backrender volle Reflexionen auf einer Voodoo 2.
 
  • Gefällt mir
Reaktionen: Bigfoot29
GERmaximus schrieb:
Wenn wir ne Spanne von 500-700mhz haben (Stock zu OC), wird es wichtiger denn je, die Taktraten mit bei zu schreiben beim Test.
Siehe die 2080ti:
zwischen Stock mit knappen 1700mhz zu OC mit 2100mhz liegt eine ganze Leistungklasse an Unterschied.
Genauso die 3090.
Bei 1700mhz zu 2ghz, ebenfalls Tag und Nacht!

Benches Ohne Taktangaben sind für mich nichts mehr Wert. Schön das dies hier anders ist!
bei der 3090 ist´s fast schnuppe. Valhalla Benchmark undervolted 825mv/1800mhz = 78fps, OC auf 2000mhz = 81fps.
Beim Witcher macht das knapp 4 fps aus.
und in vielen Volllasttiteln kehrt sich das Blatt sogar, da erzielt man mit weniger mehr. Metro Exodus beste bsp. OC 102fps bei stark schwankenden Taktraten, mit uv 1800mhz 103-104fps mit deutlich stabileren Taktraten -> Powerlimit.
Vergleiche ich meine Ergebnisse mit meiner derzeit so undervolted immer mit OC Ergebnissen (Youtube, 3440x1440 ist leider nicht so weit gestreut) lieg ich meist minimal dahinter, oft auch darüber eben und das obwohl da meist ein 9900k/10900k auch mit genutzt wird.
Kann man sich hier im Undervolted Thread zu den Karten ja anschauen.
Bei Ampere ist das wurscht und jedes OC wird mit heftigen Watt anstieg für die paar fps gezahlt, dass ist in keinem Verhältnis mehr.
 
Botcruscher schrieb:
Die zusätzlichen Einheiten unter anderem für RT. RT verbrennt halt massiv Rohleistung die irgendwo her kommen muss
Ich brauche kein Raytracing. Ich würde es bevorzugen, wenn es dafür eher weiterhin relativ günstige und leistungsstarke aber dennoch stromsparende Grafikkarten geben würde. Ich wünsche mir also z. B. die GTX-Reihe von Nvidia zurück. Zur Zeit geht es leider genau in die andere Richtung.
 
Zuletzt bearbeitet:
Botcruscher schrieb:
in Unreal hatte anno 1998 eben per Backrender volle Reflexionen auf einer Voodoo 2.
Zitat eines Kumpels:
COOL! In dem Blut kann man sich SPIEGELN!

Gab ja damals anstelle von UT lediglich Unreal zur V² beigelegt. - War von Creative, das Pack. (Wenn mich nicht alles täuscht.)

Tja, im Prinzip ist es mit den Grakas wie mit den Prozessoren... wenn wenig Leistung da ist, wird mit Kniffen und Gehirnschmalz gearbeitet. Eine DBox2 - 66 MHz MIPS - konnte problemlos eine GUI über das Video-Overlay des MPEG2-Datenstroms vom Decoder legen. Und zwar sowohl unter Java(!) als auch unter Linux. 10 Jahre später muss man nen RasPi auf 800+ MHz takten, damit der ähnliches schafft.

Bei den Grafikkarten ist es ähnlich. Zu Anfang musste man tricksen. 90% Grafikfähigkeiten wurden mit 50% Leistung ermöglicht. Heute kosten die letzten 10 nochmal 50%.
Wobei man fairerweise sagen muss: In den letzten 5 Jahren haben sich die Grenzen doch deutlich verschoben, was Auflösung angeht. "Damals"(tm) war es i.d.R. FHD. Im besten Falle 3x FHD. Heute fahren diese Leute 3x 1440p oder gleich 4k. Das zieht dann doch überproportional Leistung. Und seien wir weiter ehrlich: So doll die Grafik von Unreal 1 damals für uns war: Im Vergleich zu heute schafft das jeder bessere Taschenrechner. ^^

Regards, Bigfoot29
 
Stahlseele schrieb:
Jay hat auch ein recht nettes video dazu gemacht:
Könntest du das nächstes mal in zwei Sätzen beschreiben wenn du ein Video Verlinkst?
Ich lese da draus nur das er eine Merc Karte bekommen hat und ich habe keine Zeit ein 20 Minuten Video anzugucken.
 
  • Gefällt mir
Reaktionen: Nefcairon
[wege]mini schrieb:
Vor etwa 3 Jahren, sind allen Beteiligten die Gesichtszüge entgleist, als Samsung und TSMC erklärt haben, wo sie 2025 sein wollen.
Erzähl mal. Wo wollen die denn hin, bzw. sein?
Ich hab da kein Plan.
 
Summerbreeze schrieb:
Wo wollen die denn hin, bzw. sein?

2nm wird wohl bis 2025 für alle der "Standard" werden. Hier waren 2017 nur 3nm anvisiert und das war schon "verrückt".

Die Packdichte und die Aufnahme von Strom wird noch einmal signifikant steigen/ sinken.

Der Takt kommt in Höhen, die früher nur bei CPU´s (also nicht so komplexen Chips) denkbar war und der Ausschuss wird noch einmal deutlich kleiner.

Die Geschwindigkeit der Belichtung wird noch einmal deutlich erhöht. Oder anders gesagt, die Anzahl der Belichtungsschritte wird verkleinert.

Das Ganze war 2017 so, als wenn dir jemand etwas vom Rotkäppchen mit dem bösen Wolf erzählt hat, da Intel ja bei 14nm einfach stecken geblieben war und Dinge erzählt hat, die glaubwürdig klangen, der Wahrheit aber nicht entsprochen haben.

Man könnt sagen: Der Weg von 28nm über 14nm zu 7nm wird jetzt innerhalb von 5 Jahren zusammen geschrumpft. Um überhaupt erklären zu können, was da technisch passiert.

mfg
 
Zurück
Oben