News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

M.B.H. schrieb:
-
RayTracing können die neuen AMD Karten dann auch? Oder wie ist das?

Ha AMD macht das über die ALUs im Shader selbst nicht über dezidierte Kerne. Spart einerseits Chipfläche für wichtigeres andereseits warten shader auch auf RT Kernberechnungen weshalb diese Lösung durchaus effizienter wäre vom ansatz (ob man die Leistung bringt ist ein anderes blatt papier)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Vexz schrieb:
Nein. Die GTX 970 mit ihren 3,5 GB VRAM vergisst sicherlich auch keiner so schnell.
In dieser Branche hat man eben nur die Wahl zwischen Pest und Cholera. Da sucht man sich das kleinere Übel aus.

Komisch, dass immer auf der 970 so rumgeritten wird, dabei gabs das von nVidia schon viel früher in der Form der GTX660/Ti, von den 2GB waren auch nur 1,5GB schnell angebunden wegen deren 192bit. Kann mich nicht daran erinnern, dass da auch so drauf rumgeritten wurde (im Test wurde es auf jeden Fall deutlich angemerkt!)? Es kann natürlich sein, dass das dann total an mir vorbeigegangen ist ^^
 
Hmm, sieht interessant aus aber ich warte die Tests ab, sieht aber so aus als ob alles über meinen Erwartungen liegt, gut für uns Verbraucher also.

@DAU123: Afaik war das bei der 660ti deklariert, bei der 970 war es das nicht und flog auf -> Betrug. Siehe CB Artikel.

E: Bzw. Hab ich bei der schieren Anzahl an Shadern einfach stumpf noch mehr Wumms von Nvidia erwartet, hmja, kommen vlt. noch "s" Versionen und dann auch welche mit mehr Speicher + vlt. schnellere Treiber.
 
  • Gefällt mir
Reaktionen: Verak Drezzt und Benji18
DAU123 schrieb:
Komisch, dass immer auf der 970 so rumgeritten

der Grund warum man darauf rumreitet ist, Nvidia hat das von start weg nicht klar kommuniziert (das sehe ich eher als kleines Problem). Was viel schwerer wiegt ist das man die Technischen spec. bzgl. ROPs und Cache seitens Nvidia nicht korrekt angegeben hat und das ist schon stark grenzwertig.

.Sentinel. schrieb:
Viele Leute haben inzwischen "Investitionsdruck" nach Turing.
Und nvidias Angebot ist attraktiv. Jede Einheit, die im Vorfeld an nvidia geht, bedeutet einen Käufer bei AMD weniger.

wer hat den bitte Investitionsdruck, die Karten sind aktuell nicht Lieferbar. Das ganze sieht nach einem eher überhasteten Release aus, der ordentlich nach hinten losgegangen ist (siehe Stabilitätsprobleme). Das Nvidia die Karten auch relativ nahe ans limit ab werk prügelt sind auch punkte die mich Fragen lassen warum macht eine Firma die "scheinbar" ein super produkt hat und Marktführer mit klaren Abstand ist das genau, wenn doch AMD ee nie eine chance hätte (was viele ja behaupten) ...

Ich glaube Nvidia weiß was AMD abliefern wird und hat Sie zu einem verfrühten "Launch" verleitet, darauf deutet auch hin das Nvidia den Boardpartner relativ spät Treiber zurverfügung gestellt hat was wiederum dazu geführt hat das ein haufen "instabiler" Karten am Markt geworfen wurden.

Beides nicht sonderlich gut, denn wer kauft sich karten die vielleicht nicht ordentlich laufen, schaut also aus meiner Sicht nicht nach nem gelungen Start aus. Hinzu kommt der exorbitante Stromverbrauch für überschaubare "Mehrleistung", wenn wir uns ehrlich sind ist der Sprung nicht größer als von Pascal auf Turing (außer vielleicht bei der RT Performance aber die ist stand jetzt nicht sonderlich relevant) All das Spielt AMD eigentlich in die Hände.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwenki, Pastafari, Blekota und 5 andere
[wege]mini schrieb:
Prinzipiell muss man aber sagen, die Big-Navi sind eigentlich nicht nötig.
Wenn Little Navi auch 4K in jederzeit >60 FPS kann gebe ich dir sogar Recht.
Mittlerweile ist die 4K Auflösung halt so weit verbreitet, das man sie nicht mehr ignorieren kann.
Vernünftig wäre es jedenfalls, keine Grafikkarten mit >200W Abwärme zu produzieren.
 
Zuletzt bearbeitet: (Fehler korrigiert)
Ratterkiste schrieb:
Interessant.
Der @Mcr-King hat also schon eine PS5, die sogar höher tastet als von Sony angegeben.
Da stellt sich mir alleine schon die Frage, wie er das bitte schön auslesen will?
Seit wann zeigen Konsolen ihre Taktraten an?
Wem willst er hier eigentlich was weiß machen? Und wer nimmt das Gekritzel überhaupt noch ernst?
Ernsthaft. Wir schreiben hier alle Blödsinn, und manches was ich schreibe muss man auch nicht für Ernst nehmen. Aber der Typ ist einfach irre, mich würd mal interessieren ob der tatsächlich glaubt das einer seinen Käse Ernst nimmt und glaubt.
 
  • Gefällt mir
Reaktionen: Pisaro, Backet, XReaper und eine weitere Person
.Sentinel. schrieb:
---Vollzitat entfernt---
bitte Zitierregeln beachten

Tja nur das AMD weder einen Hype aufbaut noch von der Leistungskrone gesprochen hat oder spricht. AMD hat sich vorrangig um den Konsolen Markt gekümmert. Dort machen sie in nächster Zeit den großteil des Geldes.

Das Navi2 schon seit längerem fertig ist zeigt das die ersten Xbox Series X schon vor 6 Monaten an Tester geschickt wurde.

Nochmal AMD will einen High End GPU für 4K Gaming in min 60fps mit HW RT auf dem Markt bringen <--- das war die Ankündigung für Big Navi. Das heißt Big Navi im Vollausbau wird 4K mit RT in min 60fps schaffen.

Die späte Vorstellung kann auch an verträgen mit MS und Sony zusammenhängen.

Und NV macht ja wie man sieht auch nicht alles richtig da hat man gerade viele käufer verprellt welche nun ja doch auf die konkurenz warten. ein früher lunch ist nicht immer der bessere.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Benji18 und Onkel Föhn
Summerbreeze schrieb:
Wenn Little Navi auch 4K in jederzeit >60 FPS kann gebe ich dir sogar Recht.

Ohne technologische Schummelei wie DLSS wird das nicht möglich sein. Für diese (sehr kleine) Gruppe von Konsumenten ist aber die grüne Fraktion zuständig.

Die Art und Weise, wie momentan von den Softwareheinis gearbeitet wird, ist einfach nicht akzeptabel. Wenn irgend jemand den schwarzen Peter verdient (ka ob man das politisch korrekt noch sagen darf), dann die Tastenklopper aus dem Keller.

mfg
 
  • Gefällt mir
Reaktionen: jemandanders
@ampre Die Survey ist zwar mit Vorsicht zu genießen, aber die "Honks" gibts hauptsächlich bei Enthusiasten. Bei Otto Normalverbraucher gibt nur ein verschwindend geringer Prozentsatz das doppelte für 10% mehr Leistung aus.

Beim Großteil ist die Brieftasche wichtiger als FPS. Sieh dich mal in diveresen Gamingforen oder FB Gruppen für Spiele um. Da gibts es tatsächlich noch massenhaft User mit GTX970, 1050, RX480 usw. Viele davon auf CPU´s wie I7/5-2xxx. Manch einer kauft sich ein so altes System heutzutage noch gebraucht für den Umstieg von Konsole auf PC.

Das gleiche mit FHD. Wenn man hier liest könnte man glauben FHD ist tot und existiert nicht mehr. Im realen Leben da draußen sieht das allerdings ganz anders aus. Da sitzt der Großteil noch vor FHD Monitoren.

Die CB Blase spiegelt nicht ännähernd den Markt wieder. Und das einige der Signaturen mit Systeminfos hier wahrscheinlich nur Show sind kommt auch noch dazu...
 
  • Gefällt mir
Reaktionen: shoKuu
[wege]mini schrieb:
Ohne technologische Schummelei wie DLSS wird das nicht möglich sein. Für diese (sehr kleine) Gruppe von Konsumenten ist aber die grüne Fraktion zuständig.
Seit Adrenalin 2020 vom Dez.19 gibt es ja bei AMD auch ein Upscaling per RIS, was recht gut funzt.
(oder auch Trixxboost)

Das sollte am Besten jeder User bei sich selbst testen, obs erträglich ist oder man lieber die Graka mehr stresst mit nativer Auflösung, ggf. ne größere Graka+NT kauft.
 

Anhänge

  • TRiXX-Boost.PNG
    TRiXX-Boost.PNG
    233,2 KB · Aufrufe: 498
  • Gefällt mir
Reaktionen: Balikon, Benji18 und Onkel Föhn
Ebu85 schrieb:
Das heißt Big Navi im Vollausbau wird 4K mit RT in min 60fps schaffen.
Quelle?
Ich kann mich nur erinnern das gesagt wurde dass Big Navi 4K Gaming ermöglichen soll und RT kann. Ich kann mich aber nicht erinnern das dass mit 4K + RT + min 60 FPS sein soll.
 
  • Gefällt mir
Reaktionen: stevefrogs und Baal Netbeck
DAU123 schrieb:
Komisch, dass immer auf der 970 so rumgeritten wird, dabei gabs das von nVidia schon viel früher in der Form der GTX660/Ti, von den 2GB waren auch nur 1,5GB schnell angebunden wegen deren 192bit. Kann mich nicht daran erinnern, dass da auch so drauf rumgeritten wurde (im Test wurde es auf jeden Fall deutlich angemerkt!)? Es kann natürlich sein, dass das dann total an mir vorbeigegangen ist ^^

Der Unterschied war, dass Nvidia diese Besonderheit bei der GTX 660 Ti klar kommuniziert hat. Es reichte also, einen Test zu lesen - und schon wusste man darüber Bescheid.

Die GTX 970 musste dagegen erst von Nutzern dahingehend "entlarvt" werden, bevor Nvidia Klarstellung betrieben hat. Daher rührte dann auch primär der Aufschrei.

@topic:

Ich bin sehr gespannt auf die fertigen Karten. Ein 256 Bit-Speicherinterface halte ich, anders als einige hier, auch nicht zwingend für kritisch. Es ist alles eine Frage der Implementierung und des verbauten Speichers. Aktuelle GDDR6-Chips takten ja beispielsweise durchaus sehr hoch. Man wird einfach abwarten müssen, was AMD konkret umsetzt.
 
3080 Niveau mit 16GB für unter 700€ und ich schlage zu. :)
 
  • Gefällt mir
Reaktionen: Bright0001
DAU123 schrieb:
Komisch, dass immer auf der 970 so rumgeritten wird, dabei gabs das von nVidia schon viel früher in der Form der GTX660/Ti, von den 2GB waren auch nur 1,5GB schnell angebunden wegen deren 192bit. Kann mich nicht daran erinnern, dass da auch so drauf rumgeritten wurde (im Test wurde es auf jeden Fall deutlich angemerkt!)? Es kann natürlich sein, dass das dann total an mir vorbeigegangen ist ^^
Das liegt vielleicht auch nur einfach daran das die GTX970 mit falschen Daten veröffentlicht wurde und das Problem mit dem Speicherinterface eine Folge der verschwiegenen internen Beschneidungen war.
(Cache wurde beschnitten was zu totgelegten ROPs führte und dieser Teil des Speicherinterface wiederum von anderen ROPs mit versorgt werden mußte)
Hinzu kommt das man zwar die Daten der Karte angepasst aber das Verhalten des Speicherinterfaces nie darin offengelegt wurde denn es war bis zuletzt von einem 256 Bit Speicherinterface mit der entsprechenden Übertragungsrate und 4 GB VRAM die Rede.
Die GTX660/Ti war nur deshalb problematisch weil es asymetrisch mit Speicherbausteinen bestückt wurde.
 
  • Gefällt mir
Reaktionen: stevefrogs und Benji18
Strikerking schrieb:
Quelle?
Ich kann mich nur erinnern das gesagt wurde dass Big Navi 4K Gaming ermöglichen soll und RT kann. Ich kann mich aber nicht erinnern das dass mit 4K + RT + min 60 FPS sein soll.
1+
Wenn BN ähnlich wie die 3080 wird, gibts eh keine Graka bei Grün+Rot die min 60Fps schafft ohne Scaling(DLSS etc.)
RTX 3080 Custom von Asus und MSI im Test: Ultra-HD-Benchmarks, Lautstärke, sonstige Messungen und Fazit - ComputerBase

AMD hat ja jetzt Zeit, um Takt und PL an die 3080 anzupassen. Wir werden sehen.
(wenn der erste RT-Anlauf net ganz so gut klappt isses nach m.E. auch kein Beinbruch, macht ja eh nur richtig Sinn
an nem guten Moni/TV ab HDR600... Gibts dafür Steamzahlen?)
 
@dynastes & @Wadenbeisser
Vielen Dank für die Aufklärung!
Hab mich damit nicht so sehr befasst, wie das damals bei den 660er kommuniziert wurde und bei der 970er ebenfalls nicht.
Hatte zwar damals eine 660, aber ich bemerkte von dem "Problem" nichts, da haben wohl 1,5GB VRAM ausgereicht ^^
 
Summerbreeze schrieb:
Mittlerweile ist die 4K Auflösung halt so weit verbreitet, das man sie nicht mehr ignorieren kann.

Ist das wirklich so ? Die meisten spielen heute noch in FHD. WQHD nimmt langsam zu, aber 4K ist jetzt noch nicht so weit verbreitet.
 
Die größte Stärke von NVIDIA ist DLSS, ich gehe davon aus dass in dieser GPU Generation immer mehr Spiele diese Art von Tech implementieren werden. Und wenn man dann mit den NVIDIA Karten einfach mal mit einem Knopfdruck 30-40% Performanceboost aktivieren kann dann nützt AMD das auch nichts dass ihre Karten in der reinen Performance ähnlich schnell sind. Preis hin oder her und Stromverbrauch hin oder her. Es gibt nicht wenige Leute denen diese Aspekte egal sind (letzterer jedenfalls). Und ob ich mir eine GPU für 900 oder 750 kaufe ist im Grunde auch völlig Wurst dann hier handelt es sich um Enthusiast Konsumenten Produkte.

Und ich stimme auch nicht zu dass die Tatsache dass AMD schweigt ein gutes Zeichen ist. Jedes Unternehmen nutzt sofort die Schwäche des direkten Konkurrenten aus. AMD nutzt gerade gar nichts aus. Sie versuchen gar nicht NVIDIA Käufer vom Kauf durch leaks etc abzuhalten. NVIDIA wird noch einen vollen Monat haben um ihre Karten abzusetzen und der %-Anteil der Leute die sich durch diese Crash-Reports beeinflussen lassen ist auch eher die Minderheit, davon kann man ausgehen.
Ich habe beispielsweise einen GSync fähigen OLED und einen GSync-Modul Monitor, für mich kommt also sowieso nur NVIDIA in Frage. Damit ich auf AMD umsattle muss schon was heftiges von ihnen kommen. Und damit meine ich nicht die gleiche Leistung wie die 3080 zu einem günstigeren Preis und weniger Stromverbrauch.
 
hmm, ich bin echt unentschlossen, war bisher eigentlich nie so "extrem", einerseits will ich "einer der besten gpus" haben, andererseit wenn ich an den verbrauch (sommer) denke fange ich schon jetzt zum schwitzen an ^^

im sommer nehme ich normalerweise fast immer oc raus und minimiere soweit es geht das PL von der GPU/980ti um einen Kampf PC vs. Klimaanlage zu verhindern :)

bisher ist wow auch das einzige spiel dass ich mit maus+tastatur spiele, die anderen Spiele spiele ich immer mit dem Xbox controller auf dem C9 und bin somit von der "Wärmequelle/PC" weiter entfernt

"will" eigentlich auch keine AMD kaufen da ich dann GSync von meinem Monitor nicht nutzen kann... ich warte aber jetzt dennoch auf AMD (bleibt eh nix anderes übrig, da ich aktuell sowieso keine 30x0 kaufen kann) und beeurteile dann neu ob ich AMD kaufen werde und somit zumindest "kurzfristig" auf "VRR" verzichten möchte.
 
[wege]mini schrieb:
Wenn irgend jemand den schwarzen Peter verdient (ka ob man das politisch korrekt noch sagen darf)
Wie Geil :D Ich habe gerade herzlich gelacht.
Danke


schkai schrieb:
Ist das wirklich so ? Die meisten spielen heute noch in FHD. WQHD nimmt langsam zu, aber 4K ist jetzt noch nicht so weit verbreitet.
Echt? Ich dachte zumindest die Fernseher wären jetzt alle in 4K?
So ist zumindest meine Wahrnehmung in meiner Umgebung. Scheinbar kann ja niemand mehr Fernseh gucken ohne min. 4K Bild. ;)
(Ich selbst kann auch auf einem FHD Fernseher noch etwas erkennen)
 
Zuletzt bearbeitet: (Ergänzt)
  • Gefällt mir
Reaktionen: [wege]mini
Zurück
Oben