Notiz AMD Fortnite Map: Easter Egg weist auf Big Navi als Radeon RX 6000 hin

McFritte schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
NVidia nutzt für die doppelseitige Bestückung der 3090 den sogenannten Clamshell Mode. Der treibt die Kosten in die Höhe weil es aufwändiger zu produzieren ist.
Daher wirds die 3080 erst mit 20GB geben, wenn Micron mit der 2GB (16Gbit) Chipproduktion begonnen hat.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
@Beg1 wieso sollte AMD nicht die Performance der 3080 erreichen können?
Ich denke mal 6GB GDDR6x werden bestimmt keine 100 euro kosten vor allem nicht im Einkauf für AMD oder die Partner. Ich denke die werden dafür im Einkauf bestimmt was zwischen 30-50 Euro bezahlen. Und schlagen da noch etwas Marge auf. Somit sollte so eine Radeon 6900 oder wie auch immer die dann heißen wird kaum teurer als eine 3080 sein. Vor allem da AMD immer einige Euro günstiger als nVidia ist.

@gr1nd wo steht denn bitte das Big Navi kein GDDR6x haben wird?
Und wo hat nVidia bei Software die Nase vorn?
der I/O kram ist mit MS zusammen entwickelt worden und den hat die XBOX und PS5 auch. Die PS5 hat wohl sowas wie DLSS. Somit gehe ich erst mal davon aus das Big Navi das auch kann. Die frage ist jetzt nur wie gut das funktioniert?
Und was hat nVidia jetzt noch so an tollen Software vorteilen?
Ich werde abwarten bis von AMD und nVidia die Karten getestet wurden. Dann entscheide ich was ich machen werde.
Vor der Vega56 hatte ich eine 1070 gehabt und die war auch gut. Habe die dann verkauft da sie mir mit dem Blackscreens nach dem Standby total auf den Sack ging. Und ich war dann mit der Vega56 sehr zufrieden.
Vielleicht kaufe ich mir auch eine gebrauchte 2080ti für rund 400 Euro, mehr ist die mir nicht wert wenn die 3070 wohl schneller sein soll und dazu noch neu ist und dann 500 kostet. Aber mir sind wie ich schon geschrieben habe mehr als 8GB Ram sehr wichtig. Da die beiden Next Gen Konsolen mit 16GB daher kommen, werden sie bestimmt 8GB Ram für die Grafik bereitstellen. Somit wird am PC in 2k oder 4k auch 8GB Ram in den nächsten 2-3 Jahren recht schnell das Minimum sein.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Damien White schrieb:
Darum ging es doch gar nicht O.o

Ernsthaft, wo liest du raus, dass es mir darum ging?

Um was geht es denn hier die ganze Zeit? Um Salatrezepte oder um Marketing? Richtig. Wer wann wie wo was wen in welcher Stellung penetriert. Und wer den ersten Blick auf das Ding werfen konnte um nur genug Informationen zu erhaschen. Es geht hier doch die ganze Zeit nicht um Spielbarkeit sondern darum wer den größten Frameschwanz hat und die niemals befriedigte Grafikbitch befriedigen kann. Oder reden wir hier tatsächlich darüber dass wir alle unter unsäglich mieser Spiele-Perfomance leiden und mit 10 bis 25 FPS durch die Gegend laggen? Das hier sind First-World-Problems. Oder will jemand wirklich behaupten dass er gezwungen wird seine Spielesammlung auf Kinoleinwand-Niveau spielen zu müssen?
Und nein: Ich bin froh darüber dass es neue Produkte an der Hardwarefront zu sehen geben wird. Der Release der 2000er-Serie lag durchaus schwer im Magen: Überschaubare Mehr-Perfomance, nochmals höherer Preis, mit RT-Feature das man eher selten zu sehen bekam weil entweder die Spiele fehlten, die Perfomance litt oder ingame kompetitiv vernachlässigbar ist weil hier FPS und ein butterweiches gameplay wichtig sind. Der Mehrpreis inklusive RT als Argument also nicht nur mir fragwürdig erschien und damit einfach als Nice-to-have abgehakt wird.
Wenn wir schon bei First-World-Problems sind: Es sollte nicht vergessen werden dass auch unter FHD schon 6GB und 8GB VRAM geknackt werden (Unter normalen Umständen selten. Dann aber durchaus an den 6GB schrammend. Quake lässt grüßen). Was wiederum bedeutet: Wer deutlich mehr Perfomance und VRAM benötigt als die momentanen 8GB-Karten liefern wird sich die 3090 kaufen. Oder seine Perfomance-Erwartungen runter schrauben. Und ggf. abwarten ob AMD in der Midrange-Klasse mehr VRAM liefern kann.
Heißt momentan: Abwarten. Abwarten und Geld sparen für eine der Nextgen-Grafikkarten von NVIDIA (3080, 3090) und ggf. für ein neues Netzteil. Wer keine 700€+ für sein Highperfomance-Heizungsupdate ausgeben will wartet auf würdige 1060/2060-Nachfolger. Heißt: Abwarten. Alles andere ist Spekulatius. Oder Aufgeilen am nächsten Grafikpimmel.

[wege]mini schrieb:
Da ich ja kein BiVie (die bis vierziger) mehr bin sondern als Uhu (unter hundert) zu den älteren Semestern gehöre, bin ich immer "neidisch" auf die jungen Hüpfer, die mit 120+ Fps wirklich etwas anfangen können.

Bei mir ist dieser Zug abgefahren :D

Selbst mit flüssigen 60 Fps kann ich sogar bei Rennspielen noch arbeiten (das sind bei 360km/h ca. 1.6 m pro Frame), da ich persönlich einfach nicht mehr wirklich viel schneller bin.

Die Hawkeye user dürfen gerne schneller sein, manche sind von der Natur auch einfach bevorteilt.

mfg

Sagen wir es mal so: Mir reichen auch 50 FPS. Je nach Anforderung. Jeder Gamer der die letzten Jahre dabei ist weiß die 40 FPS+ zu schätzen. Erinnern wir uns an Tribes, Quake, UT, CS, etc. Wenn ich aber 120 FPS+ habe will ich die auch umgesetzt sehen. Ich behaupte: Nur wenige Menschen sehen einen riesen Unterschied zwischen 160 und 240 FPS. Wenn überhaupt. Es ist eben ein rein kompetitives Thema. Wer schnelle, kompetitive Spiele spielt weiß jedes zusätzlich Frame zu schätzen. 240 FPS sind also mehr Nice-to-have. Ein möglichst schlierenfreier TFT-Monitor allerdings ist für mich ein Must-have. Die Auswahl ist daher überschaubar. Und es braucht sicherlich nicht 360km/h um an das Ziel zu gelangen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
ThePlayer schrieb:
@gr1nd wo steht denn bitte das Big Navi kein GDDR6x haben wird?
Das sagen die bisherigen Gerüchte. Daher schrieb ich auch "voraussichtlich" und nicht "definitiv". Warten wir mal auf den 7. Oktober.


ThePlayer schrieb:
@gr1nd
Und wo hat nVidia bei Software die Nase vorn?
der I/O kram ist mit MS zusammen entwickelt worden und den hat die XBOX und PS5 auch. Die PS5 hat wohl sowas wie DLSS. Somit gehe ich erst mal davon aus das Big Navi das auch kann. Die frage ist jetzt nur wie gut das funktioniert?
Ich rede nicht von dem DirectX IO Kram. Ich rede von DLSS und den Treibern. Nein, die PS5 hat nichts vergleichbares zu DLSS. Sony hat ein Patent eingereicht (Checkerboard nachfolger). Das war es zunächst. Da wird bestimmt was kommen, aber mit AMD hat das überhaupt nichts zu tun. Dazu kommen eben auch die SDK für die Entwickler.
 
@gr1nd ich finde zur Zeit ist hier noch recht viel Spekulatius, dabei ist erst September bis Weihnachten ist noch etwas Zeit.
Bei nVidia weiß man so grob wo sie stehen. Und in einigen Wochen gibt es dann auch tests hier bei CB.
Bei AMD ist noch viele im Dunkeln und alles noch möglich vom 3090 Killer bis zum kommt nicht an die 3080 ran.
Ich hoffe das es bald mehr Leaks und Infos zu BigNavi gibt das man sich ein besseres Bild machen kann. Und ich hoffe das AMD diese mal nVidia bis zur 3080 oder einer späteren 3080ti parolli bieten kann und so die Preise etwas purzeln. So haben alle was davon egal ob sie grün oder rot kaufen wollen.
Ich bin mir aber sehr sicher das AMD was gutes hat sonst wäre nVidia nicht so gnädig bei den Preisen von Ampere.

@Hektor26 woher willst du das wissen? Noch weiß man nicht genau wie schnell die 3080 ist außer dem was nVidia da erzählt.
 
  • Gefällt mir
Reaktionen: Muxxer und Bulletchief
Der Thread hat den Titel ...Easter Egg weist auf Big Navi...
Dass es hier eher um Spekulatius anstatt um trockene Plätzchen ääh Fakten geht, sollte eigentlich klar sein oder? Glücklicherweise müssen wir aber nicht bis Weihnachten warten um mehr zu wissen. Und ich denke auch, dass irgendjemand noch vor dem 14.9. gegen das Embargo verstößt und Benchmarks zur 3080 veröffentlicht ;)


PS828 schrieb:
Ist ja nicht so dass AMD eben diese Features einführen wird
Raytracing ja. Zu DLSS wird es keine Antwort seitens AMD geben.
 
  • Gefällt mir
Reaktionen: ThePlayer
.Ake schrieb:
Um was geht es denn hier die ganze Zeit? Um Salatrezepte oder um Marketing? Richtig. Wer wann wie wo was wen in welcher Stellung penetriert. Und wer den ersten Blick auf das Ding werfen konnte um nur genug Informationen zu erhaschen. Es geht hier doch die ganze Zeit nicht um Spielbarkeit sondern darum wer den größten Frameschwanz hat und die niemals befriedigte Grafikbitch befriedigen kann. Oder reden wir hier tatsächlich darüber dass wir alle unter unsäglich mieser Spiele-Perfomance leiden und mit 10 bis 25 FPS durch die Gegend laggen? Das hier sind First-World-Problems. Oder will jemand wirklich behaupten dass er gezwungen wird seine Spielesammlung auf Kinoleinwand-Niveau spielen zu müssen?
Und nein: Ich bin froh darüber dass es neue Produkte an der Hardwarefront zu sehen geben wird. Der Release der 2000er-Serie lag durchaus schwer im Magen: Überschaubare Mehr-Perfomance, nochmals höherer Preis, mit RT-Feature das man eher selten zu sehen bekam weil entweder die Spiele fehlten, die Perfomance litt oder ingame kompetitiv vernachlässigbar ist weil hier FPS und ein butterweiches gameplay wichtig sind. Der Mehrpreis inklusive RT als Argument also nicht nur mir fragwürdig erschien und damit einfach als Nice-to-have abgehakt wird.
Wenn wir schon bei First-World-Problems sind: Es sollte nicht vergessen werden dass auch unter FHD schon 6GB und 8GB VRAM geknackt werden (Unter normalen Umständen selten. Dann aber durchaus an den 6GB schrammend. Quake lässt grüßen). Was wiederum bedeutet: Wer deutlich mehr Perfomance und VRAM benötigt als die momentanen 8GB-Karten liefern wird sich die 3090 kaufen. Oder seine Perfomance-Erwartungen runter schrauben. Und ggf. abwarten ob AMD in der Midrange-Klasse mehr VRAM liefern kann.
Heißt momentan: Abwarten. Abwarten und Geld sparen für eine der Nextgen-Grafikkarten von NVIDIA (3080, 3090) und ggf. für ein neues Netzteil. Wer keine 700€+ für sein Highperfomance-Heizungsupdate ausgeben will wartet auf würdige 1060/2060-Nachfolger. Heißt: Abwarten. Alles andere ist Spekulatius. Oder Aufgeilen am nächsten Grafikpimmel.

Was?

Ernsthaft, was?

Du interpretierst das alles in ....

Damien White schrieb:
Das ist alles?

Das ist wie AMD versucht den Geforce 30xx Hype den Wind aus den Segeln zu nehmen?

Uff, das ist entäuschend.
Sorry, aber nochmal ....

Was?

@ rest: Kann mir irgendwer erklären was hier gerade ab geht? O.o

EDIT Sorry an den Nutzer "Rest", mir war nicht klar, dass es jemandem mit dem Namen gibt ^^"
 
ThePlayer schrieb:
@gr1nd oh das ist interessant. Dann bin ich gespannt was AMD für RAM nutzen wird. Vielleicht auch GDDR6x AMD Edition oder HBM2 (sehr unwahrscheinlich), oder nur GDDR6? Naja zur Zeit ist es einfach nur spannend was von AMD kommt.

Wenn es proprietärer Speicher in Zusammenarbeit mit NVIDIA ist, dann wird dieser sicherlich nicht in der ersten Generation bei AMD zu finden sein. Ergo HBM2. Oder GDDR6. Letzteres ist da sehr wahrscheinlich. Auch im Hinblick des Preiskampfs. Gerade AMD hat hier nichts zu verschenken. Also sollte man mit seinen Erwartungshaltungen rund um Grafikhammerschnäppchen eher am Boden bleiben.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und gr1nd
Junger hupfer der grüne Hektor, mei brüderchen will auch ned glauben das AMD a zeitlang schneller war als Intel und mitm Athlon damals glaub sogar als erster die 1 GHZ schallnauer durchbrochen hat, ja oder einfach des greenMarketing was ja top leute da sind, hat da a paar synapsen grün gefärbt :lol:

Dessweiteren wird MS und Sony schon wissen wieso se AMD in ihren Konsolen verbauen, NV hat damals sicher RTX und DLSS auch schon im programm, weil bei solchen ausschreibungen fährt man schon mit allem auf was geht um den Vertrag zu bekommen. Kann natürlich auch sein das lederjäckchen zu gierig war und Sony und MS diesen hier 🖕 gemacht haben und AMD den zuschlag gegeben haben mit der Info auf RTX und DLSS , jaja möglich is vieles und gierig sind se alle , sind AGs da zählt am schluss nur umsatz und gewinn und ned des geheule der kundschaft. Und wenn die Kundschaft heult wegen nem Preis dann verbreit ich vorher das gerücht das das topmodell 2-2,5k $ kostet und stell das topmodell dann für 1499$ vor und schon bin ich der beste und alle freuen sich über so n schnapper 😂 ach ich lieb es andere zu Manipulieren und ja so is TopMarketing mit Psychologen Analysten und und und im hintergrund, so telemetriedaten was die treiber oft nach hause schicken runden so was dann noch ab. Ich finds toll
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und PS828
ThePlayer schrieb:
@Hektor26 Radeon 9700 und 9800 und Radeon 5xxx die Raden 7xxx da war AMD als erstes bei 1Ghz Takt. Oder auch die Radeon R9 290x war schneller als damals die GTX780!
So und jetzt bist du fertig mit trollen?
Nicht zu vergessen die X850 sowie die x1800 und x1900. Gerade die DX9 Ära hatte ATi NVIDIA gut im Griff.

Der Core2 war damals dann bei den CPUs durchaus schneller als der Athlon 64, nur zwischen 2000 und 2006 hat AMD quasi mit Intel den Boden gewischt. Zwischen 2006 und 2011 war es dann ungefähr wie aktuell, nur das der Phenom bei den Spielen mithalten konnte während man bei Anwendungen je nach Szenario wirklich massiv abgeschlagen war. Heute ist es so, das Zen in Anwendungen auf Augenhöhe mir "Vorsprung" agiert und etwas bei Spiele zurück steckt.

Damals war die Community aber etwas entspannter, was diese Themen anging. Ich hab langsam das Gefühl, das diese "Fanstreitigkeiten" heute leider etwas verbitterter sind als früher.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Phobsen und ThePlayer
Bin gespannt wien Flitzebogen. Für mich muß es gar nicht Leistung auf 3080er-Niveau sein, da ich eh nicht vorhabe, in UHD mit allem Pipapo zu zocken.
 
LipsiaV schrieb:
Du sprichst von Filterblase verweist aber gleichzeitig auf einen einzigen deutschen Online Shop.

Okay ich bin raus aus der Unterhaltung.
Ist ja wie in der Muppets Show.

der einzige frosch hier bist du. erst schreibst du das dich amd karten nicht interessieren (warum dann überhaupt was dazu schreiben?), dann quatscht du was von fakten, dann zeigt dir jemand auf das du nur in deiner persönlichen fanboyblase lebst und dann rumheulen... minfactory ist, soweit mir bekannt, der einzige onlinehänfler für hardware , der zahlen veröffentlicht. kriech mal wieder unter deinen stein 😊
 
  • Gefällt mir
Reaktionen: LipsiaV und ThePlayer
Destyran schrieb:
mir nicht. meine vega 56 läuft jetzt stock. ich habe soviele undervolt versuche unternommen, die zunächst stable schienen und am ende kam es dann doch wieder zu random crashes. die nächste karte soll auf jeden fall stock eine gescheite performance / effizienz bieten. da will ich maximal die lüfterkurve meines ghetto mods einstellen. die wenige zeit die ich noch zum zocken habe werde ich mir garantiert nicht mit black screens und zurückgesetztem game progress versauen :D

Gebe dir grundsätzlich Recht. Schön wäre es beim nächsten Mal auch einfach eine Karte zu haben die plug&Play ist. Geht ja auch bei der Vega, nur halt wärmer, lauter, stromfressend.
Trotzdem hat es Spaß gemacht die mit dem GhettoMod zu versehen und zu sehen wie effizient ich die Karte betreiben kann.

Diesmal gucke ich aber auch dass nix getweakt werden muss.
 
  • Gefällt mir
Reaktionen: Destyran
FatalFury schrieb:


Ursprungsquelle ist der Youtuber "Coreteks"!!!
Da kann man auch gleich schreiben: "Quelle: aus den Fingern gesaugt"
Der Typ lag noch NIE mit irgendwas richtig und wird trotzdem immer noch von vielen Portalen als Quelle genommen.
Zuletzt "Traversal Co-Prozessor bei Ampere" :lol:
gr1nd schrieb:
Hier noch die Quelle zu meiner Behauptung, dass Big Navi kein GDDR6X haben wird:
https://www.hwcooling.net/en/ampere-gpus-use-new-gddr6x-memory-based-on-pam4-en/

Micron has confirmed developping special GDDR6X chips for Nvidia that will increase clocks and bandwidth by 50% over GDDR6.
However, it is not a new standard, but a special (proprietary) technology developed by this company as a solo project in close cooperation with Nvidia.

Ja GDDR6X ist in enger Zusammenarbeit mit Nvidia entstanden. Da wird Nvidia AMD sicherlich nicht dranlassen.
D.h. entweder muss AMD mit "normalem" GDDR6 auf ein 512bit-Speicherinterface zurückgreifen, was die Chipgröße stark aufblähen würde, oder man verwendet HBMe von SK Hynix, welches zufälligerweise seit Sommer in Massenproduktion ist und wiederum in Zusammenarbeit mit AMD entstanden ist.
https://www.anandtech.com/show/15892/sk-hynix-hbm2e-memory-now-in-mass-production
Das würde aber dann die restlichen Herstellkosten ansteigen lassen.

Mit zwei 1024-Pin-Stapeln à 8GB und 3,6Gbps-per-pin, würde man auf eine Bandbreite von 921GB/s kommen. Nur knapp unterhalb einer 3090 (-1,5%).
Teralios schrieb:
Damals war die Community aber etwas entspannter, was diese Themen anging. Ich hab langsam das Gefühl, das diese "Fanstreitigkeiten" heute leider etwas verbitterter sind als früher.

Echt? Ich hab es grade vor und nach Release von neuen CPUs und GPUs immer schon so in Erinnerung gehabt.
Und ich bin jetzt seit 2002 in Hardwareforen unterwegs ;) Da wurde schon von NVidioten und fanATIkern gesprochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Ake und gr1nd
Jo, das war schon immer so. 80er: C64 vs schneider & co, Amiga vs Atari, Nintendo vs Sega. 90er: Amiga vs PC, Nintendo vs Sega vs Sony. Ende der 90er kam dann noch 3dfx vs nvidia ;)
 
Zurück
Oben