News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

Novasun schrieb:
Dann erkläre mir bitte wie NV es schafft aus nicht vorhande
Lies doch einfach mal den verlinkten Beitrag.
 
  • Gefällt mir
Reaktionen: JohnVescoya, evilhunter, adAstra und eine weitere Person
SirSilent schrieb:
Viele beschweren sich das high end früher günstiger zu bekommen war.
Das man aber heute mit einer Mittelklasse Karte wesentlich länger auskommt als früher mit High end darf man dabei auch nicht vergessen.
Das ist halt Psychologie, öfters einen kleineren Betrag ausgeben tut nunmal nicht so weh wie gleich all in zu gehen.
Alle 2 jahre eine 300€ Karte auszutauschen ist schon was anderes als gleich mal 700€+ auszugeben.
Effektiv hast schon recht, wenn ich bedenke das meine 7970 gut 5 Jahre im PC steckte und die 1080ti mindestens bis 2022 bleiben wird sind das schon ganz andere Zeiträume als in den 90ern und 2000ern.
 
Na wenn die Leistung auch nur ungefähr den Daten gerecht wird wie sie hier stehen, dann werde ich mir Ende des Jahres ein sehr potentes AMD only System zusammenschrauben. Gott wie kribbeln mir die Finger, dass ich endlich wieder einen Desktop zusammenschrauben kann und das Notebook nach Jahren in Rente schicken kann. Wie damals mit nem Athlon 2400+ und ner Radeon 9600pro :)
 
  • Gefällt mir
Reaktionen: russianinvasion, Maxxx800 und Ebu85
modena.ch schrieb:
Wenn man nix bekommt, ist nix mit hätte schon lange gewechselt.
Marktwirtschaft. NV hat nach unten gepokert und versucht Samsung gegen TSMC auszuspielen um die Preise zu drücken. In der Zeit hat AMD fröhlich die Kontingente von Apple, Huawai sowie den Bitcoinbuden aufgesaugt.
 
  • Gefällt mir
Reaktionen: bad_sign
@.Sentinel.
Ok danke für deinen Link. Ich habe glaube ich die Technik verstanden. Nix Magie... Sondern viel Hirnschmalz...
 
  • Gefällt mir
Reaktionen: .Sentinel., adAstra und Colindo
nazgul77 schrieb:
Sie haben in Summe wenig Marktdurchdringung, weil die OEMs Intel fest die Treue halten. Dort wird die Stückzahl gemacht, nicht im Online-Versand für Technikfans wie du und ich.
Aber bei Renoir können sie nicht mal die OEMs beliefern, weil die Nachfrage zu groß ist. Im Endkundenmarkt kommt Renoir dagegen kaum an. Im Vergleich zu allen seit 2007 herausgebrachten Prozessoren dürfte Ryzen 2 die beste Marktdurchdringung haben. Aber auch im Vergleich zu den Radeons dürfte Ryzen eine gute Marktdurchdringung haben. Und aktuell verdient AMD darüber auch gut Geld. Und wie man hier lesen durfte, haben sie für Ryzen 3 extrem hohe Kapazitäten gebucht. Dadurch dürfte die Marktdurchdringung weiter steigen, es sei denn, die Dinger floppen.
Deshalb wird AMD nicht am Hungertuch nagen, nur wenn ein paar Gamer zu Nvidia greifen. Gerade, bei den hohen Preisen, die sie für die Ryzens verlangen (können).
 
CrustiCroc schrieb:
Kam mit meinen 8 GB in WQHD sowie 4K auch noch NIE an die Grenze.
Dann waren Deine Einstellungen auch nicht auf Ultra gestellt. Frag dazu mal @HisN , der kann Dir ganz schnell erklären, wie Du 8GiB VRam vollbekommst. ;)
 
  • Gefällt mir
Reaktionen: gesperrter_User, bad_sign und HisN
PHuV schrieb:
Dann waren Deine Einstellungen auch nicht auf Ultra gestellt. Frag dazu mal @HisN , der kann Dir ganz schnell erklären, wie Du 8GiB VRam vollbekommst. ;)
Ja genau, irgendeiner weiss es immer besser. Schon mal mitbekommen, das viele Spiele bei mehr verfügbarem Ram, diesen auch füllen? Heisst also, 8 GB Ram verfügbar, knapp 8 GB gefüllt. 11 GB verfügbar, knapp 11 GB gefüllt und so weiter....

Heisst aber nicht das dass Spiel mit den 11 GB besser läuft. Meistens nur messtechnisch, denn wirklich "fühlbar".

Natürlich MÜSSEN die neue Karten da jetzt mehr bieten, das bestreite ich absolut nicht. Im hier und jetzt jedenfalls, reichen 8 GB in den allermeisten Fällen aber aus.
 
  • Gefällt mir
Reaktionen: adAstra
larz schrieb:
Na wenn die Leistung auch nur ungefähr den Daten gerecht wird wie sie hier stehen, dann werde ich mir Ende des Jahres ein sehr potentes AMD only System zusammenschrauben. Gott wie kribbeln mir die Finger, dass ich endlich wieder einen Desktop zusammenschrauben kann und das Notebook nach Jahren in Rente schicken kann. Wie damals mit nem Athlon 2400+ und ner Radeon 9600pro :)
Worin besteht eigentlich der Vorteil eines AMD only Systems? Der PC als Plattform hat doch grade den Vorteil der Auswahl verschiedener Hesteller für die jeweiligen Komponenten. Das erzeugt dann Innovation und Wettbewerb. Sonst schau mal bei Apple rein, alles von denen vorgegeben und was es nicht gibt gibt es eben nicht. So wie es Raytracing eben bislang nicht von AMD gibt. Da sagt man dann, das brauche ich nicht, oder?
 
  • Gefällt mir
Reaktionen: KlaraElfer, adAstra und CrustiCroc
Meine GPU-History (MX 440 SE, 9600 XT, 8800 GTX, HD 6950, GTX 1080) sagt eindeutig, dass diesmal wieder AMD an der Reihe ist :D

Freue mich sehr, wenn es diesmal tatsächlich wieder mehr Konkurrenz gibt! Mein Geldbeutel stimmt mir zu! :rolleyes:
 
pietcux schrieb:
Worin besteht eigentlich der Vorteil eines AMD only Systems? Der PC als Plattform hat doch grade den Vorteil der Auswahl verschiedener Hesteller für die jeweiligen Komponenten. Das erzeugt dann Innovation und Wettbewerb. Sonst schau mal bei Apple rein, alles von denen vorgegeben und was es nicht gibt gibt es eben nicht. So wie es Raytracing eben bislang nicht von AMD gibt. Da sagt man dann, das brauche ich nicht, oder?
Gut gesagt ! Manchen haben echt irgendeinen seltsamen "Tick".

Intel und Nvidia : BÖSE !

AMD : DIE GUTEN !

Wer clever ist, nutzt das beste aus beiden Welten.
 
  • Gefällt mir
Reaktionen: gesperrter_User, Ebu85, rumpeLson und 3 andere
CrustiCroc schrieb:
Natürlich MÜSSEN die neue Karten da jetzt mehr bieten, das bestreite ich absolut nicht. Im hier und jetzt jedenfalls, reichen 8 GB in den allermeisten Fällen aber aus.
Ich meine auch etwas über KI-Speicherkompression bei den neuen Nvidia GPUs über die Tensor Cores gelesen zu haben.
Eventuell macht das die Sache zukünftig komplexer und (Nur als Beispiel, ich kenne keinerlei Werte!) 8GB Speicher mit KI-Kompression entsprechen 12GB "normalem" VRAM.
 
  • Gefällt mir
Reaktionen: pietcux
Novasun schrieb:
Oder Beschiss. Sorry aber ich versteh nicht wie das selbst Techresdaktionen abfeiern können. Die schreiben echt das Bild sieht besser aus als Nativ Rendering. Ja dann muss es in meinen Augen Beschiss sein. Jeder weiß man kann keine zusätzliche Informationen aus dem Nichts erzeugen - nur NV kann das und alle feiern das ab... Oder es ist wie du sagst Magie - aber an den Osterhasen glaube ich auch nicht mehr...
Leider glaub ich eher it is a Trick Not a Sony :(:lol::heul:
Lass es nicht besser sondern gleichwertig oder minimal schlechter sein. Alles wären hervorragende Eigenschaften wenn man bedenkt wie viel mehr Performance gleichzeitig bei rumkommt.

Also klar feier ich das als technikbegeisterter Mensch ab. So wie eben ein Auto mit minimal schlechterer Beschleunigung dann die Hälfte an Sprit braucht.

Was hat man denn die letzten Jahre beobachtet? Games sahen eigentlich kaum besser aus als 5 Jahre alte Titel, brauchten aber die 4x + an GPU Power. Die höchsten Presets sind oft rein zu Show, kein Mehrwert bei halber Leistung. Da kann es mir nur recht sein wenn Techniken wie DLSS durch intelligente Algorithmen das Verhältnis Grafik / Performance wieder etwas entgegensteuern.
 
  • Gefällt mir
Reaktionen: Shoryuken94, legenddiaz, pietcux und 2 andere
Das Bild paßt
1596536348141.png


CrustiCroc schrieb:
Heisst aber nicht das dass Spiel mit den 11 GB besser läuft. Meistens nur messtechnisch, denn wirklich "fühlbar".

Natürlich MÜSSEN die neue Karten da jetzt mehr bieten, das bestreite ich absolut nicht. Im hier und jetzt jedenfalls, reichen 8 GB in den allermeisten Fällen aber aus.
Seelig sind die Nichthaben, denn sie sehen es nicht? ;)

Du kalkulierst falsch. 8 GB war schon vor 4 Jahren optimal, siehe https://www.computerbase.de/artikel/grafikkarten/grafikkarten-speicher-vram-test.56639/
Und man kauft sich JETZT eine Karte, welche die nächsten 2-3 Jahre oder mehr halten soll, mit RT und hochauflösenden Texturen in UHD? Sorry, da kommst Du mit 8 GB nicht weit.
Xes schrieb:
Ich meine auch etwas über KI-Speicherkompression bei den neuen Nvidia GPUs über die Tensor Cores gelesen zu haben.
Eventuell macht das die Sache zukünftig komplexer und (Nur als Beispiel, ich kenne keinerlei Werte!) 8GB Speicher mit KI-Kompression entsprechen 12GB "normalem" VRAM.
Aus leidlicher Erfahrung hier in der Firma kann ich für DL und KI nur bestätigen, je mehr VRAM, umso besser.
 
Zuletzt bearbeitet:
Novasun schrieb:
@.Sentinel.
Ok danke für deinen Link. Ich habe glaube ich die Technik verstanden. Nix Magie... Sondern viel Hirnschmalz...
Den Hirnschmalz überlässt man an vielen Stellen einfach der KI, was auch durchaus Sinn macht. Anders herum wäre es klassisch ja auch kaum sinnvoll zu programmieren, man kann ohne KI kaum sowas wie eine Bilderkennung oÄ in Code fassen.

Über kurz oder lang wird bei RT das deterministische Bild von einst eh verschwinden, jede GPU ggf ein dezent anders Ergebnis am Schirm ausgeben. Dass kann man dann nur noch über einen Mean Opinion Score erfassen, also diversen Probanden die nicht wissen was verbaut ist und das Ergebnis qualitativ anhand einer Scala einordnen.

Die Sache wird dann extrem schwer zu reviewen und immer etwas subjektiv sein. AMDs RT kann schlechter oder besser aussehen als Nvidias RT, zumal man da auch noch Denoise usw implementiert.

Dann heißt es quasi Bildqualität angleichen oder eben im Standard testen, dann bezüglich MOS und Performance einordnen.
 
Novasun schrieb:
Jeder weiß man kann keine zusätzliche Informationen aus dem Nichts erzeugen - nur NV kann das und alle feiern das ab...
Das geht schon seit Jahren.
Ein populäres, altes Beispiel wäre das Entfernen von Objekten aus Bildern und Hintergrund aus dem "Nichts" erstellen in Photoshop:

Nvidia erstellt per KI Bilder von Personen die es garnicht gibt:
https://thispersondoesnotexist.com/

Warum sollte es dann nicht möglich sein feine Details wie Linien, Wolken oder schärfere Steinchen in einer Bodentextur hinzu zu erstellen?
 
  • Gefällt mir
Reaktionen: goldeye
GroMag schrieb:
Achso, eine 2070 ist nicht fast 3x so schnell wie eine 970, aber nicht mal 50% teurer?
Eine 970 kostete zum Release ca. 350 Euro eine 2070 zum Release ca. 600 Euro. Und das vier Jahre später. Ich hab im Winter 2014 eine R9 290 für 270 Euro gekauft. Die Leistungsmäßig irgendwo im Bereich einer RX 570. Eine Karte die heute noch für ca. 150 Euro verschachert wird und das nach 6 Jahren. Anfang 2019 bin ich auf eine 1060 umgestiegen ohne signifikanten Leistungssprung.

Wenn du das Technische Entwicklung nennst, dann prost Mahlzeit. Übertragen auf den 486er, der in den 90er noch sündhaft teuer war, müsste die heutige Technik Milliarden kosten.
 
CrustiCroc schrieb:
Gut gesagt ! Manchen haben echt irgendeinen seltsamen "Tick".

Intel und Nvidia : BÖSE !

AMD : DIE GUTEN !
Ist vielleicht aber auch etwas fragwürdig, jemandem direkt einen "Tick" zu unterstellen, weil er zwei Komponenten vom selben Hersteller hat.

Gibt ja jetzt nicht sonderlich viele sinnvolle Möglichkeiten. Intel ist aktuell praktisch aus dem Rennen, und sonst gibt es halt nur AMD + Nvidia oder eben AMD + AMD als Möglichkeit. 50:50 also, dass man einen Tick hat. Aha.
 
  • Gefällt mir
Reaktionen: Sun-Berg, bad_sign, Chismon und eine weitere Person
Zurück
Oben