News Sapphire-Interview: AMD Navi soll Anfang Juli in zwei Versionen antreten

Die Karten sind noch nicht mal aufm Markt, die Specs unbekannt, RT braucht eh so gut wie keiner, keiner weiß, wie teuer die Grakas werden, aber Hauptsache schon mal ordentlich mimimimi.
 
  • Gefällt mir
Reaktionen: Benji21 und Denniss
frankyboy1967 schrieb:
Die Karten sind noch nicht mal aufm Markt, die Specs unbekannt, RT braucht eh so gut wie keiner, keiner weiß, wie teuer die Grakas werden, aber Hauptsache schon mal ordentlich mimimimi.
Braucht keiner? Das dachte ich mir auch am Anfang, aber bei manchen Spielen ist RT echt cool. Lieber haben als nicht haben
 
  • Gefällt mir
Reaktionen: kisser
Chillaholic schrieb:
Nimmste halt einen TU104 und speckst den ab. Nvidia fällt da schon was ein. ;)
Eine Ti war soweit ich weiß bisher eine Version von einer GPU, eine weiter abgespeckte TU104 2070ti zu nennen macht wenig Sinn.
 
MeisterOek schrieb:
AMD sollte NVidia Konkurrenz machen und nicht sich selbst...

Kurz und knapp, JA, genau.
Das wird keine Marktanteile gegen NVidia bringen, sondern Unruhe im eigenen Lager. Generell etwas enttäuschend aus AMD-Kundensicht. NVidia Kudnen mit einer GTX 1080Ti sehen immer noch keinen Grund upzugraden, weil es außer der RTX 2080Ti praktisch keine Alternativen gibt und die ist a) viel zu teuer und b) mit zu wenig Leistungsschub ausgestattet.
 
  • Gefällt mir
Reaktionen: MeisterOek
ChowTan schrieb:
GCN war wie Bulldozer bei den CPUs von der ersten bis zur derzeit fünften und offensichtlich auch bis zur sechsten und letzten Iteration ein einziger Reinfall, der ausgemerzt gehört.
Selten so einen Blödsinn gelesen.
GCN war von Anfang an gut und Konkurrenzfähig.
Tahiti, Hawaii, Fiji, Polaris und Vega sind gute Architekturen die ihre Leistung erbringen.
Mit dem Wechsel von Hawaii auf Vega kam auch eine Verdoppelung der Leistungsfähigkeit.

Jetzt ist GCN eben langsam am Ende weil wir uns bereits im Vollausbau befinden, ein letzter Shrink und ein paar Optimierungen werden hier noch ein bisschen was rausholen...aber ja, demnächst kann es ruhig was neues geben.

Trotzdem hat uns GCN über Jahre begleitet und das sehr gut. Vor allem kann man selbst eine Tahiti-Karte auch heute noch problemlos zum zocken verwenden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schranz0815 und stevefrogs
Krautmaster schrieb:
der Schritt is einfach nötig weil die Karte AMD günstiger kommt als das HBM Vega II Monster. Anders bekommt AMD den Preis nicht runter.

Klar kommen Sie damit eine gute Ecke günstiger weg, als mit der Radeon VII (Kein HBM, weniger komplexer Chip etc.) Aber das ganze ist schon ziemlich enttäuschend. Bei einer ähnlichen Ausgangsleistung wie bei der Radeon VII kommt man dann mit 256Bit GDDR6 vielleicht noch auf die Performance von einer Custom Vega 64 bzw. leicht darüber.

Wäre auch alles gar kein Problem bzw. sehr gut, wenn es denn eine echte Mittelklasse Karte mit entsprechendem Preis ist. Für um die 250-300$ wäre das durchaus eine spannenden Karte. Für 400 -500$ hingegen bringt es dem Kunden keine nennenswerten Vorteile. Ja AMD kommt mit etwas mehr Marge pro Karte weg, Kaufanreize schafft man aber nicht.

Für die Ursprüngliche Polaris Zielgruppe ist Navi damit zu teuer, die angepeilte Preisregion hat AMD schon seit Jahren mit mehr oder weniger gleich schnellen bzw. mittlerweile günstigeren Karten besetzt. Der Potentielle Kundenkreis ist recht klein. Davon abgesehen, dass es in dem leistungsbereich so viele Karten wie kaum woanders gibt.

Aber der großteil der Navi Chips wird anfangs wohl eh in die Konsolen wandern. Dann kann man so langsam nach und nach Vega damit ablösen. Aus Kundensicht hat sich aber wenig getan.

ChowTan schrieb:
GCN war wie Bulldozer bei den CPUs von der ersten bis zur derzeit fünften und offensichtlich auch bis zur sechsten und letzten Iteration ein einziger Reinfall, der ausgemerzt gehört. Ich hoffe sie fangen bei der nächsten Architektur wirklich komplett neu an und übernehmen keine GCN Elemente.

Was ein Schwachsinn. GCN spielt nicht mehr in der obersten Liga mit, richtig. Aber kaum eine andere Architektur ist so vielseitig einsetzbar und war bei Release so fortschrittlich, wie GCN. Im Bereich energieeffizienz hat Sie ihre Probleme, womit auch dem Maximalen Ausbau Grenzen gesetzt sind. Wenn man sich mal Dinge wie den low Level API Bereich anschaut, dann ist es ziemlich erstaunlich, was diese alte Architektur drauf hat. Und wenn man sich mal anguckt, was Nvidias GCN Konkurrenz von damals (Kepler) noch so leistet...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schranz0815, Rockstar85, Sun-Berg und 2 andere
irgend ein chip wird schon verbaut werden und aktuell scheint der vollausbau ja wirklich 4k shader zu haben.

https://www.computerbase.de/2018-06/playstation-5-amd-zen-navi/

"seien entgegen den Wünschen Koduris zwei Drittel seines Teams allein für die Entwicklung von Navi abgestellt worden. Darunter habe entsprechend die Entwicklung von Vega gelitten, heißt es. Dies sei der Grund, warum Vega nicht die Erwartungen erfüllen konnte. "

irgend wo sind doch alles story teller am werk und wir werden sehen, was kommt :evillol:

mfg

p.s.

am ende interessiert mich nach aktueller gerüchtelage nur navi12 mit 2k shadern, 75 watt und fast 580 viveau und navi 20 mit 4k shadern in 2020.

navi10 wird wohl eher ein "bauernfänger"... freundlich ausgedrückt zu teuer für die gebotene leistung.
 
Zuletzt bearbeitet:
zeedy schrieb:
Aber was hat es mit meinem Kommentar zu tun den du zitiert hast?


als er einen 8kern, 16fred prozessor mit einem 7700k verglichen hat, war doch das gespräch eigentlich beendet :D

mfg

@muzafferamg58

wollen wir jetzt über dinge wie preis und leistung und kosten und nutzen reden? der intel kann höheren takt und ist in vielen dingen schneller...fakt.

jetzt aber sinnlos einen ryzen 7 mit einem 7700k zu vergleichen ist mMn nicht zielführend.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Im Bereich energieeffizienz hat Sie ihre Probleme
Nicht mal das, die Karten können extrem effizient betrieben werden, laufen eben nur weit überm Sweetspot.
Dass man z.B. bei Vega mit einem Powerlimit von 50%, also halbierter Leistungsaufnahme (130W), immer noch ca. 75% der Leistung hat, sagt ja schon einiges.
 
Marcel55 schrieb:
Nicht mal das, die Karten können extrem effizient betrieben werden, laufen eben nur weit überm Sweetspot.
Dass man z.B. bei Vega mit einem Powerlimit von 50%, also halbierter Leistungsaufnahme (130W), immer noch ca. 75% der Leistung hat, sagt ja schon einiges.
Nvidia kannste auch Undervolten und das genauso gut, meine 2070 nutzt 125-130W und hat keinen Leistungsverlust.
 
muzafferamg58 schrieb:
meine 2070 nutzt 125-130W und hat keinen Leistungsverlust.


da musst du ein echt starkes stück silizium haben....gerade die maxQ version in den notebooks verliert doch deutlich zu der normalen 2070.

https://www.computerbase.de/2019-02/nvidia-geforce-rtx-mobile-test/

da sind bei 115watt schon 30% unterschied zu den 185watt stock im desktop.

klar, die cpu limitiert ja auch immer noch ein wenig im notebook, am ende hat jan aber die überschrift mMn gut getroffen....

"Turing für schlanke Notebooks macht keinen Klassensprung "

nvidia arbeit wirklich stark, zaubern können die aber auch nicht. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Schranz0815 und Rockstar85
zeedy schrieb:
Eine Ti war soweit ich weiß bisher eine Version von einer GPU, eine weiter abgespeckte TU104 2070ti zu nennen macht wenig Sinn.
Die 1070 und 1080 waren auch beide GP-104.
nun haben wir aber TU-106 als 2070 und TU-104 als 2080.
Das Schema ist also problemlos veränderbar.
 
Chillaholic schrieb:
Das Schema ist also problemlos veränderbar.


eigentlich ist es auch ziemlich ehrlich....der gtx480 war z.b. noch der GF-100. die xx-100 zahlen wanderten irgend wann zu den profi karten.

dann wurde irgend wann aus dem xx-102 das "high end" modell. für mid range nahm man die xx-104 zahlen.

die rtx2070 kann halt mit einer xx-106 zahl im "mid range" mitspielen :D

wie man jetzt die "qualität" der chips in namen verpackt und durch preis am markt platziert, konnte dir doch keiner sagen, als das doch sehr gut funktionierende modell eingeführt wurde.

mfg
 
Baal Netbeck schrieb:
Wobei sich das auf die X Versionen 2600X und 1700X bezieht...die normalen Versionene Takten deutlich geringer mit PBO und da ist manuelles allcore OC durchaus gut...nur hat man da schlechter gebinnte Chips, die eben nicht unbedingt 4,15-4,2GHz schaffen..oder auch ein Stück drunter zu machen.

Die ohne X haben schlicht kein PBO, die 1xxx haben den auch nicht. :freaky: Alle Ryzen 2000 mit X Zusatz können PBO, die anderen und die 1000er Reihe nicht.
 
784374


Muss ich meine Tocher wohl doch zum Chinesisch-Unterricht anmelden...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MichaG
[wege]mini schrieb:
wie man jetzt die "qualität" der chips in namen verpackt und durch preis am markt platziert, konnte dir doch keiner sagen, als das doch sehr gut funktionierende modell eingeführt wurde.
Ich finde auch, dass das ziemlich nebensächlich ist welcher Chip da jetzt drin sitzt.
Man orientiert sich an dem Wettbewerb und platziert daraufhin seine Karten.
Das hat Nvidia doch schon oft genug gemacht.
 
  • Gefällt mir
Reaktionen: [wege]mini
Chillaholic schrieb:
Das hat Nvidia doch schon oft genug gemacht.

betrachte die karten als die ersten ihrer art.....

wir sehen den xx-102, 104 und 106 chip...eigenlich ein komplettes lineup.

jetzt kommen shrinks, irgend wann 3nm fertigung und es wird erst mal nicht mehr viel rumgefummelt.

power ist auf jeden fall jede menge da. :evillol:

mfg
 
Benji21 schrieb:
Die ohne X haben schlicht kein PBO, die 1xxx haben den auch nicht.
Ok...aber alle zen+ haben einen dynamischen Boost....und der geht nunmal bei den non X CPUs weniger hoch.

Wenn ich in den CB Test zu zen+ gucke, dann hat der 2700X mit 4 Threads 4125-4150MHz.
Da kann man mit OC was rausholen, aber eben nicht viel und man verpasst den Boost auf weniger Kernen.
Das man da nicht übertakten muss...vor allem wenn man PBO nutzt und dann viele Spiele auch auf 4,2GHz gehen, ist durchaus richtig.

Der 2700 schwankt mit 4 Threads von 3825 auf 3950MHz ....da kann man mit allcore OC durchaus was verbessern und der maximale single core Boost ist doch 4,1GHz wenn ich mich nicht täusche...von mir aus 4150 mit XFR2 oder so....Allcore auf 4,1GHz sind da eine große Verbesserung...vor allem weil mit 16Thread Belastung der 2700 nur noch auf 3400MHz boostet.
 
  • Gefällt mir
Reaktionen: s0UL1
Zurück
Oben