Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.542
Wer spricht von drei 1080 Ti? SLI = zwei Karten da es kein Tripple SLI mehr gibt.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ich bin da nicht so optimistisch, in der Vergangenheit war die Steigerung zu über 80% dem höheren Takt geschuldet. 30% mehr Takt sehe ich aber nicht mehr als realisierbar, hier müssten die Referenzkarten schon über 2000MHz boosten. Wenn sie das tun, sehe ich so gut wie keinen Spielraum mehr für die Boardpartner.Chismon schrieb:Hm, ich nicht und wenn man eine GTX 980 mit einer GTX 1080 vergleicht (da diese die gleiche Leistungsklasse abbilden, eben nicht GTX 980Ti Enthusiasten-Einstiegsklasse zu GTX 1080 Oberklasse), dann hat man auch wegen des großen Shrinks 50-60% von der Maxwell Generation zur Pascal Generation an Rohleistung zugelegt.
Daher sehe ich 40% mehr Rohleistung von Pascal zu Volta (analog zum Anstieg bei den Profimarkt-GPUs P100 zu V100) durchaus als ziemlich realistisch/machbar (in der Oberklasse) an.
Mustis schrieb:... Aber es war klar, dass AMD unterstellt wird, dass sie das nur tun, der USer willen, weil der gute Raja das so sagt.
Ozmog schrieb:Kleiner Gedankengang, was da auch noch für die Zukunft interessant sein könnte: Infinity Fabric. Während Nvidia gigantische Chips fertigen lässt, könnte es dann von AMD MCM mit Vega geben. Statt Dual-GPU-Karten könnten einfach zwei Dies zusammengeschaltet um die CUs zu verdoppeln. Also so wie mit Naples und Threadripper.
Ozmog schrieb:Während Nvidia gigantische Chips fertigen lässt, könnte es dann von AMD MCM mit Vega geben.
Diese Karten wirst größtenteils nach spätestens 2 Jahren weg schmeißen können.Ginmarr schrieb:Die Leute Moden ihre Ti das sie auf 350Watt kommen um Stabil 2300 Ghz fahren zu können. Also bitte....
Raja schrieb gestern, daß die Treiberentwicklung eines der schwierigsten Aufgaben eines GPU-Herstellers ist. Insofern es sich bei Vega um etwas wirklich neues handelt, dürfte das ne Menge Arbeit bedeuten. Und ich glaub nicht, daß AMD mal so schnell 100 Entwickler dafür abstellen kann.Chismon schrieb:Wenn angeblich 80% der RTG seit einem halben Jahr an den Treibern für RX Vega arbeiten, wäre das ein ziemliches Armutszeugnis für AMD, wenn RTG jetzt (nach den letzten Demos) für den Marktstart immer noch nicht einigermaßen passabel dahingehend aufgestellt wäre, wie lange sollen die denn noch brauchen (?) ... daher denke ich, dass Deine "nicht in die Karten schauen" These zutreffender sein könnte, aber irgendwie kann daraus auch ein "Trick 17 mit Selbstüberlistung" werden, warten wir es ab.
[–]gfxchiptweeterIn Raja We Trust 87 Punkte vor 12 Stunden
Developing drivers for new architecture is one of the most complex and difficult engineering tasks for a GPU company...In fact this is one of the reasons why there are only so few GPU companies.
Chismon schrieb:Naja gut, mich interessiert zugegeben vorwiegend nur ein luftgekühltes mittleres Modell bzw. die als "Eclipse" kolportierte Variante (hoffentlich leicht über GTX 1080 Niveau schon ab Start).
Möglich, aber 2 Gedanken dazu. Bei Volta sind ne Menge Einheiten dazugekommen (Tensor Cores). Das dürfte eine hohe Packdichte ergeben und somit weniger OC-Potenzial. Je gravierender die anderen Änderungen gegenüber Pascal sind, desto weniger Spielraum wird sich ergeben. Da wird wohl auch erst die 2. Generation so richtig optimiert sein. (Maxwell -> Pascal)Chismon schrieb:Hm, ich nicht und wenn man eine GTX 980 mit einer GTX 1080 vergleicht (da diese die gleiche Leistungsklasse abbilden, eben nicht GTX 980Ti Enthusiasten-Einstiegsklasse zu GTX 1080 Oberklasse), dann hat man auch wegen des großen Shrinks 50-60% von der Maxwell Generation zur Pascal Generation an Rohleistung zugelegt.
Daher sehe ich 40% mehr Rohleistung von Pascal zu Volta (analog zum Anstieg bei den Profimarkt-GPUs P100 zu V100) durchaus als ziemlich realistisch/machbar (in der Oberklasse) an.
Krautmaster schrieb:dann kommen die 1600Mhz wohl hin und die Wakü wie bei der Fury X wohl auch. 6+8 Pin zu wenig "Headroom" is schon satt, ich mein mich stört es nicht, aber dass 300W, die mit 6+8 Pin gegen, zu eng sind - das überrascht mich dann doch.
Mustis schrieb:Ach so is bashing wenn man drauf hinweist, dass Äpfel mit Birnen verglichen wird. Danke, macht mir einiges klar.
DocWindows schrieb:Du weißt aber schon, dass nVidia mit NVLink bereits einen Highspeed Interconnect für GPU-GPU oder GPU-CPU Kommunikation hat und im Profibereich auch einsetzt, oder? .
DocWindows schrieb:Du weißt aber schon, dass nVidia mit NVLink bereits einen Highspeed Interconnect für GPU-GPU oder GPU-CPU Kommunikation hat und im Profibereich auch einsetzt, oder? Den müsste man lediglich auf Consumerprodukte übertragen. Easy Job.
aivazi schrieb:Das MCM Design von Threadripper ist wesentlich praktikabler, der Konsument würde nicht einmal merken, dass 2 Dies auf einem Substrat Package liegen würden.
Bei Nvidia wäre der Kunde definitiv pleite.
Mracpad schrieb:Da werden die max. 192 GB/s von NVlink aber arg knapp.
Hoffen wir mal, das das der Grund ist. Es könnte aber auch wie bei Polaris schon daran liegen, dass die Karte bis an die Grenzen gebracht wird, um konkurrenzfähig zu sein, was wiederum kein gutes Zeichen wäre.Inxession schrieb:Das Bashing wegen überlasteter Stromzuführungen bei Polaris möchte sich AMD sicherlich auch nicht mehr geben. Dann baut man halt besser gleich vorausschauend.
Trotzdem kommt der Zug langsam (!) ins Rollen ..
yummycandy schrieb:Mittleres Model und dann über 1080 Niveau, wäre das nicht eher die 1070?
75% von 1440p wären dann wieder 1080p. So kann man es auch machen...PanzerHase schrieb:(BF1 @80-110FPS @1440p bei 75 resoultion scale... )
aivazi schrieb:Das die GTX 1080 TI soviel wie verbraucht wie Fermi damals und etwa soviel wie eine Fury X hat wohl kein Nvidianer gemerkt ????