News Nvidia GeForce: GTX 1080 schneller als 980 SLI, 1070 so schnell wie 980 Ti

Lehner82 schrieb:
Wie lange es wohl dauert, dass die ersten 5k60 oder 4k120 Panels <€1000 kommen, jetzt da DP1.3/4 bald Mainstream wird?

6 Monate ?
Das weiß natürlich keiner genau, genauso wenig wie wann Titan Pascal rauskommt.
Aber man kann sich überlegen, ob nicht spätestens zum Weihnachtsgeschäft nach und nach die neuen Monitore antrudeln, wenn die Titan auch nicht mehr weit weg ist.

Da ja jetzt über den Sommer bereits die DP1.4 Karten verkauft werden, könnten die passenden Monitore natürlich auch schon kommen.
"Nix genaues weiß man nicht". Gespannt bin ich trotzdem drauf.



4K @ 120 Hz mit 10-bit und HDR. Dazu ne schöne Pascal Titan mit 16GB HBM2. Könnte nett sein. :)
Oder noch besser: 2160p in 21:9 mit HDR, gsync(oder whatever sync), 10bit und das Ganze so zumindest mit 75 Hz. :daumen:



Ich find's gut, dass sich endlich mal wieder was tut.

Lassen wir uns überraschen. Bin auf erste Tests gespannt.
Nicht nur der neuen GPUs, sondern auch der neuen GPU Generation an entsprechenden High-End Monitoren. Besonders natürlich irgendwann ab Weihnachten.
Für mich ist daher weiterhin abwarten angesagt, bis die dementsprechende hardware auf dem Markt ist und das ganze getestet, wie's läuft und wie viel GPU-Power man dafür(neue 1.4 Monitore mit hoher Auflösung/Hz+HDR usw. ) braucht.
Schätze viel hilft viel. ;)
 
1. neue chips - abwarten was benches/tests sagen..
2. amd wird konnkurieren können. oder auch nicht. abwarten bis infos da sind!
3. welcher speicher es ist, ist zweitrangig. entscheidend ist was an perf/geld rauskommt.
4. ja hier gibt es die "mimimi" fraktion: diejenigen die vor absehbarer zeit 600-700+ euro für eine graka ausgegeben haben uns sich jetzt echauffieren dass was neues kommt und das neue produkt die dreistheit hat schneller zu sein als ihr teurer einkauf. get real!
5. man kann wahrscheinlich immer sagen: warte noch 12-18 monate, dann kommt die ABC-hardware mit XYZ-egenschafft...das ist dann natürlch viieeeel besser. ist aber eine binsenweisheit..
6. auch in einem "enthusiasten"-forum kann man den massenmarkt nicht überstimmen und die technische entwicklung herbeiposten: es wird noch eine weile dauern bis uhd-gaming für die masse tauglich wird! erstmal 1440p betrachten...
7. die überwältigende mehrheit der leute kauft eine graka nicht als "übergangslösung" für die nächsten 10 monate, sondern für längere zeiträume!
 
Zuletzt bearbeitet:
Revan335 schrieb:
Was ist der Unterschied zwischen HDMI 2.0 a und b?

Ist das das neue HDCP 2.2?

HDCP ist Verschlüsselungssystem. Version 2.2 ist die Aktuellste und wird bei HDMI 2.0a wie auch 2.0b unterstützt, ist aber je nach Geräte Hersteller unterschiedlich.

HDMI 2.0a brachte HDR.
HDMI 2.0b bingt Dynamische Synchronisation von Video- und Audio-Streams.
HDMI 2.0c (Noch nicht bestätigt) soll Hybrid Log-Gamma bringen. Dolby Vision soll bereits darauf aufbauen. Zudem kündigt Sony schon erste Beamer für den Sommer damit an.

HDMI 2.1 (Wird von Philips gefordert) soll offenen Standard für Dynamische Metadaten bringen.

HDMI Forum Präsident Robert Blanchard Bestätigte bereits im Interview, das auch überlegt wird 8K Demnächst zu Unterstützen.
 
Und jetzt fehlt nur noch ein harter Euro damit der Scheiß billiger wird. :D
Aber das wird wohl nichts mehr. :freak:
 
Also ich glaub schon das die Karte ordentlich was unter der Haube haben wierd wenn ich mir so die Benchmarks anschaue deckt sich das doch schon fast mit dem was Nvidia sagt.

Also in dem Grafiken von Nvidia haben sie eine 980 zum vergleich genommen http://www.pcgameshardware.de/Nvidi...-GTX-1070-Ankuendigung-Preis-Release-1194648/ und da die Pascal Generation nun die Maxwell ablösen wird und Volta laut Roadmap erst Ende 2018 Anfang 2019 erscheint ist die GTX1080 das neue Flagschieff von Nvidia und dann macht es nur sinn wenn die die Leistung einer TitanX/980ti haben wird sogar ein wenig mehr.

Wenn ich hier schaue ist die 980ti sogar unter DX12 besser wie eine Fury X die das Asynchronous Shader besitzt.
https://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/

Auch bei Hitman unter Dx12 weist die 980ti noch immer eine enorme Leistung auf ohne dieses Feature
https://www.computerbase.de/2016-03...afikkartenbenchmarks_von_full_hd_bis_ultra_hd

Und auch bei Witcher ist die TitanX ganz oben mit 10FPS vor sder 980
https://www.computerbase.de/2015-05...leich/#abschnitt_21_grafikkarten_im_vergleich

Wenn die Pascal die Maxwell ablöst kommt das hin,Nvidia hat bei ihrer Grafik sicher noch ein paar FPS draufgepackt darum stehen da auch keien Zahlen sondern nur Balken aber so ungefähr wird das schon sein das die 1080 die 980ti/TitanX überbieten wird zumal nvidia ihr neues Produkt auch verkaufen will und Maxwell hatte doch auch den Vorgänger Kepler abgelöst.

Bei AMD wird es dann wohl so ausschauen das die Polaris die mittelklasse sein werden was sie ja auch zu sagen scheinen das Polaris 10 so gut wie eine R9 290 sein wird und dan werden die Vega Karten die Highend Modelle von AMD sein was ich glaub auch schon irgendwo gelesen habe.

Glaub das war sogar hier http://www.pcgameshardware.de/Grafi...ap-Grafikkarten-Liste-Radeon-Geforce-1128937/
 
Zuletzt bearbeitet:
Kann schon jemand orakeln ob es dieses Jahr noch neue Notebook-Chips geben wird? Bei der ProWatt Leistung braucht man doch kein Desktop mehr für 1080p60Hz.
 
wow... wenn GH recht hat un das:

Chip: GP104-200-A1 "Pascal" • Chiptakt: 1127MHz, Boost: 1216MHz • Speicher: 8GB GDDR5, 1750MHz, 256bit, 224GB/s • Shader-Einheiten/TMUs/ROPs: 2304/80/36

für die GTX 1070 stimmt, dann seh ich schon die ersten Vmods die die Karte 50%+ übertakten. Könnte dahingehend dann echt ein OC Wunder werden da der Chip noch recht viele Shader hat.
http://www.techpowerup.com/gpudb/2840/geforce-gtx-1070

Hätte mit weniger Shader bei mehr Takt gerechnet.

Allerdings wäre sie in der Kombination auch stock recht langsam und es würde sich kaum mit Nvidia Aussagen decken.

Edit: Vielleicht muss Nvidia die Shader Zahl hoch halten da sich der Chip nicht anders shrinken lässt ohne das SI in Mitleidenschaft zu ziehen und das ist mit GDDR5 non X ohnehin eher knapp.
 
Zuletzt bearbeitet:
Chismon schrieb:
...einem Hersteller anzulasten, auch wenn seit langer Zeit allseits lange bekannt ist, dass die Konkurrenzkarten von AMD aufgrund einer Hardwarekomponente (des besseren, aber erst im kommenden Jahr verfügbaren HBM2 Speichers), noch nicht auf den Markt gebracht werden können.

Jeder soll das kaufen was er meint haben zu wollen. Wir sind doch nicht in Nordkorea. Bezüglich des HBM2, den gibt es bereits. Bei Samsung ist dieser seit Anfang des Jahres in Massenproduktion und erste P100 werden mit HBM2 bereits geliefert. Das ist nicht der Grund warum Vega erst 2017 kommt.

Chismon schrieb:
Die Vega Architektur ist wohl (wie bei Fiji) auf HBM Speicher ausgelegt. Was ist daran so schwer zu verstehen und daran, dass HBM2 zuerst Ende dieses Jahres/Anfang nächsten Jahres ausreichend verfügbar ist und HBM1 wegen 4 GB Limit keinen Sinn macht? Mit Fail hat das wenig zu tun, wenn man danach die überlegenen Karten bekommt, was glaubst Du wieso nVidia bei den High End (Titan und Ti) Karten auch auf HBM2 setzt und somit bis 2017 warten muss.

Also die P100, ausgelegt für HBM2, gibt es bereits. Es hat nur wirtschaftliche Gründe warum jetzt keine Titan mit HBM2 kommt. An der Verfügbarkeit liegt das nicht.
 
Zuletzt bearbeitet:
gut der Grund ist aber auch einfach dass vega jetzt nicht wirtschaftlich genug wäre, genau wie ein GP100 fürn Desktop. TSMC wird schon recht ordentliche Preise für 16nm verlangen genauso wird HBM 2 kein Schnäppchen sein im Vergleich zu üblichem Vram. Noch dazu wollen Nvidia und AMD sich die Zeit bis zum nächsten Fertigungssprung einteilen.
 
Abwarten und Ruhe bewahren.
Test's abwarten und dann können wir weiter reden.

Den erhoften HBM 2 Speicher ist schonmal nicht verbaut.

Ich bin auf die AMD Karten gespannt.
 
@Krautmaster

Das ist mir schon klar. Rechnet man die Hardware aus dem DGX-1 raus, kostet eine P100 12.500 Dollar. Realistisch sind aber unter <10.000 Dollar pro Karte, bei größerer Abnahme. Schaut man sich die 8000-9000 einer K80 Liste an, ist da ein gewaltiger Sprung drin. Den gab es vorher bei den Tesla nicht. Die großen Ableger mit HBM2 werden nicht billig, dass kann ich schon mal sagen. Und hier wird schon wegen 400€ gejammert..
 
Zuletzt bearbeitet:
Krautmaster schrieb:
wow... wenn GH recht hat un das:



für die GTX 1070 stimmt, dann seh ich schon die ersten Vmods die die Karte 50%+ übertakten. Könnte dahingehend dann echt ein OC Wunder werden da der Chip noch recht viele Shader hat.
http://www.techpowerup.com/gpudb/2840/geforce-gtx-1070

Hätte mit weniger Shader bei mehr Takt gerechnet.

Allerdings wäre sie in der Kombination auch stock recht langsam und es würde sich kaum mit Nvidia Aussagen decken.

Edit: Vielleicht muss Nvidia die Shader Zahl hoch halten da sich der Chip nicht anders shrinken lässt ohne das SI in Mitleidenschaft zu ziehen und das ist mit GDDR5 non X ohnehin eher knapp.

ich denke Nvidia wird aus dem 970er Debakel gelernt haben und bei der Gtx 1070 keine Rechencluster/Anbindung teilverkrüppeln.
Das heisst aber auch sie müssen die Karte dann per Taktlimit und SI (begrenzte Bandbreite) stark "einbremsen" um den gewünschten Abstand zur Gtx 1080 einzuhalten. Wesentlich weniger Cuda-Cores hat sie ja im Vergleich zur Gtx 1080 nicht. Ich könnte mir dann vorstellen, dass Nvidia auch den Übertaktungsspielraum der Gtx 1070 einzudämmen versucht, um wie schon gesagt, der Gtx 1080 ihren vorsprung zu lassen.

Also 224 Gbit/s Speicherbandbreite (wenn es denn so stimmt) sieht für mich nach einer Karte für 1080p aus mit begrenzten Spielraum in 1440p zu wildern. Aber das ist ja auch wofür die meisten den Vorgänger der 1070 gekauft haben.
 
Zuletzt bearbeitet:
Dittsche schrieb:
ich denke Nvidia wird aus dem 970er Debakel gelernt haben und bei der Gtx 1070 keine Rechencluster/Anbindung teilverkrüppeln.
das hoffe ich doch sehr. hoffentlich gibt es auch jemanden, der das nachmisst
 
Faust2011 schrieb:
Du ziehst also tatsächlich in Betracht, dass Nvidia an genau diesem Feature es für die kleineren Chips deaktiviert?
Nunja nicht zwangsläufig deaktivieren. Aber wie es in deinem Zitat heißt: " is another important new hardware and software feature added to GP100". Muss ja nicht sein dass es bei GP104 wegfällt, sondern vllt hat er es einfach nie bekommen. Ich wäre da halt zunächst vorsichtig zu glauben, GP100 kann das, also muss GP104 das auch können. Auch wenn beides Pascal ist.

SKu schrieb:
Kann es sein, dass der Speicher der GTx1070 wieder künstlich limitiert wurde? Laut GH sind es 320GB/s bei der GTX1080 und 224GB/s bei der GTX1070.
Naja ist ja auch völlig logisch, da die 1070 auch nur GDDR5 hat, und nicht GDDR5X. Sorry wenn vorher schon jemand darauf hingewiesen hat.

Edit: Quark.
 
Zuletzt bearbeitet:
Dittsche schrieb:
Also 224 Gbit/s Speicherbandbreite (wenn es denn so stimmt) sieht für mich nach einer Karte für 1080p aus mit begrenzten Spielraum in 1440p zu wildern. Aber das ist ja auch wofür die meisten den Vorgänger der 1070 gekauft haben.

Würde ich nicht sagen, arbeiten AMD und NV doch bereits kräftig mit (lossless) Kompression, die Jahr zu Jahr immer besser wurde. So etwas sollte/kann man nicht direkt von der Speicherbandbreite ablesen, wenn man die andere Faktoren nicht weiß.
 
Hm ja stimmt wohl, auch bei der Fudzilla News stehen 2048 Cores. Gibts hierfür nicht eine Rechnung wie man von Cores x Takt auf die TFlops kommt?
 
der_infant schrieb:
Kann schon jemand orakeln ob es dieses Jahr noch neue Notebook-Chips geben wird? Bei der ProWatt Leistung braucht man doch kein Desktop mehr für 1080p60Hz.

Meiner Meinung nach schon. War nicht der vorgestellte Grafikchip im Februar (oder wann das war) für die Autos eine 1060m? Es läge also nahe, dass auch schon die mobilen Varianten vorliegen.

Ist allerdings die Frage wann die kommen... irritierend war diesbezüglich der 965m Refresh... wozu noch sowas, wenn Pascal im Anmarsch ist?
 
Krautmaster schrieb:
wow... wenn GH recht hat un das:

für die GTX 1070 stimmt, dann seh ich schon die ersten Vmods die die Karte 50%+ übertakten. Könnte dahingehend dann echt ein OC Wunder werden da der Chip noch recht viele Shader hat.
http://www.techpowerup.com/gpudb/2840/geforce-gtx-1070

Hätte mit weniger Shader bei mehr Takt gerechnet.

Allerdings wäre sie in der Kombination auch stock recht langsam und es würde sich kaum mit Nvidia Aussagen decken.

Edit: Vielleicht muss Nvidia die Shader Zahl hoch halten da sich der Chip nicht anders shrinken lässt ohne das SI in Mitleidenschaft zu ziehen und das ist mit GDDR5 non X ohnehin eher knapp.

Das habe ich mir auch gedacht als ich die Daten aus Geizhals gesehen habe mit 2300 Shadern aber sehr niedrigem Takt das hier wenn das ganze gut oc bar ist die Karte abgehen wird wie schmitz katze für den Preis. Allerdings hat die Karte mit den Daten hier nicht annähernd die 6,5 TF die von Nv angegeben waren und wird auch mit 180W TDP beworben was ja die TDP der 1080 ist. 224Gb/sec würden schon passen zu 256bit und 7,5MHZ, allerdings soll die 1070 ja 8k MHZ Speicher bekommen , also mit 256GB/s angegeben sein.

latexdoll schrieb:
@all
Lustiger ist wie der dritte große Grafikhersteller Intel auf den PC - Markt , immer mehr von unten die Marktanteile der beiden Firmen für sich einnimmt. Die Leistung der Grafikeinheiten der CPUs steigt jedesmals ein Stück weiter so das auf 720p die GPU-Einheit der CPU ausreicht. Für 80 - 88% der PC-Käufer reicht diese Leistung völlig.

mfg

Solange sie nicht die Bandbreitenprobleme in den griff bekommen werden die den richtigen Gamerkarten ab einer 750 nicht gefährlich. Darunter allerdings gibt es kaum noch Grund eine dezitierte Karte zu kaufen es sei den das Motherboard hat zu wenig Grakaanschlüsse also selbst unten rum gibt es noch Anwendungsfälle wo man eine Karte dazustecken muss.
Am interessantesten sehe ich die Igpus im Berreich der Notebooks da mans ich hier einen extra chip spart den man auch extra Kühlen muss was das ganze auch leichter, kühler,leiser macht.

Die sollen mal 2017 in dx12 Games die igpu zum rendering mitbenutzen das ist brachliegende Leistung die einfach genutzt werden muss. Müsste doch eine super WErbung sein wenn jemand ein Game rausbringt das gut aussieht und auch auf 960 und 380 flüssig laufen kann.
 
Zuletzt bearbeitet:
Zurück
Oben