News GeForce GTX 980 Ti: Nvidia plant schnellere GTX Titan X offenbar schon für Mai

Japp. VR wird die DualGPU.
LiquidVR etc was ja immer wieder zum Vorschein kommt, auf CB aber nie berichtet.
 
Sontin schrieb:
Es wird immer offensichtlicher, dass du uns entweder alle für Idioten hälst oder hier mit aller Macht versucht Produkte deines Arbeitgebers zu verkaufen. Anders kann man solche sinnlosen Postings nicht mehr einordnen.

1. du solltest es mal unterlassen jedem, der die Produkte (s)einer Lieblingsfirma verteidigt, zu unterstellen, dass er für die jeweilige Firma auch arbeitet.
Ich unterstelle dir auch nicht dauernd ernst gemeint, dass du für NVidia arbeitest, aber du die Firma und deren Produkte immer wieder verteidigst. Ist einfach unnötig.

2. Ja, die Anzeige das ist ein Fehler bei HT4U anscheinend, da hier http://ht4u.net/reviews/2014/msi_radeon_r9_290x_gaming_im_test/index15.php die Werte vertauscht sind und auch eher Sinn machen, wenn man sich einen Beitrag bezüglich des Performance Bios durchliest.

3. Die GTX 970 ist nicht "deutlich" schneller als die R9-290(x) wenn wir von jeweiligen Boardpartnerkarten ausgehen. Siehe Tests bei Toms Hardware, je nach Spiel liegt die dort "beste" GTX 970 im Schnitt 10FPS vor oder hinter der "besten" R9-290x auf 1920x1080 Auflösung. Wobei die FPS Zahlen jedesmal > 60FPS sind.

4. Ja, die Effizienz der GTX 970/80 ist besser als die der R9-290(x). Ist aber auch nicht verwunderlich, die Maxwell-Karten sind neuer. Heißt nicht, dass man es daher nicht vergleichen soll, bis zum Release der neue R9-300er Serie muss sich AMD das gefallen lassen, danach kann die Sache schon wieder anders aussehen. Solange muss man abwarten und AMD kann dagegen nur über den Preis gegen halten.
 
Also mir war schon immer völlig egal, wer die schnellste Karte baut, egal ob das 3Dfx, Ati oder Nvidia war, habe 12 Jahre lang immer das Topmodel gekauft, zum letzten mal 2010. Nun kaufe ich nur noch das Vorgänger Model, reicht vollkommen für FHD und ist billiger, die hatz nach der neuesten und besten Grafikkarte habe ich lange genug mitgemacht.
 
Relaxo32 schrieb:
Das Problem beim Stromverbrauch ist doch immer: so ziemlich alle Testseiten haben am Anfang einfach die Referenz-Modelle verglichen.

Das Referenzmodell ist für das Marketing wichtiger, als für den Konsumenten, das verstehen aber die wenigsten. Das sieht man ja bei der 780Ti vs R9 290X sehr gut (oder in Vergleich zur 970 GTX).
Aus der R9 295X könnte aber AMD was gelernt haben, nämlich die R9 295X konnte genau wegen der guten Referenzkühlung punkten.
Es kann also sehr gut sein, dass der Verbrauch und die Performance dank sehr guter Kühlung (Komplettwasserkühlung) die Effizienz bei der R9 390X steigt. Bei Luftkühlung hätte man wieder sowas wie einen Quiet und Max Modus. Bei der Komplettwasserkühlung als Referenz wäre so ein Modus einfach unnötig und kann zeitgleich die GPU "leise" und kühl halten.
Eventuell hat NV dieses mal mit der TitanX den Trend verschlafen, wieso man jetzt bei der 980 GTX TI einen bessere Kühlung entwickelt, um gegen die Komplettwasserkühlung von AMD besser aufgestellt zu sein.
Bei der R9 290X zeigt sich nämlich, wenn man die Kühlung der Referenzmodelle durch eine potente Luftkühler tauscht, die Performance steigen kann und zugleich sogar der Verbrauch sinkt. Das Verhalten zeigt sich aber auch bei der R9 290X. Das Problem der AMD GPUs war in der Vergangenheit somit oft sogar die schlechten Referenzkühlungen.

Relaxo32 schrieb:
4. Ja, die Effizienz der GTX 970/80 ist besser als die der R9-290(x). Ist aber auch nicht verwunderlich, die Maxwell-Karten sind neuer. Heißt nicht, dass man es daher nicht vergleichen soll, bis zum Release der neue R9-300er Serie muss sich AMD das gefallen lassen, danach kann die Sache schon wieder anders aussehen. Solange muss man abwarten und AMD kann dagegen nur über den Preis gegen halten.

Was das angeht, könnte es durchaus sein, dass AMD einfach die Pläne verworfen hat, noch viel in das GDDR5 Si zu investieren, so wie es NV gemacht hat. Scheinbar sah man es als wichtiger, gleich Geld in die Entwicklung des HBM Si zu investieren, was sich dann bei Artic Island dann wieder als Vorteil zeigen könnte. Neben den 14nm -16 nm Prozess als Risiko Faktor, muss AMD sich dann wenigsten nicht mehr die Sorgen über die HBM Integration machen. Ich kann mir sogar gut vorstellen, dass Artic Island bei AMD nur noch mit HBM Gen.2.0 kommen könnte.
Tonga könnte ein Hinweiß gewesen sein, dass man 2014 ursprünglich das Line Up auch mit bessere GDDR5 Si Anbindung liefern wollte, denn die GPU beherrscht ja ebenso Kompression ect.
Eventuell kommt es aber AMD günstiger, R9 300 Serie bis auf Fijii doch nur mit Rebands auszustatten. Mit Hawaii, Tonga und Fijii hätte man genug Chips für ein Line-Up aber alle aktuellen Features, at least.
Somit kann es gut sein, dass AMD eher plant, sein Geld gleich in das Line Up von Artic Island zu investieren, denn neue Masken(für neue Chips) kosten bekanntlich mehrere Millionen.
 
Zuletzt bearbeitet:
Mal sehen was TSCM die Woche(n) bzw. Monate meldet. Bei GF sind die Yield bei ca 30% bei neuer Fertigung @Samsung ... mal sehen wie es dann gegen Q4 ausschaut.
 
Deshalb sind sie vermutlich auch kein Titan X Käufer. Für die Kunden der Titan spielt nur Exklusivität eine Rolle. Sprich bei dem käufern spielt Geld insofern eine Rolle, das er sich damit Dinge leisten kann die sich kein anderer Leisten kann.

An dieser Art Duktus kann man ein erfolgreiches virales Marketing erkennen. Als würde eine Grafikkarte etwas exklusives darstellen, nur weil man durch deren Preiserhöhung im Vergleich zum Vorgänger künstlich eine neue Kategorie geschaffen hat.
Eine GPU ist ein Gebrauchsgegenstand, der je nach Preis eine entsprechende Leistung zur Verfügung stellt, mehr nicht.
Wenn man so ein Gerät aus Profilierungsgründen erwirbt, sollte man eventuell mal bei kompetenter Stelle vorsprechen um sich auf eine Profilneurose hin untersuchen zu lassen.
 
Daedal schrieb:
Lustig, das selbe Verhalten der Nvidia-Fanboys schien dich nicht zu einem Kommentar hinreissen zu können. Dies scheint aber wohl die hier im Forum einzig akzeptierte Argumentationsweise zu sein, so wie du schon wieder die Fakten als nicht existent deklariert hast scheint dir das auch lieber zu sein.

Ich bin mir sicher, dass meine 20 W näher an der mit Tatsachen belegbaren Realität liegt als die 200 W, welche mich dazu bewogen haben das ganze mal wieder aus dem Phantasiereich zu holen. Du sagst ja selber die Verbrauchsdifferenz zwischen den einzelnen GTX 970 sind gute 60 W von Modell zu Modell. Bei der R9 290X ja ebenso im Bereich 70 W Streuung. Also wie kommt jemand darauf etwas von 100-200W Differenz zu fasseln wenn es tatsächlich 20-100 W Differenz sind mit völlig unterschiedlichen Performancewerten?

Und wer zudem dann sagt dies sei der Grund die GTX 970 sei grundsätzlich ohne Alternative wegen dem Stromverbrauch, der kommt eben hier mit den Fakten konfrontiert ins Straucheln. Schön dass du mich direkt ansprichst, daher würde ich gerne sehen ob du auch ein Argument hier beitragen kannst - in dem Beitrag eben war leider keines zu finden.

Ich habe keine Fakten als nicht existent deklariert. Vielleicht solltest du mal aus deiner emotionalen Schiene etwas herauskommen. Und selbst wenn mein Beitrag kein Argument enthalten hätte, wäre das noch immer besser als ein so schlechtes wie das von dir verlinkte Bild, mit dem du deinen eigenen Aussagen zu Custom-Designs widersprichst... Es ist nämlich so, dass man auch bei übertriebener Pro-AMD-Argumentation über die Fakten stolpern kann. Wenn man diese Fakten dann auch noch selbst vorlegt und zugunsten einer in dem Kontext total wirren und unsinnigen Aussage ignoriert, dann ist das natürlich mit einer köstlichen Prise Ironie gewürzt.

Und dass es genau deine Aussage erwischt hat, tut mir leid und ist nichts persönliches, aber nur weil ich nicht auch noch explizit gegen die Aussagen eines Anderen oder der Gegenseite argumentiert habe, bedeutet das nicht, dass alle außer dir Recht haben, aber auch schon gar nicht, dass meine Bemängelung deiner und ähnlicher Aussagen dadurch nicht berechtigt wäre. Rumzujammern, dass man über dein Argument herzieht und über andere nicht, macht dein Argument eben nicht besser oder richtiger.

Und falls dir mein Argument weiterhin entgangen sein sollte: Es war ein Gegenargument zur Behauptung von u.A. dir, dass Custom-Designs der AMD-Karten so super viel sparsamer wären. Falls du der Quelle, auf die ich das gestützt hatte nicht traust: Es war die gleiche, die du benutzt hattest um unsinnigerweise eine durchs Bios gebremste Referenz-290X mit einer 970er zu vergleichen, die mehr verbraucht als übertaktete 980er. Wohlgemerkt im selben Test/Diagramm.

Von 200W zwischen einer 970 und 290X habe ich noch nichts gehört. Wenn hier jemand so etwas behauptet hat, dann ist das natürlich genauso unsinnig.

Auch muss mir wohl entgangen sein, dass ich etwas von 60W zwischen unterschiedlichen 970ern gesagt habe. In der betreffenden Quelle sind es ~160-200W (also 40W) für die 970. Bei der 290X sind es ~230-300W (~70W). Wie der Unterschied jetzt bei 20-100W liegt, musst du mir mal erklären. Die korrekte Aussage wäre, der Unterschied liegt bei 30-140W (230-200 bis 300-160, Mathe und so ;)).

Wer sagt, zur 970 gäbe es keine Alternativen, der hat allein wegen des Speicherproblems schon unrecht.

Weil Tomshardware von AMD-Stromverbrauchs-Anwälten ja immer so gerne als Quelle angegeben wird:
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-3.html
Wenn man jetzt noch ins 290X Roundup schaut, sieht man, dass die Karten dort (allesamt Custom) alle bei 230-250W liegen. Um dort hin zu kommen braucht die GTX 970 ein stark erhöhtes Power-Target, mit dem es auf Boost-Taktraten jenseits der 1500Mhz schießt. Wenn man sich die Boost-Taktraten handelsüblicher 970er ansieht, dann landet man ohne selbst das Powertarget zu erhöhen bei <1350Mhz. Dazu sagt Tomshardware selbst, sonst so gern Retter der AMD-Fans, dass die Messungen zwischen 130 und 160 Watt liegen. Die Differenz zu den 230-250 Watt der R9 290X kann man sich ja selbst ausrechnen (oder kommen dann doch wieder irgendwie 20W raus?). Dass das keine 200W sind ist klar. 20W sind es aber auch bei Weitem nicht. Die Wahrheit liegt wie immer zwischen den unterschiedlichen Messwerten, die man so findet. Sie liegt aber sicher nicht dort, wo man das für die bevorzugte Partei beste Ergebnis findet und noch ein paar wilde Argumente zur weiteren "optimierung" drauf schmeißt, die dann wieder der eigenen Optimal-Quelle widersprechen.

Um mal wieder was zum eigentlichen Thema zu sagen:
Ich denke, dass AMD da ganz schön in Bedrängnis geraten wird. Wenn Nvidia noch ein (günstigeres) Produkt am Markt hat, das AMD ebenfalls nicht übertrumpfen kann, wird das ganz bitter. Wenn die geleakte Bezifferung der Leistung mit 8,6 TF gegen die 5,6 TF der 290X stimmt, dann wird das nichts. Wenn man nämlich bedenkt, dass NVidia für die 980 5 TF angibt (also weniger als 290X) und sich dann die Spiele-Leistung ansieht, dann ist der Leistungsvorsprung auf dem Papier auch in den Ergebnissen zu finden. Bloß in die andere Richtung, für die 980. Wenn man ähnliches Verhältnis von angegebener Rechenleistung zu tatsächlicher Spieleleistung ansetzt, werden die 8,6 nicht reichen, um an der Titan X mit 7 vorbei zu kommen.
 
Zuletzt bearbeitet:
Das kommt mir nicht logisch vor. Bei der Herstellung eines so großen Chips gibt es sicherlich einiges an Ausschuss, der 80-90% gut ist - ökonomisch fände ich es daher logischer neben dem Vollausbau noch eine Variante auf den Markt zu bringen mit weniger aktivierten Recheneinheiten, anstatt direkt nochmal den Vollausbau zu benutzen .. das zweite Mal dann anscheinend auch noch mit weniger Gewinnspanne.
 
Zuletzt bearbeitet:
Blueline56 schrieb:
Also mir war schon immer völlig egal, wer die schnellste Karte baut, egal ob das 3Dfx, Ati oder Nvidia war, habe 12 Jahre lang immer das Topmodel gekauft, zum letzten mal 2010. Nun kaufe ich nur noch das Vorgänger Model, reicht vollkommen für FHD und ist billiger, die hatz nach der neuesten und besten Grafikkarte habe ich lange genug mitgemacht.

Ich rate zum Anschauen von 120-144FPS mit niedriger "Verwaschung/blur" und 3-4k :evillol:

Ich habe das mit den +120FPS auch erst bei einem Freund gesehen und bin fast umgefallen. Ein anderer Freund behauptet aber er würde keinen Unterschied sehen. Ich merke es schon beim Windows Mauszeiger und beim Text hoch- und runterschieben.
 
Hopsekäse schrieb:
Um mal wieder was zum eigentlichen Thema zu sagen:
Ich denke, dass AMD da ganz schön in Bedrängnis geraten wird. Wenn Nvidia noch ein (günstigeres) Produkt am Markt hat, das AMD ebenfalls nicht übertrumpfen kann, wird das ganz bitter. Wenn die geleakte Bezifferung der Leistung mit 8,6 TF gegen die 5,6 TF der 290X stimmt, dann wird das nichts. Wenn man nämlich bedenkt, dass NVidia für die 980 5 TF angibt (also weniger als 290X) und sich dann die Spiele-Leistung ansieht, dann ist der Leistungsvorsprung auf dem Papier auch in den Ergebnissen zu finden. Bloß in die andere Richtung, für die 980. Wenn man ähnliches Verhältnis von angegebener Rechenleistung zu tatsächlicher Spieleleistung ansetzt, werden die 8,6 nicht reichen, um an der Titan X mit 7 vorbei zu kommen.

Das ist ein Punkt: Es gibt eine viel kaufkräftige Käuferschicht, die "not amused" über die 900er Serie und Titan X ist. Nvidia hat auf Teufel komm raus alles auf reine Spielleistung gesetzt. Ja das sieht bei Spielbenchmarks nett aus und die Fanboys beider Seiten bekriegen sich wie hier auch.
Aber die DP Leistung die extrem wichtig ist für die Industrie, Entwickelung und Forschung ist in den Keller gefallen. Wenn Nvidia nicht innerhalb von 1 Jahr den Nachfolger Paschal mit richtiger DP Leistung rausbringt, wird auch für diese Firma es sehr schwierig. Stichwort KingsCorner/Landing... Wir reden hier von einige zehntausende Karten und nicht die 1000 Titans die an Privatkundne verkauft werden^^

Genauso ein Ding der Unmöglichkeit ist das der M206 Chip weiterentwickelt als der M200 ist.

http://www.anandtech.com/show/8923/nvidia-launches-geforce-gtx-960

Spielleistung in Ehren aber H265 und andere neue Formate sollten in einer Grafikkarte ab 600€ drin sein und nicht nur ein Alibilabel DX 12 (Featureset 12_1) . Sei es Nvidia oder AMD. Auch bei der Textur de/kompression , Filter, Stromverbrauch fürs banale BlueRay ansehen und vieles mehr muss von beiden Firmen was in Angriff genommen werden. 2 Titan X oc reichen noch nicht aus um 4k zu befeuern geschweigen demnächst den 8k Monitor von Apple bei Spielen. Auch die Skalierung nimm bei 3 und mehr Titans massiv ab. Die Titan ist eigentlich eine Karte für den 1440p Ultra und co Bereich. Von 4K ausser in ein paar spruchlosen Spielen ist nicht wirklich die Rede.

Ich seh bei den 3D Speicher der bei der 300er AMD Serie verwendet wird wieder eine neue Technik die neue Inovationen bringen könnte.

Mag ruhig Nvidia den Spielebenchmark Thron für sich beanspruchen , in der realen Welt ist nebensächlich.

Einfach abwarten was die 390/x von AMD bringt und was Paschal leistet vorallem in DP.

mfg
 
Braucht auch keiner. Sinn einer Titan ist Status und Aushängeschild.

also mein letzter kunde hat mir 3.000€ als budget gegeben für pc und monitor.
jetzt haben wir uns geeinigt das eine 980ti verbaut wird sofern nvidia im mai liefern kann. wenn nicht dann wird es eine oc titan x.
vermutlich werde ich da mit gpu wakü und oc bios bei der titan x rangehen. so bei um die 1500 mhz ist die titan x ja durchaus brauchbar.
mal abwarten - geld bekomme ich anfang mai.

der markt ist definitiv da; die kunden wenden sich bei so summen aber eher an profis.

2 Titan X oc reichen noch nicht aus um 4k zu befeuern

was erwartest du dir? jedes jahr die doppelte leistung und 50% billiger?
das problem sind gar nicht so die gpus sondern eher die tatsache das es keine brauchbaren 4k monitore gibt die qualitativ hochwertig sind und noch dazu wirklich spieletauglich.
bei 1440p ist schluss. danach muss man schon wieder kompromisse bei monitoren eingehen.

ein brauchbarer 1440p monitor kostet um die 700€. bis da was in 4k kommt dies gleichwertig ist... das kann dauern.
diese 4k TN 40 ms input lag katastrophen @ 30 hz kann man ja nicht wirklich ernst nehmen.

Na und die andere GTX 970 verbraucht 198 W und die AMD mit Performance BIOS 33W mehr.

die 970 referenz von nvidia zieht max. 145 watt und in spielen ~130 watt.
die referenz 290 ist langsamer und zieht 100 watt mehr.

je nach oc modell kann das variieren. unterm strich ist die 970 aber immer schneller und verbraucht wesentlich weniger strom.
die 970 liegt von der FPS leistung her zwischen 290 und 290X in 1080P und 1440P.
 
Zuletzt bearbeitet:
Wird die auch um die 1.200€ kosten oder ist die TI meist.billiger?
 
Sehe ich genau so. Da Amazon ein nicht zu verachtenden Aufpreis gegenüber den anderen Händlern hat, hätte ich hier auch kein schlechtes Gewissen. So funktioniert eben die Gesellschaft.

Ich beschwere mich auch nicht, dass ich hohe Krankenkassen Beitrage zahle obwohl ich fast nie beim Arzt bin, selbiges in Bezug auf das Arbeitslosengeld ect...
 
olalaaa schrieb:
also mein letzter kunde hat mir 3.000€ als budget gegeben für pc und monitor.
jetzt haben wir uns geeinigt das eine 980ti verbaut wird sofern nvidia im mai liefern kann. wenn nicht dann wird es eine oc titan x.
vermutlich werde ich da mit gpu wakü und oc bios bei der titan x rangehen. so bei um die 1500 mhz ist die titan x ja durchaus brauchbar.
mal abwarten - geld bekomme ich anfang mai.

Also das bin ich mit meiner Spielkiste los gewurden. 3k ist echt süss und dann eine Titan OC die 50% der 3k frisst ^^
Aber schön das Du so geduldige Kunden hast. Ich würde meinen Kunden dann empfehlen bis zu Skylake mit den neuen Chipsatz zu warten.


was erwartest du dir? jedes jahr die doppelte leistung und 50% billiger?
das problem sind gar nicht so die gpus sondern eher die tatsache das es keine brauchbaren 4k monitore gibt die qualitativ hochwertig sind und noch dazu wirklich spieletauglich.
bei 1440p ist schluss. danach muss man schon wieder kompromisse bei monitoren eingehen.
ein brauchbarer 1440p monitor kostet um die 700€. bis da was in 4k kommt dies gleichwertig ist... das kann dauern.
diese 4k TN 40 ms input lag katastrophen @ 30 hz kann man ja nicht wirklich ernst nehmen.

Wem möchtest Du das bitte erzählen ? Es gibt gute 4k und 5k Monitore. Stichwort Dell. Zu den Preis...ich sagte schon Industrie,Forschung und co. da sind die 1,5k€ für eine Titan nicht mal Portokasse jetzt muss Nvidia die alten Kelper Karten mit etwas besserer DP Leistung weiter verkaufen und die Kunden murren schon auf. Und nimmt Nvidia den Kunden 4 -8k € je Karte ab ^^ Ausserdem hätte ich den Kunden überzeugt das ein guter Monitor wichtiger ist als eine Tian OC die in 6 - 12 Monaten wieder veraltet ist ^^ Den Monitor wechselt man seltener als die Grafikkarte. Aber wie gesagt du hast gute Kunden ^^

Ausserdem siehe oben in meinen Post davor wo ich schreibe das es bei beiden Chipherstellern krankt.
 
Zuletzt bearbeitet:
Daedal schrieb:
Der ist in H2 deutlich überschritten und die GTX 980 Ti wird ganz sicher obsolet zu dem Zeitpunkt. Also muss nun so schnell wie möglich der Release statt finden. AMD ist das Problem los und 1 Woche nach Release redet jeder nur noch von der kommenden, neuen, schnelleren Technologie, wenn dann eben die Details anfangen zu fließen die jetzt jeder von AMD vermisst. Nvidia wird sich nun allerdings viel länger damit auseinandersetzen müssen mit dem Missverhältnis der aktuellen Titan vs 980 Ti in Preis/Leistung - ich bin gespannt wie sie das vermarkten werden....

Na schon gehts los. Es wirkt als hätte Lisa Su mit der Nennung des Win 10 Release Datums den Startschuß gegeben:
http://www.pcgameshardware.de/AMD-R...x0-Fiji-VR-R9-395-X2-Virtual-Reality-1156835/
http://wccftech.com/amd-launching-fiji-based-graphics-cards-june/
http://videocardz.com/55401/fudzilla-amd-working-on-fiji-xt-and-fiji-vr

Und Launchpreise werden auch schon gestreut um Nvidias in der Preisgestaltung noch mehr unter Druck zu setzen. Bei AMD hat jemand den Rhythmus zum Win 10 Launch als Masstab ausgewählt. Mal sehen ob sie die Marketing-Schiene stolperfrei hin bekommen, denn es ist lange her, dass AMD sich auf OEMs verlassen konnte. Da muss es einiges an Designwins geben im Channel.
 
Meiner Meinung nach veröffentlicht Nvidia die 980ti früher weil sie ahnen, dass die 3xx etwas sehr großes werden wird.
kann ja sein, dss amd das nach hinten verlegt hat um die 390 und die 390x zu optimieren und die Chips der 290 in die kleineren 3xx einzubauen.
Das wäre eine Große Leistungssteigerung.
Nvidia weiß das und versucht jetzt noch soviel wie möglich durch die aufgemotzte Gtx980 zu verdienen, bevor die 3xx raus kommt.
denn sie würden ja Verluste machen sollten die ihre eigene reihe übertreffen, was wahrscheinlich ist.
Meist weiß ja auch der Konkurrent als erstes wie die Performence des konkurennzsystems aussieht.
Ich spekuliere, dass das der Grund ist warum Nvidia den Release nach vorne zieht.
!ALLES NUR SPEKULATION!
 
Zuletzt bearbeitet:
Frage mich nur wie sich der geneigte Titan X Käufer fühlt, wenn seine Karte nach 3 Monaten von einer billigeren abgehängt wird. Prestige Objekt hin oder her, bei Grafikkarten gehts um Leistung und wenn man 1150 Euro hinlegt, sollte man doch erwarten können, dass die Karte länger als ein Quartal die Spitze darstellt(vor allem bei der eigenen Firma)...

Das ist als würde Ferrari einen 1,15 Mio Euro Wagen mit 1000PS Motor verkaufen, nur um im nächsten Quartal für 800K Euro das 1:1 gleiche Modell mit 1100PS und halb so großem Kofferraum(falls das überhaupt noch möglich ist) anbieten :evillol:


@edenjung: Laut AMD kommt ja Win 10 ende Juni, sie wussten auch, dass DX12 nicht mehr auf Win7 erscheint(daher Mantle) uns sie haben im Gegensatz zu Nvidia die Architektur, DX12 voll auszunützen, während die NV Karten noch immer auf DX11 aufbauen(und darin auch zugegebenermaßen besser sind als AMD Karten).

Es ist also sehr wahrscheinlich, dass wir im Juni die R9 Serie debütieren sehen, etwas zu spät für große Titel wie den Witcher und GTA, aber besser spät und gut, als früh und schlecht oder nie :)
 
Zuletzt bearbeitet:
@Vendetta

Das Problem ist das Microsoft das Featureset von 12_1 so schwammig gehalten das die AMD obere 200er Serie und die Nvidia 900er Serie sofort DX12 tauglich ist und den Sticker sich aufkleben kann. Die richtigen Feature von 12_2/3 darauf werden wir noch lange warten. Leider :-(
 
2 Monate ist nicht lang. Die AMD kommt mit Feature Level 12_3. Das ist offiziell bestätigt und die Folie sogar hier im Thread so weit ich mich erinnere.
 
Zurück
Oben