News Nvidia Pascal: Countdown für GeForce GTX 1080 endet am 6. Mai

Ein Stück Silizium in kleinerem Fertigungsprozess das vielleicht doch schnell rechnet als Big Maxwell. :D
 
moshkopp schrieb:
Soll nicht 4k der Anspruch dieser Karte sein?

Ich glaub das wird dann eher die Titan, bzw. Ti.


Sturmwind80 schrieb:
, aber die 1080er wird sicher nicht schneller als die aktuelle 980Ti sein und von daher müssen viele sowieso auf das nächste Jahr warten.

Glaub dass die 1080er die Ti zumindest einholt, wenn nicht sogar leicht überholt. Falls nicht in der stock Version, dann zumindest spätere OC Custom Versionen.



Aber stimmt schon, ich werd' auf jeden Fall bis 2017 warten.
Die 670er reicht mir so gerade noch(mit Einschränkungen bei meinen aktuellen Lieblingsspielen) und wenn ich aufrüste, dann soll es diesmal auch einen sehr deutlichen Sprung geben, auch was die neuen Techniken und ausreichende Speichermenge(wenn's geht 12, oder 16 GB) angeht.

Schließlich wechsel ich dann ebenfalls zu einem passenden, modernen, großen Monitor, der hoffentlich endlich mal Ende des Jahres raus kommt, denn momentan halten die ja die DP 1.3 noch zurück, da die passenden GPUs ja jetzt(die nächsten Monate) erst raus kommen.
 
ReVan1199 schrieb:
Was mich am meisten interessiert ist, ob Asynchronous Shading/Compute nun bei Pascal hardwareseitig funktionieren wird.

das interessiert mich eigentlich herzlich wenig - wichtig ist was am Schirm ankommt. Ob das mit oder ohne Async Shader realisiert wird ist mir dabei recht egal (da wird viel Wind um wenig gemacht wie ich finde). Natürlich sollte man bestehende Benches DX12 (wo immer möglich) auf die Karten anwenden, wobei ich da AoS schon für sehr verblendet halte (da das ganze Genre, Engine, Game extrem auf den CPU Bound / Compute ausgelegt ist).

Mich würden eher Engines wie die neue UE interessieren.

Im Zweifelsfalls (als ähnlichem P/L) würde ich ohnehin zu den AMD Modellen greifen, einfach des Marktes wegen. Zumal sie mit dem neuen Display Controller, UVD und HDMI 2.0 auch technisch wieder up-to-date sind.
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Der 6. Mai scheint DAS Datum zu sein. Neben Nvidia werden dort auch erstmals Infos zu Battlefield 5 veröffentlicht. Das ganze wurde inzwischen ebenfalls in der Form wie bei Nvidia angeteasert.
Ja, ich bin auch mal gespannt auf Freitag. nVidias Event findet 3 Stunden eher statt als das von EA. Ich glaube allerdings nicht, dass die in irgend einer Weise auf einander abgestimmt sind und BF2016 dort auf einer GTX1080 präsentiert wird oder so. Ist sicherlich nur ein Zufall.
 
@jbauer:
Hast du die 3,5 GB,
Die fehlenden asynchronen shader, Die Holz Schrauben,
Die Sperre per Treiber falls eine AMD Karte im Systeme ist,
Den regestrierungs zwang für Treiber,
Die knebelung per gameworks,
Die absichtliche Behinderung der Konkurrenz ( tessalation)

Nicht mit bekommen?
Ich denke das sind genügend Dinge aus der Vergangenheit um etwas skeptisch mit der Zukunft zu sein. Gerade wenn man bedenkt WIE NVIDIA dann bei Bekanntwerden mit den Kunden umging.

also warum genau willst du mich als Troll abstempeln?
 
GERminumus schrieb:
Nicht mit bekommen? Ich denke das sind genügend Dinge aus der Vergangenheit um etwas skeptisch mit der Zukunft zu sein.
Viele haben geschrieben, dass sie Nvidia deswegen boykottieren. Aber genau diese Leute würden beim nächsten Gewinnspiel mit einer Titan oder von mir aus der neuen 1080 diese Karte nicht ablehnen.

Weißt Du, was echter Boykott ist? Bei Audi und co. zu kündigen.
 
moquai schrieb:
Viele haben geschrieben, dass sie Nvidia deswegen boykottieren. Aber genau diese Leute würden beim nächsten Gewinnspiel mit einer Titan oder von mir aus der neuen 1080 diese Karte nicht ablehnen.

Weißt Du, was echter Boykott ist? Bei Audi und co. zu kündigen.

Also ich bin denen gegenüber echt skeptisch und ich hoffe das 2017 der AMD Big Chip "besser / gleichwertig" den von NVIDIA ist. Dann brauche ich nicht überlegen was ich mir hole;)
 
Jbauer: mach was du willst, meine Lebenszeit ist mir zu schade um sowas zu diskutieren.

Aber schlechte Erfahrungen aus der Vergangenheit machen einen stutzig für die Zukunft. Das hat meiner Ansicht nichts mit Trollen sondern mit ERFAHRUNGSWERTEN zu tuen. Du nennst es Trollen ich Erfahrungswerte.
Wir kommen hier also nicht auf einen Nenner.
 
ooh ja warten auf die nächste melkkuh für 10% mehr leistung :freak:
 
jeri schrieb:
ooh ja warten auf die nächste melkkuh für 10% mehr leistung :freak:

Naja, zumindest beim Menschen gehören ja auch jene hinzu, die sich melken lassen ;)
Bin auch gespannt auf die ersten Benchmarks, besonders hinsichtlich DX12.
 
jeri schrieb:
ooh ja warten auf die nächste melkkuh für 10% mehr leistung :freak:
Demnach boykottierst du sämtliche neue Hardware?

Zum Meldung selber: Bin gespannt, was da auf uns zukommt und hoffe auf etwas mehr Bewegung am Markt. Die 28nm wurden wirklich lange genug ausgereizt, jetzt heißt es abwarten und zeitnah auf unabhängige Tests hoffen.
 
GERminumus schrieb:
Dann brauche ich nicht überlegen was ich mir hole...
Zum Glück stehe ich über diesem ideologischen Grabenkampf. Ich hatte Matrox, AMD (damals als ATI) und jetzt eben Nvidia. Es hat sich so ergeben und wenn mir später AMD ein besseres Produkt bietet, dann wird es wohl eine AMD. Wenn nicht, dann nicht. Bei der CPU war es nicht anders.

So gut wie jeder hat "Dreck am Stecken", nicht nur der Pfarrer.
 
Also irgendwie reizen mich die beiden Karten nicht so sehr. Man bezahlt unterm Strich für die gleiche Leistung das gleiche Geld. Das kann man jetzt schon haben.
 
Also ich bin wirklich sehr gespannt auf die neuen Karten. So sehr wie schon lange nicht mehr bei einer Neuerscheinung.
Neue Fertigung, neue Architektur. Wie schlägt sich die Karten bei DX 12? Wie stark geht der Verbrauch nach unten?
 
moquai schrieb:
Das liest sich, als ob das schon ein Tatbestand ist. Wenn Du schon so etwas schreibst, dann bitte so:

"Interessanter ist doch, ob sie den Kunden diesmal wieder bescheißen werden."
:daumen:

GERminumus schrieb:
Ich finde er hat das schon genau richtig Formuliert. So wie NVIDIA sich die letzte Generation verhalten hat, traue ich denen überhaupt nicht mehr. Das Problem ist auch einfach wie die mit den Fehlern umgegangen sind.

Its not a bug its a Feature.

Direkt gefolgt vom ac Feature-_-
:daumen:

Anficht schrieb:
Bin mal auf einen Test gespannt...
:daumen:

GERminumus schrieb:
Ich würde mich mittlerweile wundern wenn nicht wieder irgend ein tolles NVIDIA Feature kommt.

Für mich ist nicht die Frage ob die wieder irgend ein bug Feature haben, sondern welches.

Aber das ist meine persönliche Meinung
:daumen::daumen:


Sehe ich ganz genau so, vorallem erstmal abwarten was die Tests ergeben werden vorher wird garnix von pascal gekauft!

MFG
-GTX-
 
5-10% auf die 980Ti, ähnlicher Verbrauch wie 980 und das für 450-500€ wäre schon bombe :)
 
Ich wiederhole mich mal.

Leute bitte lasst euch nicht so hypen. Schaut erstmal nach dem launch nach tests und schaut euch die jeweilige Konkurrenz an.
Das was die hersteller präsentieren auf ihren folien muss nicht stimmen.
Glaube nur der statistik die du selbst gefälscht hast.
 
Ach wie alle immer in die Glaskugel blicken xD

Ende Mai gibts Fakten.

LG
 
jbauer schrieb:
Und doch tust du es. Du bist nicht nur ein Troll, du bist auch inkonsequent.
Nein, ich nenne es trollen, wenn du Dinge als wahr benennst, die du frei erfunden und wofür du keinerlei Belege hast.

Mir fällt da immer der Spruch ein, "wer einmal lügt, dem traut man nicht". Und das NVIDIA sich in den letzten 2 Jahren sich nicht mit Ruhm bekleckert hat, steht außer Frage. Doch nicht immer gewinnt das beste Produkt.(VHS ist da nen Super Beispiel). Was man allerdings neidlos zugeben muss, obwohl die 970 diesen SpeicherBug hatte, war sie das Zugpferd von NVIDIAs Gewinnen.
Und das nächste NVIDIA Problem scheint schon am Horizont. Gleiche Architektur = keine vollständige Unterstützung von Direct x 12. Ich bin Gespannt, ob die das noch hinbiegen können, oder es Ihnen furz egal ist. Den die Konsequenz wird sein, dass AMD NVIDIA Karten im Direct X 12 Benchmarks abhängen wird(könnt natürlich auch deshalb der Plan sein, die so früh wie Möglich auf den Markt zu werfen)
 
Zurück
Oben