News Debüt von Nvidias „Kepler“ Ende März als „GeForce GTX 680“?

Vielleicht stimmt es ja das Nvidia mehr erwartet hat.
Im Endeffekt ist es doch egal, ich hoffe es wird nicht ablaufen wie bei der letzen Generation.

Ich hör immer NV hat was stärkeres erwartet, lese aber nie da hat AMD ihnen ein Strich durch die Rechnung gemacht xD

ja du täuschst dich
xD aja stimmt xD Kann man sogar an den fingern abzählen :D
 
Lukaner schrieb:
keine Ahnung, ob das für dich eine "Quelle" ist, aber informativ allemal: 3DC-Thread

Danke für den Link. Ist teilweise sehr informativ.
Was ich nicht verstehe, wieso liefert NV den GK100 nicht aus und bastelt gleich direkt einen GK110? Wenn der GK104 der ja jetzt als GTX680 kommen soll auf GK100 basiert, müsste ja ein GK100 schneller gewesen sein. Oder kann es sein, das NV die ganze GK10x Generation verworfen hat und der vermeintliche GK104 auf der bereits adaptierten GK110-Basis aufsetzt?
 
bruteforce9860 schrieb:
@C4rp3di3m:
Deshalb wird auch der kommender Hobbit-Film mit 48fps gedreht, ja?

Keine Ahnung wie Du dass meinst. Wie ich schrieb haben HD Filme in 30/60 auf BR Disk jeh nach dem was es ist. Ein normaler Kindofilm hat 23,9xFPS NTSC, PAL sind es 25FPS deshalb sind Filme in Europa minimal Kürzer obwohl nix im Film fehlt, verwirrt manchmal etwas. Grade bei DC Ext. Vergleich, egal.

TV Formate, (bs. PAL) arbeitet allerdings ausschliesslich mit Halbbilder und deshalb braucht es um die 50 Bilder pro Sekunde.
Beim Progressivem verfahren muss im TV dem PAL-Standart noch immer Rechnung getragen werden.

Das menschliche Gehirn nimmt ab etwa 14 bis 16 Bildern pro Sekunde (das ist individuell verschieden) aufeinanderfolgende Bilder als scheinbar bewegte Szene wahr, weswegen die Bildfrequenz bei Kinofilmen in der Stummfilmzeit, nach einer experimentellen Anfangsphase, auf 16 Bilder pro Sekunde festgelegt wurde. Viele späte Stummfilme wurden jedoch mit höheren Bildfrequenzen, wie z. B. 22fps, aufgenommen. Mit der Einführung des Tonfilms wurde die Bildfrequenz auf 24fps festgelegt, da die Tonqualität bei 16fps nicht ausreichte.

Tech Stats Kino:
65/70 mm-Film 24fps (Panavision Super 70, Ultra Panavision 70, Todd-AO), 30fps (frühes Todd-AO), 60fps (Showscan)

65/70 mm-Film IMAX 24fps (IMAX 2D/3D), 48fps (IMAX HD)

Tech Stats TV:
PAL / SECAM 25i (interlaced = 50 Halbbilder)

NTSC s/w 30i (60 Halbbilder)

NTSC Farbe 30×0,999 = ca. 29,97i

So da haste deine Antwort wieso.

Ich weis jetzt nicht genau wie sich dass bei TFT Bildschirmen verhält, dennoch sollten 24 bis 30FPS jedes Spiel fürs Menschliche Auge ruckelfrei darstellen! (min.! Darf natürlich keine Downs unter dieser Marke haben) Bei Spiele FPS gehe ich mal von Vollbildern aus, sonst macht es ja keinen Sinn.

So nun macht euch nen Kopp wofür ihr 150FPS braucht, richtig für nix.

mfg
 
Zuletzt bearbeitet:
Naja, mit diesen Marketingsprüchen ala Nvidia, will man die noch restlich verbleibenden Nvidaanhänger bei Laune halten, bevor die auch noch gänzlich zu AMD abwandern. Ich sehe das alles locker und denke es wird so ablaufen wie bei der 480er, ein zusammengeschusteter, lauter Heizofen und dann möchte ich mal die großen Augen der Fans sehen. Aber wie ich das jetzt schon sehe, werden die Fans selbst aus so einem Flickwerk noch massig Positives sehen. Der horrente Preis ist dabei Nebensache, Wetten das?
 
summer46 schrieb:
[...] ich hab zwar keine ahnung was kepler kosten wird aber aufjedenfall wird das kein billiger spaß
Dass nVidia den GK104 als vermeintliches Flaggschiff GTX 680 vermarkten möchte, könnte ein kluger Schachzug sein. Die Möglichkeit wäre jedenfalls gegeben, sollte der GK104 tatsächlich schneller sein als die HD 7970. Man wird so den Preis des GK104 von >500€ einfacher rechtfertigen können.

nVidia wird sich solange ihre Performance-Chips zu Preisen von Highend bezahlen lassen bis AMD interveniert; sei dies durch Preissenkungen der HD 79xx oder durch eine überarbeitete "Tahiti"-GPU, die den GK104 übertrumpfen kann.
 
Es geht hier auch noch um andere Sinne! Wenn ich meine Spielfigur schnell drehen will, dann bewege ich die Maus schnell. Hab ich 20-30FPS ist das Scheiße und zu wenig!

Sehe ich aber nur irgendwas mit isometrischer Ansicht in Strategieknüppeln oder seh ich ein Spielvideo, reichen grob 30FPS. Aber für schnelles ballern sind mindestens 40FPS sehr zu empfehlen.

Weiterhin ist es auch immer ne Frage der Schwankungen. Kommt man von 60 auf 40FPS merkt man das leider, obwohl beides an sich ruckelfrei ist.

Grafikkarten mit viel Leistung sind sehr erwünscht und KEINER will hier permanent mit 25-30FPS rumdümpeln!
 
Krautmaster schrieb:
@Eyefinity

Hoffentlich löst das Nvidia besser. Ich würde gerne 3 TFTs (2 davon mit DP) betreiben an meine HD6950, aber es will einfach nicht.

Was geht an welcher Stelle nicht? Wenn Du die 3 Monitore anschliesst und den Dektop auf alle erweiterst, wird auf allen dreien ein Bild angezeigt? Hast Du eventuell mal was am Ausgabemodus geändert ("Windowstaste" + P). Eyefinity und der die windowsinterne Bildausgabe Umstellung haben sich nicht so gerne! Was aber wohl normal ist bei der Spiegelung von 6048x1200:freak: Schade das Microsoft es AMD nicht erlaubt dieses "feature" zu deaktivieren bei aktiviertem Displayvebund!
 
Zuletzt bearbeitet:
@C4rp3di3m:
Mag sein, dass es 24-30 fps als flüssig zu bezeichnen ist, dennoch sehen z.B. 50 fps flüssiger aus. Dafür sind natürlich schnelle Schwenks erforderlich (FPS).
Von 150 fps redet hier (hoffentlich) keiner ;)
 
Spiele brauchen mehr fps als Film weil wir "scharfe" Bilder haben und die Übergänge zwischen zwei Frames dadurch härter sind. Im Film entsteht durch die Aufnahme automatisch Motion Blur und Einzelbilder sind nicht perfekt scharf, d.h. sie enthalten schon teilweise Informationen, die man dem nächsten Bild zuordnen könnte. Film und Spiel sind nicht wirklich vergleichbar in dieser Hinsicht.
 
dominiczeth schrieb:
(Der mit dem NV-Pulli bin ich :D )

Wär doch lustig geworden wen du einen von AMD oder ATI getragen hättest :evillol:


Mal schauen wenn die denn nun endlich WIRKLICH kommen.
Vllt. hat AMD ja glück und die werden wieder ein reinfall wie damals mit Thermi :lol:
 
boxleitnerb schrieb:
Spiele brauchen mehr fps als Film weil wir "scharfe" Bilder haben und die Übergänge zwischen zwei Frames dadurch härter sind. Im Film entsteht durch die Aufnahme automatisch Motion Blur und Einzelbilder sind nicht perfekt scharf, d.h. sie enthalten schon teilweise Informationen, die man dem nächsten Bild zuordnen könnte. Film und Spiel sind nicht wirklich vergleichbar in dieser Hinsicht.

dann warte mal auf den Umbruch, den die beiden "Hobbit"-Verfilmungen von Peter Jackson auslösen werden - der dreht auch erstmalig mit 60fps und den neuen RED Epic 5k Kameras :)
 
fuchen
und das neue Hobbit spiel spielt er dann auf seiner Playstation IV powered by AMD o0

Oh man, die meisten haben jz gerade mal auf FUll HD gerüstet, bis der neue Standard kommt wird sicherlich dauern.
 
Ich sag ja nicht, dass es bei Filmen nicht noch besser geht. Teilweise ruckeln auch Filme bei 24fps. Nur vergleichbar ist es halt nicht. Ist aber auch ermüdend die ewige Diskussion mit denen, die laufend behaupten, mehr als 25-30fps bräuchte man nicht.
 
boxleitnerb
sowas kann man nicht diskutieren. Denn die Wahrnehmung ist bei jedem unterschiedlich.
Ist ja das gleiche mit 3D sehen, die einen können es ohne Probleme die anderen schielen halbert dabei...
Genauso wie der Geschmack von einigen unterschiedlich sein kann. Die einen mögen AMD die anderen NV.
Man kann auf beiden Karten spielen, genauso wie man auch nur mit 24-30 frames flüssig spielen kann, wenn es einen nicht auffällt dass es vllt ruckelt, wobei es wieder abhängig von den games ist.

Aber irwie erinnert mich das an eine Aussage eines Polizisten. Ja wir halten oft bewusst langsam fahrende Autos am Abend auf, da die Kiffer meist glauben sie fahren mit Warp-Antrieb.

Anders bsp jemand der auf einem Laufband laufen geht, und dann vom Laufband absteigt, wird auffallen dass seine Koordination dann eine völlig andere ist.
Somit ist Empfinden eben was sehr persönliches und kann nicht verallgemeinert werden.
 
pipip schrieb:
überflüssiges Zitat entfernt *klick*

Natürlich hängt es von der Wahrnehmung ab. Man kann über das "brauchen" nicht diskutieren, stimmt. Aber man kann über das "es gibt keinen Unterschied zwischen 30 und mehr fps" diskutieren - das ist nämlich schlicht und ergreifend falsch. Es gibt auch einen Unterschied zwischen einem Billigfusel und einem 1000-Euro Wein, auch wenn ich ihn nicht erkenne. Ich denke, sowas würde sich mit kontrollierten Studien einwandfrei nachweisen lassen.
 
Zuletzt bearbeitet von einem Moderator:
Ameisenmann schrieb:
Die meisten haben doch nicht mal das was sie in ihrer Signatur behaupten.

Geschummelte ePenis-Größe?

JonnySD schrieb:
Ich war vor gut 3 Wochen in München bei nVidia beim Community Treff (geilster Tag meines Lebens)

Ach du sch.... :eek: :freak: :(

Abwarten. Aber nVidia erkauft sich bestimmt wieder 10% mehr Leistung mit 30% mehr Energie, wie immer.
 
Schau Dir doch mal einen miesen Porno an der mit eine billig-HD-Cam und 60 FPS gedreht ist.
Na das lässt ja tief blicken - wenn es wenigstens ein guter Porno mit einer miesen Cam gewesen wäre......:D

Und zu dem Thema, wenn ich meinen Kopf drehe und nur noch "Mono" auf das Bild schaue, sehe ich jedes einzelne Bild flackern - auch bei BluRay mit 24p!
Allerdings machen mir 30 fps bei Crysis wiederum gar nichts aus und sind brauchbar zu spielen für mich!
Ich denke man kann es nicht vereinheitlichen - allerdings nehme ich auch keinem es ab, wenn er fps von >100 braucht............
 
Oh je, immer wieder die gleiche Diskussion. Interessant ist zu sehen, dass C4rp3di3m nicht mal den Link von HisN kommentiert, ich finde, da sieht man sehr schön, dass die FPS beim PC durchaus einer anderen "Logik" folgen, als bei Filmen. Interessant ist auch, dass noch in keiner Diskussion eine Person mit einem Monstersystem solche Aussagen wie "über 24 FPS sieht man sowieso keinen Unterschied" getätigt hat, meist sind es Leute mit einem in die Jahre gekommenen Sys, die sich die Tatsachen schönreden wollen, weil sie kein aktuelles Sys mehr haben :D Ich halte es so, mit einem 60Hz Monitor will ich 60 FPS haben, wenn möglich sogar mit VSYNC oder zumindest mit Min.FPS=60. Alles andere ist Käse. Ich habe früher auch immer geglaubt, ich könne mit 30FPS gut leben, aber seit ich meine Spiele (inkl. FlightSimulator...) eine zeitlang mit 60FPS zocken konnte, möchte ich nie mehr zurück...
 
@AnkH
korrekt!!! Die User mit veralteten Systemen haben meist ehh die Kohle nicht um 400€ und mehr für ne Top-Karte auf den Tisch zulegen oder sind einfach zu geizig aber reden alles mies und zocken mit einer alten Karte weiter.:D
 
Zurück
Oben