News Nvidias „Volta“-GPU folgt nach „Maxwell“ mit Stacked DRAM

bei fernsehern hat es trotzdem keinen sinn, da sitzt man zu weit weg.
 
Bei dem on-Chip Speicher sollte aber nicht der Eindruck entstehen, als hätte man den kompletten bisherigen 2 GB Speicher. Denn das wäre zu schön um wahr zu sein (und ist es auch). Im Grunde ist das eine umbenannte Vergrößerung des Caches. Einfach mal überlegen: Was würde sowas kosten?
 
Elkinator schrieb:
bei fernsehern hat es trotzdem keinen sinn, da sitzt man zu weit weg.

Haben sie noch eine Kathodenstrahlröhre oder warum sitzen sie weit weg und warum müssen alle anderen es auch machen? Wir Menschen haben eine Gesichtsfeld von 180°. Auch wen die Wahrnehmung nach außen ab nimmt, warum soll ich mich jetzt Meter weit weg setzen. Der vorteil eines Flachbildschirmes ist doch gerade das man im gegensatzt zur Röhre nah sitzen kann ohne sich die Augen kaputt zu machen. Ich kauf mir doch net einen 50"+ um dann 10 Meter davon weg zu sitzen. Auch beim PC hätte ich nichts gegen 4k Bildschirm einzuwenden. Ich muss auch bei 1m Abstand und bei 1080p AA aktivieren oder mit sichtbaren Negativeffekten wie Treppen, Flimmern leben....

32 Zoll-1,25m
37 Zoll-1,45m
40 Zoll-1,60m
42 Zoll-1,70m
46 Zoll-1,80m
50 Zoll-1,95m
52 Zoll-2,05m

Gehe ich jetzt näher ran, sehe ich Pixel, daher macht eine Höhere Auflösung immer Sinn sobald man nah ran möchte oder die Bildschrimdiagonale zu nimmt. Bei 52 Zoll zb wird es unter 2m wieder eng, weil ich dann auf den einfarbigen Flächen die Pixel erkennen kann, gehe ich weiter weg habe ich nichts mehr von der Bildschärfe. Dazu hat man bei Passiven 3D an den Rändern wahrnehmbare Aliasing.

PS: Diese Pseudospezialisten gehen mir schon etwas auf den Kecks. Jeder redet von Pixelwahn obwohl wir noch lange nicht an den Grenzen des menschlichen Auges angekommen sind. Das erkenne sogar ich obwohl ich selber merke das ich langsam mal zum Optiker gehen sollte. Was soll man daher von solchen Kommentaren halten, ich bin versucht jeden in Zukunft der über Pixelwahn redet einen Optiker zu empfehlen. Den die Realität sieht ganz anders aus.

So Arbeite ich oft in MM, Saturn. Komme daher oft an der TV abteilung vorbei und stelle Fest bei der Entfernung die für mich am angenehmsten ist sieht man Pixel, sprich man ist zu nah für den Stand Technik. Wen ich mir einen großen Fernseher kaufe, soll er doch auch Groß sein. Ich kann mich natürlich von einem 50" auch 10m wegsetzten, dann sehe ich natürlich auch keinen Unterschied. Aber da kommt doch kein Kino gefühl auf.
Das gleiche hat man bei einem halben abstand bei einem Monitor. Pixel, wahrnehmbar. Aliasing sichtbar und damit verbundenes Bildflimmern. Schaltest AA an, haste eine matschiges Bild. Leute geht einfach zum Optiker!

sry für offtopic
 
Zuletzt bearbeitet:
und genau bei diesen entfernungen bringt eben am fernseher mehr als 1080p NICHTS...

oder sitzt du 1m vor dem 50" gerät?

fällt dir eigentlich noch mehr blödsinn ein?
mehr PPI bringt etwas wenn man nahe dran sitzt, NICHT bei einem fernseher.

der pseudospezialist bist wohl du, wenn du mir etwas unterstellst das ich so nie gesagt habe...
 
Setzten sie sich im Kino auch in die letzte reihe weil man dort das beste Bild hat?

Ich will nicht noch einen Roman schreiben, den ich habe es ja eigentlich verständlich ausgedrückt. Doch meistens ist der Sitzabstand nach Wohnsituation gewählt und die Bildiagonale nach dem Geldbeutel. Und 1m vor 50" mag schon ein extrem darstellen, aber doch schon bei 1,5-2m ist der normale Abstand erreicht. Und da wird es immer noch Pixelig. Das kann jeder im MM oder Saturn selber testen. Der Fernseher ist für den Abstand einfach zu Groß. Bei einem 4k hat man dieses Problem nicht mehr. Und solange man Wahrnehmbare Verbesserungen sieht, macht es auch Sinn die Auflösung hoch zu schrauben. Das davon der, der aus 5 Meter Abstand in sein 32" Fenster blickt keine vorteil hat ist auch klar. Die Zielgruppe wird auch immer kleiner und nicht größer werden. So ist das fast immer bei Verbesserungen.

Tatsache ist, das viele deutsche ihre Sitzgewohnheiten und damit verbundenen Abstände von einer veralteten Technik der CRC-Röhre auf eine neue Technik übertragen wo es überhaupt nicht mehr notwendig ist sich weit weg zu setzen. Allein mein Sichtfeld beschrenkt den Abstand. Und in Abständen wo der Fernseher angenehm mein Sichtfeld ausfüllt sind hässliche Pixel und Alliasing wahrnehmbar.

Nochmal zu ihrer Frage ob ich mich 1m an einen 50" Hocken würde, ja klar, sicher! Wäre ja bei 4k auch kein Blödsinn mehr. Im Kino sitzt man ja auch nicht anders. Nur auf Pixelmatch und Treppen hat man keine Lust, das ergibt sich aber durch die stagnierenden Fortschrit im Bereich der Bildschirmauflösungen. Ich brauch ja nur mal auf 3D Fähige Monitore verweisen. Die kann man mit einer Hand ab zählen. Da hat alles bestenfalls 1080p. Will man mehr zahlt man überproportional mehr! Über 27" Quasi nicht existent im Consumerbereich.
 
Zuletzt bearbeitet:
@lynx007

1,5-2m Abstand bei einem 50 Zoll TV findest du normal?

Gut, ich kenne keine Statistik, aber das habe ich persönlich noch bei niemandem in meinem Umfeld gesehen. (Und ja, ich weiß, das ist nicht repräsentativ.)

Davon abgesehen, gegen 4K bei solchen Geräten habe ich nix, da passt es noch. Aber 2m Entfernung als normal zu bezeichnen, finde ich etwas seltsam. Bei kleinen Räumen vielleicht. Und damit ist auch nicht im geringsten in Frage gestellt oder darüber geurteilt, dass du es selbst gerne so machst.

PS: Wenn du schon eine förmliche Anrede vorziehst... dann schreib das "Sie" wenigstens groß, weil es sonst "die anderen" bedeutet.
 
Zuletzt bearbeitet:
Die Faustregel lautet Diagonale(in cm)*3 = Abstand zum TV. Bei einem 50" (50*2,5) also 125 cm * 3 = 3,75 Meter. Wir haben ein 47" und sitzen ca. 3 Meter weg und da sieht man 0 Pixel und ein 4K Gerät würde 0 bringen. Gleiches gilt für mein 24" mit 1920x1200 da bin ich rund 1 Meter weg und kann effektiv kein Unterschied zwischen 1080 und 720 sehen.
 
Wahrscheinlich muss man ein 4K-Gerät einfach mal selbst ausprobiert haben um das beurteilen zu können. Ich hatte bisher noch keine Gelegenheit dazu.

Aber ich bin immer skeptisch bei Aussagen wie: "Mehr kann ein menschliches Auge gar nicht wahrnehmen." und festen Formeln, die alle möglichen Faktoren gar nicht berücksichtigen.

Es ist das Selbe wie bei Bildfrequenzen. Es ist einfach unmöglich zu sagen, dass ab Frequenz X alles perfekt flüssig ist. Das ist zu sehr situationsabhängig und nicht zuletzt auch stark subjektiv. (Ich selbst scheine z.B. sehr unempfindlich zu sein und bin mit 60Hz vollauf zufrieden und bemerke auch kein PWM-Flimmern der LED-Hintergrundbeleuchtung. Für andere ist das offenbar schier unerträglich.)

Wie gesagt wird es bei extrem hohen Bildauflösungen ähnlich sein. Es gibt viele, die von Apples Retina-Displays hin und weg sind und die das als komplett anderen Bildeindruck empfinden. Es soll aussehen "wie gemalt".
Ich selbst gehörte früher auch zu den "Auflösungskeptikern" bezüglich FullHD oder gar darüber hinaus. Heute habe ich einen 27-Zöller mit 2560x1440 und empfinde eine deutliche Steigerung gegenüber dem alten 23" mit 1920x1200.

4K konnte ich wie gesagt bisher nicht selbst testen. Aber ich könnte mir durchaus vorstellen, dass mir das gefällt. Auf jeden Fall sind hohe Auflösungen eine prima Methode, High-End-GPUs an ihre Grenzen zu bringen und ein Upgrade zu rechtfertigen. Meine arme "alte" GTX580 quält sich mit der WQHD-Auflösung furchtbar ab.

Vielleicht wird (in vielen Jahren) mein nächster Monitor ein 30"-OLED mit 4K-Auflösung sein und hoffentlich die passende Grafikkarte dazu. :D
 
Elkinator schrieb:
wenn man einen kleinen monitor mit hoher pixeldichte hat braucht man aber auch kein aliasing, davon wird das bild nur matschig.
das braucht man nur, wenn die auflösung zu gering ist.

ideal wäre 2560*1600 auf 22"-24"....

Hab es mal eben bei meinen Notebook getestet. Um auf Kantenglättung zu verzichten müßte ich ~1.8m von meinem Notebook (FullHD, 15,6") wegsitzen, da ich aber ~70 cm davor sitze bräuchte ich ~360ppi damit man auf Kantenglättung völlig verzichten könnte. Das wäre also auflösungstechnisch irgendwas zwischen 4k und 8k auf den 15,6".


Cool Master schrieb:
Die Faustregel lautet Diagonale(in cm)*3 = Abstand zum TV. Bei einem 50" (50*2,5) also 125 cm * 3 = 3,75 Meter.

THX-Standard gibt an, dass man für ein "echtes Kinoerlebnis" rund 1,19*Diagonale wegsitzen sollte. Bei Fernsehern würde also 4k noch Sinn ergeben wenn man so dicht dransitzt. 8k würde keine Verbesserung bringen.

Nachtrag:

Herdware schrieb:
(Ich selbst scheine z.B. sehr unempfindlich zu sein und bin mit 60Hz vollauf zufrieden und bemerke auch kein PWM-Flimmern der LED-Hintergrundbeleuchtung. Für andere ist das offenbar schier unerträglich.)

Also mit 60Hz bei LCD hab ich keine Probleme, aber die LED-Hintergrundbeleuchtung muß ich immer auf max. Helligkeit laufen lassen bei meinem Notebook, weil mich das PWM-Flimmern sonst tierisch stört und mir auch schwindlich wird bei min. Helligkeit. Mich stören z.B. auch bei Autos in der Nacht die LED Rückleuchten. Beim Bremsen also auf max. Helligkeit sind die Dinger absolut in Ordnung, aber sobald die im gedimmmten Zustand als Rückleuchte dienen, stört es mich extrem.


----

BTT

Auf den alten Roadmaps sollte Maxwell noch ca. 3 mal effizienter als Kepler sein als. Auf der Roadmap sieht es eher wie 2 mal effizienter aus.
 
Zuletzt bearbeitet:
Meinen letzten Monitor hatte ich fast 8 Jahre lang.

Wenn mein jetziger WQHD-Monitor auch ungefähr so lange hält, wird die zum darauf folgenden 4k-OLED-Monitor passende Grafikkarte wohl mindestens ein Urenkel der Maxwells werden. :D

Ich hoffe mal, dass deren Leistung für 4k ausreichen wird.
 
Kasmopaya schrieb:
Karten, eine Karte schafft nicht mal 30" Monitor Auflösung perfekt.
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/18/
Scheint heute schon mit einer Karte möglich zu sein ohne Probleme

Cool Master schrieb:
Die Faustregel lautet Diagonale(in cm)*3 = Abstand zum TV. Bei einem 50" (50*2,5) also 125 cm * 3 = 3,75 Meter. Wir haben ein 47" und sitzen ca. 3 Meter weg und da sieht man 0 Pixel und ein 4K Gerät würde 0 bringen. Gleiches gilt für mein 24" mit 1920x1200 da bin ich rund 1 Meter weg und kann effektiv kein Unterschied zwischen 1080 und 720 sehen.
dem würde ich mich auch anschließen, und es entspricht auch jedem Ratschlag den man vom fachhändler oder in einschlägigen Foren zu hören/lesen bekommt. 2 m vorm TV sitzt man nicht freiwillig, ebenso wenig wie in der ersten Reihe im Kino. Dann lieber in der letzten reihe (wenn Mädel dabei ;)) oder in der Mitte wenn perfektes Kinoerlebnis gewollt wird.
 
Zuletzt bearbeitet:
Nein aber auf Crysis 3 kann man ohne Probleme verzichten - wenn nicht gibt man eben das Geld aus für 2 Karten.
Aber wenn 90% der Spiele keine Probleme mit einer Karte machen, dann ist das für mich ausreichend.
 
Cool Master schrieb:
nVidia kann viel verlangen wnn der Tag lang ist Wenn der Preis zu hoch ist wird nicht gekauft und somit gleicht sich das aus Das ganze "Monopol-Sezanario" das man früher in der Schule gelernt hat ist in der heuteigen Zeit überholt. Sollte nVidia mal alleine da stehen dauert es nicht lang bis Konkurenz kommt. War schon immer so und wird immer so sein

Deswegen sagte ich Cournot-Punkt, es würde auf jedenfall teurer als jetzt auch im Midrange und Lowend-Segment.

Und das da so schnell wer neues kommt, halte ich für unwahrscheinlich. Der Grafikkartenmarkt hat nicht gerade niedrige Eintrittsbarrieren oder warum gibt es nur zwei Hersteller von Grakas im Highendbereich?
 
@Ganzir

Zum einen weil es sau teuer ist im High-End Markt man macht damit kaum Geld. Warum sollte ich als Firma Milliarden investieren wenn ich gerade mal ~10% Umsatz pro Karte mache? Und natürlich wegen Lizenzen/Patenten. Davon abgesehen ist Intel immer noch der größte Hersteller und das wird sich auch in naher Zukunft nicht ändern. Ich musste, als meine alte GTX 285 zur RMA ging meine HD3000 nutzen und ganze ehrlich, ich konnte alles spielen in 1920x1200. Klar, nicht auf "Ultra" aber es ging und wenn Intel sich weiter so ran hällt sage ich mal der Nachfolger von Haswell (kein DIE schrink) wird in richtung High End Leistung gehen. Dazu kommt noch Maxtor auch wenn sie nicht mehr wirklich was mitzusprechen haben sie sind noch am Markt ergo kann es gar kein Monopol geben selbst wenn nVidia oder AMD nicht mehr wäre.

Desweitern ist der Cournot-Punkt auch nur eins: Theorie der Markt bestimmt den Preis und wenn plötzlich Low und Mid Karten x% teurer werden werden sie nicht gekauft ganz einfach. Ich muss mal schauen ob ich das YouTube Video noch mal finde in dem (ich glaube ein Prof.) seien Meinung darlegt und in der Geschichte nach Fakten sucht.
 
Zurück
Oben