News G-Sync-Upgrade für mutige Bastler kostet 199 Dollar

Total Fail.

Meine Fresse Nvidia habt ihr gar nichts aus PhysX gelernt? Und das war ja weningstens noch kostenneutral. Wer ausser ein paar Geeks wird denn das Geld für Spezialmonitore aufm Tisch knallen, wenn ein 120Hz Monitor, der wohl das Selbe kostet das Problem genauso/besser behebt? Und das ohne Bindung an Nvidia und ohne Spezialsoftware/Hardware/kladderadatschderdranhängt.

Total Fail.

@Elektrikerfront hier:
Die Spannung könnte man kurzschliessen. Dazu müsste man aber genau wissen welche Kondensatoren den Wumms haben, und entsprechendes Equipment. Oder man wartet einfach 30min, dann ist sicher keine gefährliche Spannung mehr da.
 
cirrussc schrieb:
Nur die 10 kV der e-Schocker habe ich nachgeschlagen, den Rest weiß jeder Elektroniker.

es gibt auch e-shocker bis zu ich glaub es waren 150kv,
ich hab noch einen teaser der auf 300kv hoch geht
damit kannst du 90% ins komma schicken/ viele sogar in den tod

ich hab mal einen 150kv teaser an der schläfe abbekommen und muss seit dem alle 3-4tage errienert werden das ich da und da einen termin habe,
da ich z.b. termine für 1 woche an dem tag nicht mehr weis


aber frag mal ein paar leute die nach einem 1,5kv teaser im krankenhaus lagen
oder andere:

die teilweise nichtmehr richtig pissen können
die teilweise verlässligkeits probleme haben
die teilweise stiche in der herz region haben
die teilwese nichtmehr richtig denken können
die teilweise schlaf probleme haben sie schlafen max. 4 std
 
Zuletzt bearbeitet:
Die mA Zahl aus der Wikipedia bezieht sich auf 50Hz Wechselstrom die durch dein Herz fliessen. Beim Kondensator kannst du einfachhaltshalber von Gleichstrom ausgehen, dann ist die Grenze durch deinen Korperwiderstand bei 50V zur Lebensgefahr - wenns dumm läuft.
 
DaLexy schrieb:
G-Sync ist eine gute sache und wird mit sicherheit nicht floppen, dafür sind zuviele Hersteller im Boot.
Leute die es in Aktion gesehen haben waren fasziniert.
Hier noch ein Video wo man sehen kann wie G-Sync aussieht.

Kann die Faszination irgendwie nicht ganz verstehen. Wovon ist man da begeistert? Dass es kein Tearing mehr gibt und wohl auch das Inputlag dadurch reduziert wird?
Vielleicht bin ich einfach nicht so begeisterungsfähig aber das Feature haut mich nun wirklich nicht vom Hocker.
Natürlich ist das ganz nett doch 199€ würd ich mir das nicht kosten lassen. Da gehe ich lieber den alten Weg und limitiere die Frames bis ich kaum bis gar kein Tearing mehr bemerke. Das mag zwar nicht so elegant sein aber es erfüllt seinen Zweck.
Mich stört auch die Entwicklung dass hier Deals mit Herstellern abgeschlossen werden und der Desktop Markt so noch stärker in zwei Lager gespalten wird. Wenn ich also einen Gsync Monitor kaufe bin ich mehr oder weniger auf NV festgenagelt, selbst wenn ich ein GPU-Update machen möchte und AMD zu diesem Zeitpunkt die bessere GPU hat muss ich bei NV bleiben weil sonst mein Monitor "nutzlos" wäre.
 
Zuletzt bearbeitet von einem Moderator:
marco_f schrieb:
Total Fail.

Meine Fresse Nvidia habt ihr gar nichts aus PhysX gelernt? Und das war ja weningstens noch kostenneutral. Wer ausser ein paar Geeks wird denn das Geld für Spezialmonitore aufm Tisch knallen, wenn ein 120Hz Monitor, der wohl das Selbe kostet das Problem genauso/besser behebt? Und das ohne Bindung an Nvidia und ohne Spezialsoftware/Hardware/kladderadatschderdranhängt.

Total Fail.

Dein Post ist Fail, mach dich erstmal schlau was es genau bvewirkt und dann kannste gerne wiederkommen und noczhmal posten.

Anschauen !

@leckerKuchen: es geht ja nicht um Hohe fps, sondern um fps unter der Refreshrate, da bringt dir auch der Framelimiter nix da es trotzdem stottert.
 
Zuletzt bearbeitet:
coolmodi schrieb:
Mal schauen wann der erste Fanboy kommt und hier erklärt, dass man die ganzen Anschlüsse ja nicht braucht, und Nvidia hier alles richtig macht :D

Nvidia macht alles richtig. DVI ist veraltet. DisplayPort ist die Zukunft. Jetzt zumindest, wenn nicht noch ein neuer Standard auftaucht.


Edit:

xyz- schrieb:
ich hab bis jetzt schon 4 mal eine gewischt bekommen,
durch lüfter tausch am nt,
weil die freunde sagten sie haben den pc schon seit 1-2 stunden nichtmehr angehabt,

Selbst nach 24 Stunden kannst du noch eins gewischt bekommen. :)
 
Zuletzt bearbeitet:
marco_f schrieb:
@Elektrikerfront hier:
Die Spannung könnte man kurzschliessen. Dazu müsste man aber genau wissen welche Kondensatoren den Wumms haben, und entsprechendes Equipment. Oder man wartet einfach 30min, dann ist sicher keine gefährliche Spannung mehr da.
Der größte und dickste von allen ist wirklich nicht zu übersehen.
Wohl gemerkt: für Laien ist das nicht gedacht (auch wenn das Video anderes suggerieren könnte)!

xyz- schrieb:
es gibt auch e-shocker bis zu ich glaub es waren 150kv,
ich hab noch einen teaser der auf 300kv hoch geht
So hoch hatte ich das auch in Erinnerung.
xyz- schrieb:
damit kannst du 90% ins komma schicken/ viele sogar in den tod


aber frag mal ein paar leute die nach einem 1,5kv teaser im krankenhaus lagen
Das bestreitet wirklich keiner. Kinder können z.B. schon von zweistelligen Wechselspannungen geschädigt werden und überhaupt je nach Gesundheitszustand und Umständen.
 
DaLexy schrieb:
@leckerKuchen: es geht ja nicht um Hohe fps, sondern um fps unter der Refreshrate, da bringt dir auch der Framelimiter nix da es trotzdem stottert.

Ich weiß schon dass es da nicht um hohe FPS geht. Trotzdem weiß ich nicht von welchem Stottern du sprichst? Dem unter Vsync? Das ist mir schon klar.
Deshalb sprach ich ja davon Vsync zu deaktivieren und die Frames so zu limitieren dass kaum bis gar kein Tearing mehr auftritt.
In den meisten Spielen funktioniert das für mich (natürlich hat jeder eine andere Wahrnehmung). So habe ich weder Inputlag, noch Geruckel, noch Tearing.
 
ITX schrieb:
Denn wenn das DIE wirklich so groß wie auf den Fotos ist, bedeutet das ziemlich hohe Kosten, sollte man es für einen so kleinen Markt extra fertigen lassen.

Der Chip wird nicht extra für G-Sync gefertigt, es ist ein Arria V GX FPGA der Firma Altera.
 
I was wrong. :heilig:

Verbaut ist ein FPGA aus der Modellfamilie Arriva V der Altera Corporation. Nix mit GPU.
  • 6-Gbps transcievers
  • 1 hard PCIe and 2 hard memory controllers
  • 156K logic elements
  • 9 transceiver
  • 6.5536 Gbps Transceiver Speed Grade
  • FineLine BGA
  • 896 pins
  • Operating Temperature: Industrial (TJ = -40° C to 100° C)
  • FPGA Fabric Speed Grade: fastest
  • Lead-free packaging

... falls es irgendjemanden interessiert hat. ^^

@Matzegr
Ja, hab ich mittlerweile auch rausbekommen. Ein Preis wäre noch schön. Bisher hab ich nur Endkundenpreise von gut 600€ gesehen. Das wär ziemlich heavy.
 
Zuletzt bearbeitet:
Meiner Meinung nach fährt Nvidia die falsche Strategie.

Das Teil ist zu teuer. Den Aufpreis werden sich vermutlich nur Enthusiasten leisten, weil die gerne Geld für neue Hardware hinlegen.

Damit sich aber der informierte "normale" Gamer ein Gerät mit G-sync kauft, sollte dieses einfach günstiger sein.

Hat man einmal einen Monitor mit G-sync, wird man wahrscheinlich auch nur Nvidia Grafikkarten kaufen und ich denke bei vielen bleibt der Monitor länger als die Grafikkarte im Haus.

Außer aber Nvidia weiß, dass es in Zukunft ein ähnliches System (Freesync) gibt, das nicht Nvidia-only ist und dieses beim Kunden besser ankommen könnte.

Ich werde warten wie sich das entwickelt.
G-sync an sich finde ich genial, aber ich glaub jetzt wird nur noch schnell die Kuh gemolken bevor es Alternativen gibt.
Diese Alternativen können ruhig schlechter sein, solange sie nichts bis wenig kosten. Geiz ist geil!
 
cirrussc schrieb:
Der größte und dickste von allen ist wirklich nicht zu übersehen.
Wohl gemerkt: für Laien ist das nicht gedacht (auch wenn das Video anderes suggerieren könnte)!

So hoch hatte ich das auch in Erinnerung.
Das bestreitet wirklich keiner. Kinder können z.B. schon von zweistelligen Wechselspannungen geschädigt werden und überhaupt je nach Gesundheitszustand und Umständen.

1. ja die us shocker waren um die 150kv, meinen 300kv teaser hab ich aus mexico 2008
die teaser sind natrülich viel gefährlicher als die shocker weil man ja mitn teaser auf 1-2m enternung schon rangehen kann.

2. ja da sind wir wenigstens näher an einer meinung

für die sync wie bei gsync würde eigentlich auch ein 5-10dollar risk ausreichen,
bzw das ding könnte schon mehr als der chip für gsync

was mir bekannt ist nutzt nv selbst nur n risk der durch die beschneidung auf das wesentliche sogar teurer ist

das was der gsync macht kann auch z.b. ein raspberry pi

Nur das nv soweit in den monitor eingreift, das das lcd das ausgibt was der nv chip will,
und andere feautures des herstellers selbst sind ausgeschlossen

das ist mir sogar als NV besitzter zuviel eingriff auch wenn ich ein va panel hätte,
da gibts durchaus gute aber für was soll ich mir neben den ips vorteilen ein va panel kaufen das dann sowiso durch NV in den funktionen eingeschränkt wird und nur ab der 600 serie unterstützt wird.

edit:
für mich als NV/amd nutzer ist dies völlig indiskutabel,
NV zieht hiermit einfach die scheisse durch,
wie bei der 600er serie hier muss das totschlag agument stromverbrauch bedeuten
auf kosten der cuda gtx nutzer,

weiters amd bietet die compute power (cl) mehr als einer titan in einer gpu um 220 bzw. 290euro an

meiner meinung nach soll sich nv ins knie ficken
bis zur 500er serie waren sie ganz gut, aber seit der 600er können sie mir den arsch richtig clinisch rein lecken

mir selbst ist nivea mit niveau lieber als der nvidia scheiss dreck,
sony hat jetzt einige previews von cl anstatt cuda veröffentlicht,
und ich sags wie es ist für rendering kann man nv i der kloschüssel runter spülen wie der dünschiess

sry wegen der edits:

aber NV schafft sich nur noch bei fanboys ein makelloses image beim rest sicher nicht,
was soll der scheiss:
1) cuda runter auf 470 klasse einer 680 karte
2) cuda user sollen den 4 fachen preis für wie eine quaddro zahlen,
das sie die cl leistung einer 7950/7870 erhalten

3) neue feautures u.a. dx11.2 werden nicht benutzt,
man kann mit teils 11,1 dx feautures rum einern die nichtmal komplett unterstüzt werden

usw.da kann man noch so ein verblenderter fanboy von NV sein,
wenn man den scheiss nicht sehen will,
ja dann tut es mir den nutzern von crap 6000+ leid


meiner meinung nach ist NV seit der 600er serie der grösste sauladen ever geworden,
ich hoffe ein paar amd freaks nehmen sich dieses beispiel gerne an,
anstatt einem 4670T + 1 weitere 470 kommen eine 45W apu inkl. 3 semi passsiv wakkü 290 in den rechner
 
Zuletzt bearbeitet:
xyz- schrieb:
@bagama
bis zu 400volt sind nicht tödliche, ne überhaupt nicht
ich glaub ich fahr mal wieder mitn draht aus spass in die steckdose:rolleyes:

Also ich hab schon oft an 10000V++ gelangt, da ist auch nichts passiert. Du sicher auch ;)
Spannung an sich ist nicht weiter gefährlich, solange nicht auch genug Strom dahinter ist.

Edit: Ich rede natürlich von den spaßigen Elektroschocks an der Autotür usw. :D
Die können gerne mal bis sehr weit über 10kV gehen, haben aber sogut wie 0 A.
 
Zuletzt bearbeitet:
leckerKuchen schrieb:
Ich weiß schon dass es da nicht um hohe FPS geht. Trotzdem weiß ich nicht von welchem Stottern du sprichst? Dem unter Vsync? Das ist mir schon klar.
Deshalb sprach ich ja davon Vsync zu deaktivieren und die Frames so zu limitieren dass kaum bis gar kein Tearing mehr auftritt.
In den meisten Spielen funktioniert das für mich (natürlich hat jeder eine andere Wahrnehmung). So habe ich weder Inputlag, noch Geruckel, noch Tearing.

Stottern meine ich wie in meinem gelinkten Video zb. Anno 2070, gibt bestimmt auch noch genug andere Spiele bei denen es genauso ist. Spiele derzeit nicht soviel von daher hab ich gerade nix weiteres zur Hand.

Gojira schrieb:
Meiner Meinung nach fährt Nvidia die falsche Strategie.

Das Teil ist zu teuer. Den Aufpreis werden sich vermutlich nur Enthusiasten leisten, weil die gerne Geld für neue Hardware hinlegen.

Damit sich aber der informierte "normale" Gamer ein Gerät mit G-sync kauft, sollte dieses einfach günstiger sein.

Hat man einmal einen Monitor mit G-sync, wird man wahrscheinlich auch nur Nvidia Grafikkarten kaufen und ich denke bei vielen bleibt der Monitor länger als die Grafikkarte im Haus.

Außer aber Nvidia weiß, dass es in Zukunft ein ähnliches System (Freesync) gibt, das nicht Nvidia-only ist und dieses beim Kunden besser ankommen könnte.

Ich werde warten wie sich das entwickelt.
G-sync an sich finde ich genial, aber ich glaub jetzt wird nur noch schnell die Kuh gemolken bevor es Alternativen gibt.
Diese Alternativen können ruhig schlechter sein, solange sie nichts bis wenig kosten. Geiz ist geil!

Das wird mit sicherheit auch noch günstiger, zu anfang kostet sowas immer viel. Ich sage nur 4k Monitore. Was den Wechsel einer Grafikkarte angeht denke ich mir mal das es theoretisch klappen kann, nur das man halt dann auf G-Sync verzichten muss.
 
DaLexy schrieb:
Dein Post ist Fail, mach dich erstmal schlau was es genau bvewirkt und dann kannste gerne wiederkommen und noczhmal posten.

@leckerKuchen: es geht ja nicht um Hohe fps, sondern um fps unter der Refreshrate, da bringt dir auch der Framelimiter nix da es trotzdem stottert.

Ja du Genie. Warum hat Gsync wohl den Sweetspot bei lnapp über 30FPS? Richtig! Weil die 60Hz Monitore das nicht mehr darstellen können. Siehe Nyquistfrequenz.
Wenn wir uns auf solch eine "Diskusionsart" einlassen dann doch bitte nicht mit Halbwissen.

Lesen.

Das sind 60Hz Monitore. Warum mir Nvidia solch nen teuren Scheiss verkaufen will wenn es ein besserer Monitor auch tut weiss nur deren PR-Abteilung.
 
Zuletzt bearbeitet:
Krass wie nVidia noch groß die Videoanleitung promoted. Nach dem Motto, Monitor umbauen für Jedermann. Mal sehen, wie viele, vor allem jungendliche mal eben ihren Monitor aufschrauben und dabei umkommen oder Schäden davon tragen. Es muss ja nicht der direkte Stromschlag sein. Die Nachwirkungen können sehr tückisch sein!

Grade im Gaming bzw. PC bereich ist es ja normal, am rechner herumzuschrauben. Leider wird wohl den wenigsten bewusst sein, dass PC komponenten extra Enduserfreundlich gebaut sind, so dass nichts passieren kann. In diesem nVidia Video kommt es natürlich auch so rüber, als wäre es so einfach wie ne neue Grafikkarte einzubauen.

Mit diesem Hintergedanken werden ahnungslose sich an ihrem monitor versuchen und dann... Hoppla. Nein, ich finde das ganz und gar nicht lustig. So ein Umbau ist von einer Elektrofachkraft durchzuführen. Es besteht nunmal Lebensgefahr.
 
Zuletzt bearbeitet von einem Moderator:
@marco

da geht noch mehr :king:

@laggy
die meisten denken sicher nicht sowas mit elektro fachmann
die fahren sicher lieber sebst nach n paar sekunden in das monitor nt mit dem schraubenzieher

da würd ich mir wünschen, manche gehen an mein 34 zoll 1440p display/moni von sharp,
und fahren da einfach mal mitn schraubi rein, die würden erst im KH aufwachen,

mein moni beliefert primär für 5 weitere sharp moni energie,
und da sind nich nur gleichungs kondensatoren drin, sonder auch speicher k.
das ding kann 5 weitere moni mit strom für 15-45sec beliefern

darüber bin ich als nutzer sogar froh denn das muss mein nt auch können, bei uns gibts im winter,
im sekunden takt extreme strom spannungs schwankungen, teilweise für 20-30sec nur 12v aus der 230er leitung
 
Zuletzt bearbeitet:
Vielleicht nochmal für die Nichtnachrichtentechniker:

Das Ruckeln das man bei den Gsyncvorführungen sieht liegt daran, dass ein Abtasten immer nur Frequenzen bis zur halben Abtastfrequenz sauber wiedergeben kann. Ein 60Hz-Monitor kann also nur 30FPS wiedergeben. Ein 144Hz-Monitor kann 72FPS darstellen. Alles was über der halben Abtastfrequenz wird "verzerrt" durch Spiegelfrequenzen.
Gsync von Nvidia macht nichts weiteres, als dass es Monitor und GPU synchron hält, und somit die Abtastung überflüssig macht. So schafft ein 60Hz Monitor fast saubere 60FPS.

Nur fragst man sich halt wozu, wenn auch 120Hz Monitore auf dem Markt sind die das Selbe machen. Ich fände es übrigends auch nett wenn die Autoren solcher Artikel neben Gsync und Freesync auch hochfrequente Monitore eine Lösung sind. Diese sind vollständig systemunabhängig und laufen immer.
Insb. Gaminggeeks besitzen schon heute 120Hz-Monitore. Denen bringt Gsync nichts.
 
Es geht nicht nur um verzerrungen oder tearing oder was der 144hz auch kann. Es gibt ein video was bis ins kleinste detail erläutert welches problem genau angegangen wird.

Nur als beispiel: mit gsync sehen 30fps viel flüssiger aus als ohne gsync, ungefähr so als ob es 45fps wären.

Ein 144hz monitor mit lightboosthack hat wiederrum andere vorteile die mit gsync überhaupt nicht angegangen werden. Zb bekommt man mit 144hz und lightboosthack und 144fps die Bewegungsunschärfe zu 99,9% weg.

Viele würfeln hier alles durcheinander, und dann noch das gefährliche halbwissen :)
 
Zurück
Oben