S3veny schrieb:
Ihr nutzt auf der Arbeit ICQ?
Quasi jeder hat einen Account, warum nicht nutzen? Warum von nem externen Dienstleister abhängig machen? Ja gut, ICQ ist ebenso von ner privaten Firma gehostet, aber ich würde mich wundern, wenn man dies in nächster Zeit abschalten würde o.ä. Bisher lief es problemlos, warum nicht in naher Zukunft? IRC u.ä. wäre vielleicht auch ne nette Idee, aber das ist dann ebenso wieder mit Arbeit verbunden und da haben wir ja schon genug von.
S3veny schrieb:
OTR muss so weit ich verstanden hab von beiden Chatpartnern unterstützt sein, sonst bekommt der andere nur RAW-Shit zu sehen. Viele meiner Kontakte - meist auch die weiblichen, und vor allem da wäre mir OTR besonders wichtig - sind leider nicht sehr Technik/Sicherheit versiert/interessiert. Kompliziert.
Ja, müssen dann schon beide Seiten nutzen. Aber imho ist die komplette Verschlüsselung Blödsinn. Nicht, weil es nicht sinnvoll ist, sondern weil man es bis heute nicht geschafft hat, was benutzerfreundliches zu schaffen. Überall muss man mit Schlüsseln hantieren, nachprüfen, selbst vergleichen, nachbessern, falls mal ein Partner etwas geändert hat usw. Zu viel Aufwand. Wenn man technikaffin ist, mag das ja noch gehen, aber sobald eben jene von dir genannten ins Spiel kommen... Nix da.
S3veny schrieb:
Mh. der XSS Schtz lässt sich ja abstellen, auch lässt sich ~eigentlich~ jede Änderung mit der Deinstallation rückstellen.
Ja, so dachte ich auch und ich hab alles probiert. Es ging aber immer noch nicht. NoScript ist daher runtergeflogen, zumal es mich eh genervt hat, ständig irgendwas auf die Whitelist setzen zu müssen, sowie es eigentlich objektiv betrachtet komplett sinnfrei ist.
Bspw. erlaube ich alle Google-Server. Letztens erst, wurde über Google Ads Malware verteilt. Ergo bringt dir NoScript quasi nur was, wenn du weißt, was das Script macht und es dann erlaubst. Blind ein "ach passt schon, Google ist schon seriös und wird nie nie nie Malware verteilen, weil ist so" abzunicken und es auf die Whitelist zu setzen, ist komplett fürn Popo. Oder wie ist es mit den ganzen Malwarefällen bei Computec? Jedes Script vom seriösesten Hoster kann quasi stets und ständig Malware verteilen... Du brummst dir damit selbst sinnlos Arbeit auf und der Sicherheit wird dafür kein wenig geholfen.
Ein (Ad-)Blocker ist da schon besser, der Requests zu Servern quasi bereits vorm Absetzen stoppt. Vollautomatisch anhand von Leuten, die ihre Sache verstehen und auf die ich eher vertrauen würde, als wenn ich selbst rumfummel und evtl. zu viel Blocke oder zu wenig.
S3veny schrieb:
Ohha, da bewegen wir uns in Bereichen mit denen ich mich bisher leider noch nicht viel beschäftigt habe. Ein Paar Experimente z.B mit TCPOptimizer usw schon gemacht, aber sowas direkt im Browser einzustellen uff... Also mein Ping bewegt sich meist um die 35ms bei 50 Mbit Wired VDSL. Vielleicht sollt ich dann den eintragen?
Den TCP Optimizer brauchst du genauso wenig. Das sind alles Stellschrauben, die im normalen Betrieb überflüssig sind und kaum Auswirkungen haben. Im LAN kannst du damit vielleicht was erreichen, wenn du zusätzlich auf Jumbo Frames achtest u.ä. Wird im Internet aber nicht gemacht und ehe bei dir irgendwas im Argen liegt, sind bis dahin 20 andere Router auf dem Weg zum Server ausgefallen oder überlastet. Sowas kommt viel mehr zu Tragen, als deine Verbindung zum Verteilerkasten. Einfach mal ein tracert laufen lassen bis zum Server und die Hops auseinander nehmen, ggf. mit
WinMTR den Paketverlust protokollieren. Beim tracert bezweifel ich, dass du zum ersten Hop über 10 ms kommst. Der Weg dahinter kommt viel mehr zum Tragen.
Selbst kannst du da nicht viel machen. Die Telekom ist bspw. berühmt dafür, nicht mit Frankfurt (DE-CIX) zu peeren (bzw. wollen sie ja jetzt mal anfangen). Der DE-CIX ist allerdings der größte IXP der Welt und die nötigen Bandbreiten kann man dort problemlos liefern, gar hat man noch genügend Kapazitäten frei. Stattdessen peert die Telekom mit allen Anderen und dadurch gehen u.a. Pings und Datendurchsatz in den Keller, weil alle diese keine so große Anbindung haben, sowie die Wege auch länger sind.
S3veny schrieb:
Apropo Probleme beim Rendern, ich verzweifel letzterzeit hier mit Firefox und Amazon. Weiß der Geier was da los ist, aber selbst mit einer frischen FF Installation (auf einem frischem Windows) läd er sich den Wolf.
Läuft bei mir ohne große Probleme, die mir aufgefallen wären. Auf Arbeit streikt der FF unter Linux aber grad ein wenig, weiß nicht warum. Muss ich mal gucken wenn ich Zeit und Lust hab.
S3veny schrieb:
Was hälst du eigentlich von der FF WinX64 geschichte? Wahrscheinlich nichts oder?
Hab die x64 Builds des Aurora Channels selbst am Laufen. Bringt aber absolut nichts, wenn der FF bei ~ 2 GB einfach in die Knie geht.
Insofern sind die x64 Builds keinen Deut besser als die x86er. Wenn das mit dem Speichermanagement mal besser läuft, kann man evtl. mal nachdenken. Ob es Gebrauch von bspw. ASLR macht? Keine Ahnung, das RAM-Problem ist viel größer.
S3veny schrieb:
Tja was bringt Microsoft? Edge. Ein Anflug von Lachflash bekommt mich.
Da lach mal nicht zu sehr, ab dem IE 9 wurde was Ordentliches geliefert und der aktuelle IE 11 hat ein vorbildliches Rendering inkl. JS. Der Mobile IE musste gar verschandelt und das Parsen toleranter gemacht werden, weil im Strict Mode keine Webseite brauchbar gewesen ist, da alle bei mobilen Seiten auf Webkit entwickeln.
Alle haben über den IE 6 geflucht und die Microsoftabhängigkeit von Webseiten. Momentan bewegen wir uns vollkommen auf eine Webkitabhängigkeit hin, das ist keinen Dreck besser.
Edge hab ich noch nicht probiert, aber wenn er mindestens so wie der IE 11 wird, wirds ein sehr solider Browser. Von JS-Benches hab ich bereits gelesen, welche sehr überzeugend sein sollen. Ich glaube meinen FF wird er nicht ablösen, aber als Zweitbrowser wird er vielleicht ne gute Figur machen. Bin gespannt wie die Dev-Tools aussehen und was MS noch alles in Sachen Visual Studio Integration macht/machen könnte. Den Live-Stream über die Build letztes Jahr zu VS hab ich mir mal angesehen und das sah alles schon richtig gut aus. Mal sehen was sie in Zukunft zustande bringen.
S3veny schrieb:
Die haben es "einfach verstanden" wie ich es immer zu sagen pflege. ^.^
Wenn ich mir das Linux auf Arbeit ansehe... Es gibt nicht mal einen ordentlichen Dateimanager für Linux. Gnome und Cinnamon schießen manchmal den Vogel ab, Debian macht im Unstable-Zweig grad irgendwas Wildes, was ich nicht beschreiben kann, ... Auf Servern läuft ein Linux gut, auf dem Desktop würde ich es mir nach Jahren nicht antun wollen. Hab meinem Chef schon gesagt, dass wenn Win 10 rauskommt, ich das drauf haben will. Gnome, Cinnamon und ich werden einfach keine Freunde. Git auf der Konsole ebenso wenig.
Bei OSS mag der Gedanke gut und schön sein. Ne ordentliche UX bekommt nur irgendwie keiner hin und gerade hier trennt sich die Spreu vom Weizen. Beim Programmieren ist man öfter auf die Konsole angewiesen, weil es einfach nix Ordentliches mit ner GUI gibt. Nicht weil die "Hersteller" nicht wollen, sondern weil sie der Meinung sind, dass die Konsole schneller ist. Seh ich mir dagegen TortoiseGit daheim an, bin ich damit fixer als mit der Konsole. Es muss halt für jeden irgendwie bedienbar sein. FFMPEG ist hier der absolute Graus. Keiner kennt die Switches, teilweise hängen diese jeweils vom Encoder ab, man muss sich alles zusammen suchen, ... Komisch, mit VfW (Video for Windows) bekommt man es doch auch irgendwie hin, warum nicht sowas ähnliches nachbauen? Stattdessen wird weiter auf der Konsole beharrt. Gut, ffmpeg ist ganz nett für die Konsole - Cronjobs, Server (Beispiel Youtube, MySpace, ...), Webseiten allgemein für heutiges Responsive Design (Flash Fallback, Video mit VP8, Video mit VP9, Audio mit AAC, Audio mit MP3 etc.), wenn man die Switches einmal richtig hat. Aber für den Otto Normal User ist da nix zu holen.