PC Alles rund um den PC (News, Diskussionen, Masterrace)

Dieses Thema im Forum "Computer & Apple" wurde erstellt von Para, 2. September 2020.

  1. mushaaleste

    mushaaleste

    Beiträge:
    4.549
    Zustimmungen:
    4.278
    Hast du ein USB Hub oder USB verlängerungskabel? Häng ihn da mal dran, die Front Anschlüsse bei usb3 strahlen häufig flott vor sich hin und stören gerne solche dongles. Ich hatte das Problem mal mit meinem Logitech bt Adapter, ständig Lags, nicht reagierende Maus etc. Dann an ein USB Verlängerung gehängt und alles tutti
     
    hank scorpio, Bademeister und Masterman gefällt das.
  2. Masterman

    Masterman

    Beiträge:
    18.403
    Zustimmungen:
    8.965
    DAS hat leider nichts gebracht, wobei die Verlängerung auch recht alt ist, kein Plan welchen USB-Standard die hat.

    Allerdings habe ich jetzt mal die Controller-Firmware von 3.2 auf 4.8 (!!) aktualisiert und bilde mir nach einem kurzen Test ein, dass es was gebracht hat. Muss später weiter checken. Dass Windows aber nicht automatisch aktualisiert, wundert etwas :O_o:
     
    mushaaleste gefällt das.
  3. value

    value Grinch

    Beiträge:
    6.546
    Zustimmungen:
    5.615
    Mich nervts das der erste Elite kein Bluetooth unterstützt :motz:
     
    Quenten und Masterman gefällt das.
  4. el_barto

    el_barto Supernintendo Chalmers

    Beiträge:
    36.434
    Zustimmungen:
    26.186
    Hört sich so an, als nutzt er (wie ich) Atmos for Headphones. Und da hat das durchaus einen Effekt, da Atmos for Headphones ein binaurales 3D-Soundmodell nutzt. Das kriegt PCM natürlich nicht hin. (wobei Atmos for Headphones längst keinen sehr guten 3D Sound hinbekommt; ich hoffe, das schafft die Tempest Engine der PS5 besser)

    Und nein, das erzeugt keine Verzögerung. Sorgt halt für n paar Prozentchen mehr Last auf nem CPU-Kern, aber mehr auch nicht.

    Aber auch wenn man damit ein Heimkino ansteuert, kann es VOrteile bringen: Denn den Receiver erreicht ja das Atmos-Signal, also im 3D Raum codierte Soundpositionen. Manche Receiver codieren dann afaik auch die Höheninformationen in das ausgegebene 5.1- oder 7.1-Signal über psychoakustische Effekte.
     
    Copado und Masterman gefällt das.
  5. Bademeister

    Bademeister

    Beiträge:
    315
    Zustimmungen:
    67
    Ich kann natürlich nur von meiner Erfahrung sprechen, und ich habe eine deutliche Verzögerung festgestellt, sowohl an meinem alten Denon, als auch jetzt an einem Yamaha. Da ist immer das Bild am C9 schneller als der Ton. Und Atmos hat sich bei PC spielen praktisch nicht durchgesetzt, gibt eine Hand voll Spiele die das unterstützen und da weiß man dann eben auch nicht wie viel extra Arbeit die für Atmos zusätzlich zum 7.1 reinstecken.
     
  6. el_barto

    el_barto Supernintendo Chalmers

    Beiträge:
    36.434
    Zustimmungen:
    26.186
    Seltsam.. Ich hab auch nen C9 und nen Denon Receiver (AVR X1200W) und Bild und TOn sind immer synchron - sowohl bei Atmos am Receiver als auch Atmos for Headphones (Kopfhörer hängen direkt an der SoundBlaster am PC)

    Aber wie gesagt: Wenn man Atmos for Headphones nutzt, muss das Spiel auch kein Atmos unterstützen. Auch ein normales PCM-Surroundsignal, das zweidimensional abbildet, wird da in binaurales Surround für die Kopfhörer umgesetzt.
     
    Masterman gefällt das.
  7. Bademeister

    Bademeister

    Beiträge:
    315
    Zustimmungen:
    67
    Wenn ich Atmos von der Grafikkarte über den TV und von dort mit earc an den Receiver schicke, habe ich deutlichen Lag. Interne Apps sind ok. Ist jetzt für mich nicht schlimm, da ich zwischen 7.1 LPCM und Atmos keinerlei Unterschiede höre in Sachen Räumlichkeit mit meinem Equipment. Ich bin einfach nur allergisch gegen asynchronen Ton.
    Atmos für Kopfhörer klingt gut, kann ich leider auch nicht nutzen, da ich nur BT Kopfhörer habe und die auch verzögert den Ton ausgeben.
     
  8. esnoox

    esnoox I bet you can't stick it - Team Chief // Ex-Kiwi

    Beiträge:
    18.423
    Zustimmungen:
    9.771
  9. el_barto

    el_barto Supernintendo Chalmers

    Beiträge:
    36.434
    Zustimmungen:
    26.186
    Linus reizt das Mögliche aus :ugly:
    2x 3090 im SLI-Verbund. System schlürft lockere 1000 Watt weg :lol:

     
  10. Masterman

    Masterman

    Beiträge:
    18.403
    Zustimmungen:
    8.965
    Heute konnte ich zum ersten Mal wieder etwas intensiver zocken, ohne dass mich Bugs und Co. davon abgehalten haben. Zu verdanken ist es dem Xbox Wireless Adapter und High-End-HDMI-Ethernet-Kabeln, mit denen ich zwar immernoch Dropouts hatte, durch die ich aber nun ausschließen kann, dass ich irgendwas daran ändern kann. Das Problem ist nämlich, dass LG Atmos und DTS:X per eARC als 192.000hz statt 48.000hz ausgibt und mein Receiver damit nicht zurecht kommt. LPCM wird korrekterweise als 48.000hz ausgegeben und funktioniert einwandfrei. Hatte von dem Bug schon gelesen und gedacht, dass es eventuell trotzdem am Kabel oder so liegen könnte - hatte auch sicherheitshalber mal Windows neu aufgesetzt.

    Dank Xbox Wireless Adapter spinnen jetzt auch die Bluetooth-Kopfhörer nicht mehr und über die habe ich zumindest mal fake Atmos. Dass Firmware-Update für den Xbox Controller hatte nur etwas Abhilfe geschaffen, hatte teilweise immernoch Lag - mit Adapter aber alles perfekt, auch in meiner Lieblingsposition vom Gerät abgewandt.

    Ready for Cyberpunk :liebe:

    Und Forza Horizon 4 in 4k HDR mit Gsync ist schon ultra nice. Bzw. auch ohne Gsync, weil ich ehrlich gesagt immernoch nicht sicher bin, ob ich einen Unterschied sehe :O_o: Diagnostics Menu zeigt aber an, dass es läuft.

    Während ich diesen Post geschrieben habe, hatte ich plötzlich den Bug, dass bei Forza im Hintergrund noch Big Picture gesteuert wurde, man die Sounds gehört hat und nach dem Spiel plötzlich in irgendeinem Menü war :O_o: Zum Glück relativ schnell einen Fix gefunden, aber wtf, PC Gaming und Konsolen Gaming sind schon nicht vergleichbar. Die höhere Qualität kostet ordentlich Nerven :D Fix ist auch nicht 100 pro wasserdicht, gerade ist es wieder passiert :fp:
     
    Zerfikka und mushaaleste gefällt das.
  11. value

    value Grinch

    Beiträge:
    6.546
    Zustimmungen:
    5.615
    Das sind Microsoft Games, die darfst du nicht mit der breiten Masse vergleichen.. :D
     
    Copado und Masterman gefällt das.
  12. Bademeister

    Bademeister

    Beiträge:
    315
    Zustimmungen:
    67
    @Masterman
    Ich verzichte weitgehend auf big picture mode und Overlays, vor allem wenn man Steam-fremde Spiele einbindet und am besten noch mit den Nvidia und Windows Overlays kombiniert, kann das ab und an Probleme geben. Gsync hast du richtig eingestellt? Mir hat diese Seite geholfen als ich neu in dem Thema war, dort sind auch alle relevanten Einstellungen erklärt:
    https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

    Wenn du stabile 60 bzw 120 FPS hast, ist gsync natürlich nicht relevant. Das merkt man nur bei krummen Bildraten oder wenn es bisschen schwankt.
     
    Copado und Masterman gefällt das.
  13. value

    value Grinch

    Beiträge:
    6.546
    Zustimmungen:
    5.615
    Anfang November kommt dann ein neues ASUS ROG Board mit einem 5900x oder 5950x, damit ich endlich die Farbe vom Netzteil ändern kann :ugly: und ich mein kabelmanagement mit sleeves ersetzen kann und etwas sauberer verlegen (ach und die LED stripes werden noch schön hingemacht)
    5E7FDFCF-58FD-4689-810C-EF0460467994.jpeg
     
    Kyoshiron, Steffko, Copado und 2 anderen gefällt das.
  14. Masterman

    Masterman

    Beiträge:
    18.403
    Zustimmungen:
    8.965
    Microsoft und Steam Overlay habe ich ausgeschaltet, GeForce Experience wollte ich schon gerne behalten.

    Gsync ist korrekt eingestellt, hatte auch blurbusters genutzt :) Habe einfach nicht so das Auge dafür, glaube ich. Aber schaden kann es sicher nicht :D
     
  15. el_barto

    el_barto Supernintendo Chalmers

    Beiträge:
    36.434
    Zustimmungen:
    26.186
    Man sieht ja GSync auch nicht in der Form, dass das Bild besser wird oder so.

    Aber wenn du ohne GSync unter 60 fps gehst (wir nehmen mal einen Monitor an, bei dem 60 Hz das Maximum ist), hast du entweder Tearing (ohne VSync) oder die Bildrate geht direkt auf 30 fps runter (bzw die Frametime für den zu späten Frame verdoppelt sich).
    Bedeutet, dass man ohne VRR direkt ein sehr rucklig wirkendes Bild hat, auch wenn die Framerate eigentlich nur auf 58 sinken müsste.

    Abhilfe ohne VRR kann Triple Buffering schaffen. Da wird dann ein weiterer Pufferframe in den VRAM geschrieben, so dass für jeden Sync Zeitpunkt bei normalem VSync ein fertiger Frame da ist. Das hat aber den Nachteil, dass die Eingabelatenz merkbar höher wird. Je höher die FPS, desto geringer ist dieser Nachteil aber.

    VRR bringt dann halt ein Bild ohne Tearing, egal bei welcher Bildrate, da der Monitor nicht mehr stur 60 Bilder pro Sekunde anzeigt und wenn die GPU nen Frame nicht in dieser festen Taktung fertig hat, gibt's Probleme. Und da ohne nachteilige Krücken wie Triple Buffering.
    Das Bild sieht nicht besser aus, aber wenn ein Spiel keine konstanten 60 fps halten kann, sind kleinere Drops mit GSync quasi nicht bemerkbar.

    Wenn du aber ein Spiel sowieso auf deiner maximal möglichen Bildrate des Monitors spielen kannst, gibt es keinen unterschied zwischen einem bild mit GSync und ohne
     
    Zuletzt bearbeitet: 18. Oktober 2020
  16. kabe

    kabe

    Beiträge:
    550
    Zustimmungen:
    797
    Aktuelle Big Navi Leaks in der Twittergerüchteküche. Alle einsteigen in den Hype Train, bevor er entgleist.





    :staun: :vogel: :schock:

    [​IMG]
     
    Muuhh, XettMan, mushaaleste und 2 anderen gefällt das.
  17. Steffko

    Steffko Erbsenzähler

    Beiträge:
    18.715
    Zustimmungen:
    6.748
    Ich bin gespannt, wie ein Flitzebogen. Vor ein paar Tagen gabs da auch mal Gerüchte, die eher von ner ziemlich monströsen TDP ausgingen - so a la Nvidia :/

    Richtiger Wettbewerb bis in den High End Bereich wäre wirklich wichtig.
     
  18. Bademeister

    Bademeister

    Beiträge:
    315
    Zustimmungen:
    67
    Falls du AC odyssey hast, musst du nur Mal den integrierten Benchmark laufen lassen. Da merkt man den Unterschied sofort.
     
    Masterman gefällt das.
  19. Mutzi

    Mutzi

    Beiträge:
    15.263
    Zustimmungen:
    4.603
    Danke für die Erklärung! Ich habe nämlich auch einen G-Sync Monitor und habe mich immer gefragt, wo da jetzt der sichtbare Vorteil sein soll. Ich spiele in der Regel mit 60 Frames oder je nach Spiel auch mit weniger. Wahrscheinlich ist es dein genannter Vorteil, dass Framedrops mit G-Sync weniger auffallen.

    Meine G-Sync Einstellungen, korrigiere mich, falls sie falsch sind:

    NV-Treiber Settings - Monitor-Technologie: G-Sync
    NV-Treiber Settings - V-Sync: EIN
    Ingame Settings - V-Sync: AUS

    Spiele in 1080p auf einem 144 Hz G-Sync Monitor. Frames variieren je nach Spiel, aber in der Regel habe ich so um die 45 - 70 Frames.
     
  20. el_barto

    el_barto Supernintendo Chalmers

    Beiträge:
    36.434
    Zustimmungen:
    26.186
    V-Sync im Treiber kann auch aus. Du brauchst ja kein V-Sync mehr - das bedeutet ja, dass sich die Grafikkarte mit dem Monitor auf dessen gleichmäßige Bildwiderholrate synchronisiert - aka mit der Frameübertragung wartet, bis der Monitor wieder bereit ist.
    Mit G-Sync wartet ja der Monitor mit dem Auslesen des Framebuffers, bis der Frame beendet ist.

    Der Treiber sollte es zwar erkennen, dass er V-Sync bleiben lässt, wenn ein G-Sync Monitor erkannt wird, aber da kann man die Einstellung auch direkt komplett deaktivieren.

    Das wichtigste ist nur, dass die Ingame-Settings immer V-Sync = off sind, damit nicht irgendeine von der Engine gesteuerte Einschränkung auf 60fps und feste Frametimes reingefeuert wird.
     
    Mutzi und Masterman gefällt das.
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.