Zitat:
Zitat von Rudi-Brudi Japp, sowas ist geplant. Hab's letztens im Reddit gelesen. Da kam auch die Frage auf.
@ARK: hmm...nee sowas nicht, aber die orangenen Icons haben ja die weißen ersetzt.
Und ja, auf Servern mit erhöhter Tickrate hat auch dein PC mehr zu rechnen, was wiederum in niedrigeren FPS niederschlägt. Da muss man leider irgendwas runterschrauben... |
Hm, ich bin mir da nicht so sicher. Der zusätzliche Rechenaufwandt wird erst einmal hauptsächlich auf dem Server stattfinden.
Ich bin bis jetzt kein Experte in der Netzwerkentwicklung von Spielen, aber ich vermute, dass sich die höhere Tickrate nicht zwangsläufig in einer schlechteren Performance für die Clients niederschlagen muss.
Prinzipiell müsste es ja so funktionieren: Der Server sendet dem Client Daten über die Positionen, Geschehnisse, Zustand der Gebäude, fliegende Projektile und so weiter. Daran dürfte dann das Geschehen der Spieler auf dem Bildschirm angepasst werden. Die Zeit zwischen den einzelnen gesendeten Paketen müsste der Client demnach ungefähr nachberechnen bzw simulieren. (Andernfalls würde das Spiel sich sehr schräg anfühlen
)
Jetzt besteht die Frage, was ein größerer Rechenaufwandt ist. Da die Programmierung halbwegs schlau sein dürfte, wird bei einem neuen Datenpaket immer nur die Veränderung aktualisiert. Rein aus dem Gefühl heraus, sehe ich momentan eine Aktualisierung der Veränderungen als weniger rechenaufwendig als sozusagen das mathematische Schätzen der Geschehnisse bis zum nächsten Tick. Dann hieße es also, wenn ich mehr Datenpakete im gleichen Zeitraum bekomme, muss der Client im gleichen Zeitraum nur noch eine kürzere Zeit simulieren. ( Das reduziert einerseits natürlich Laggs und Unstimmigkeiten und würde bei meiner jetzigen Theorie die Performance entweder nicht anpatschen oder sogar verbessern) Da der Client aber nun auch mehr Datenpakete in kürzerer Zeit verarbeiten muss, wird der Rechenaufwandt bei der Verarbeitung etwas höher. Ich schätze mal das das bei der Performance nahezu ein 0-0-Geschäft wird.
Was wirklich zutrifft kann ich ohne zusätzliche Recherche nicht sagen. Sagen wir mal so, ich hatte noch nicht das Vergnügen in der Netzwerkentwicklung eines Spiels zu sitzen
edit: Vlt beleuchte ich den Zusammenhang aber auch gerade falsch. Sagen wir meine Hardware bringt konstant 60fps zustande und wir haben eine 60hz tickrate. Dann sollte ich ja 60 Pakete pro Sekunde losgesendet bekommen, die sich dann mit der Ping-Verzögerung von sagen wir 40 Millisekunden auf den Weg machen. Wenn ich jetzt einen Drop auf 40 Fps haben sollte, bringen mir dann evtl. die 60 Datenpakete gar nichts mehr, da ich ja nur 40 Frames mit unterschiedlicher Veränderung bei 60 Paketen in der Sekunde darstellen kann. Hmpf. So tief stecke ich da aber noch nicht drin. Es kann daher sein, dass ich Fehler mache