Ottimizza TCP/IP per ridurre il ritardo nei giochi

  • La latenza dipende dai parametri TCP/IP quali MTU, MSS, finestra TCP e RTO, oltre che dal percorso fisico e dallo stato della rete.
  • A casa, l'impatto maggiore sul ping deriva dal Wi-Fi, da un router saturo, dai download paralleli e dall'uso di VPN o proxy.
  • La regolazione della qualità del servizio, l'utilizzo di un cavo Ethernet, la scelta di un buon DNS e il controllo dei programmi in background riducono significativamente ritardi e jitter.
  • Sui server e nel cloud, la messa a punto dello stack TCP, utilizzando MTU più grandi, HTTP/2/3 e la memorizzazione nella cache in memoria riduce la latenza e migliora le prestazioni.

Ottimizzare TCP/IP per ridurre il ritardo

Se combatti con lui ogni giorno Lag, balbettii e ping elevatoNon sei solo. Dietro quella brutta esperienza di gioco online, videochiamate o lavoro da remoto, c'è un colpevole molto chiaro: la combinazione della tua rete domestica e la configurazione del protocollo TCP/IP sui tuoi dispositivi e server.

Ottimizza TCP/IP per ridurre il ritardo Non si tratta solo di modificare un paio di impostazioni "magiche". Bisogna capire come funzionano concetti come... MTU, MSS, finestra TCP, latenza o bufferbloatQuindi applica modifiche specifiche al tuo PC, router, rete Wi-Fi e persino server cloud o macchine virtuali. Analizziamolo passo dopo passo, ma con un approccio pratico: scopriamo cos'è ogni elemento e cosa puoi fare per rendere la tua connessione più veloce.

Concetti chiave TCP/IP che influenzano il ritardo

Per sfruttare al meglio la tua connessione, è utile capire alcune cose. parametri TCP/IP di base che influiscono direttamente sul ping, sulla stabilità e sulle prestazioni nei giochi, nelle videochiamate o nell'accesso remoto.

MTU, frammentazione e LSO

La MTU (Unità di trasmissione massima) Questa è la dimensione massima, in byte, del pacchetto che può lasciare un'interfaccia di rete senza essere frammentato. Nella stragrande maggioranza delle reti Ethernet (e nelle macchine virtuali su Azure o Google Cloud), il valore predefinito è 1500 byte, che include intestazioni di rete e dati.

Quando un pacchetto supera tale MTU, il livello IP lo suddivide in frammenti più piccoli. frammentazione IP Ciò comporta un maggiore utilizzo di CPU e memoria, sia sulla macchina che frammenta i dati sia su quella che li riassembla una volta ricevuti. Questo comporta latenza aggiuntiva e perdita di prestazioni, soprattutto in caso di traffico intenso.

Inoltre, c'è il famoso bit “Non frammentare” (DF) nell'intestazione IP. Se abilitato, e un router intermedio riceve un pacchetto più grande del suo MTU, invece di frammentarlo, lo scarta e invia un messaggio ICMP "Fragmentation Needed". Questo viene utilizzato in Rilevamento del percorso MTU (PMTUD)Ma se un firewall blocca i pacchetti ICMP, il mittente continuerà a tentare di inviare pacchetti eccessivamente grandi, causando ritardi e ritrasmissioni.

In ambienti come Azure o Google Cloud, i pacchetti frammentati tendono anche a perdere i vantaggi di reti accelerateSR-IOV e SmartNIC. Vengono elaborati tramite il percorso lento dell'hypervisor, con più nervosismolatenza peggiore e meno pacchetti al secondo. Pertanto, la raccomandazione generale è Evitare la frammentazione regolando correttamente MTU e MSS e non aumentare troppo l'MTU se ci sono firewall o VPN nel mezzo.

D'altra parte, la funzione Grande invio di scarico (LSO) Ciò consente allo stack TCP/IP del sistema operativo di generare "superpacchetti" di grandi dimensioni, che vengono poi frammentati internamente dalla scheda di rete in base all'MTU. Ciò riduce significativamente il carico della CPU, sebbene nelle acquisizioni del traffico si possano vedere frame apparentemente enormi che non indicano una frammentazione sulla rete, ma piuttosto che la frammentazione si verifica all'interno della scheda stessa.

MSS, PMTUD e VPN

El TCP MSS (dimensione massima del segmento) Definisce quanti byte di dati utilizzabili possono essere inseriti in ciascun segmento TCP, escludendo le intestazioni IP e TCP. In genere, i sistemi calcolano l'MSS come segue:

MSS = MTU - (tamaño cabecera IP + tamaño cabecera TCP)

Con un MTU di 1500 e intestazioni IPv4+TCP di 20+20 byte, il tipico MSS è 1460 byteQuesto valore viene negoziato durante l'handshake TCP a tre vie e ciascuna estremità propone il proprio. La connessione utilizza il valore più basso dei due.

Tuttavia, potrebbero esserci dispositivi lungo il percorso (firewall, router, Gateway VPNecc.) con un MTU più piccolo che forza effettivamente una riduzione dell'MSS. È qui che il Individuazione MTU del percorso (PMTUD)Quando un router non riesce a inoltrare un pacchetto perché è troppo grande e ha il bit DF impostato, lo ignora e invia un messaggio ICMP "Fragmentation Needed" che indica l'MTU massimo supportato, in modo che la sorgente ne riduca le dimensioni.

Se questi pacchetti ICMP vengono bloccati, la connessione entra in un ciclo di inoltro e perdita, con conseguente Ritardo, ritrasmissioni e tempi di caricamento infinitiPertanto, non è sempre una buona idea aumentare in modo superficiale l'MTU su computer o macchine virtuali senza controllare l'intero percorso o i criteri del firewall.

Sui social media con VPN IPsec o altri tunnel, le intestazioni aggiuntive riducono lo spazio disponibile per i dati, pertanto si consigliano MTU e MSS più piccoli (ad esempio, MTU 1400 e MSS ~1350 nei tunnel tipici) per evitare la frammentazione del tunnel e i ritardi associati.

Latenza, RTT e finestra TCP

Il famoso “ping” non è altro che il latenza di andata e ritorno (RTT) Tra due punti. A livello fisico, è limitato dalla velocità di propagazione della luce in fibra ottica (circa 200 km al millisecondo) e dal percorso effettivo seguito dai dati. Raramente è una linea retta.

Nel TCP, la massima capacità teorica di una singola connessione è determinata da questa formula di base:

rendimiento máximo ≈ tamaño de ventana TCP / RTT

La finestra TCP Questa è la quantità di dati che un mittente può avere "in transito" senza aver ancora ricevuto un riscontro (ACK). Con una finestra di 65.535 byte e un MSS di 1460, è possibile inviare solo circa 45 pacchetti prima di attendere un ACK. Se l'RTT è elevato (ad esempio, 80-160 ms tra continenti), la finestra non scalata è ben lontana dal sfruttare i collegamenti ad alta capacità.

Per impostazione predefinita, il campo finestra nell'intestazione TCP è di 16 bit, limitando il suo valore massimo a 65.535 byte. Per le reti moderne, questo è ridicolo, quindi anni fa è stato introdotto [informazioni mancanti - probabilmente una funzionalità o un metodo specifico]. Ridimensionamento della finestra TCP, che applica un fattore di moltiplicazione 2^na a quel valore e consente finestre di centinaia di MB o addirittura GB.

Nei sistemi come Windows o Linux, il ridimensionamento delle finestre viene gestito automaticamente con impostazioni predefinite (auto-tuning) e può essere visualizzato o modificato utilizzando comandi come Get-NetTCPSetting o sysctlLivelli più aggressivi (ad esempio "sperimentali") consentono finestre di grandi dimensioni e possono migliorare notevolmente le prestazioni sulle reti a lunga distanza, a patto che non si verifichi una perdita eccessiva di pacchetti.

Reti accelerate, RSS e GRO/TSO

Sulle piattaforme cloud (Azure, Google Cloud, ecc.), le interfacce di rete tradizionali si affidano in larga misura alla CPU host per elaborare ogni pacchetto, applicare regole, incapsulare e decapsulare. Ciò si traduce in un carico brutale sull'hypervisor quando c'è molto traffico e si genera una latenza instabile.

Ecco perché il cosiddetto reti accelerateSi basano su tecnologie come SR-IOV e schede SmartNIC con FPGA. L'idea è che una parte significativa dello stack di rete software-defined venga eseguita sull'hardware della NIC e che il traffico dati possa passare virtualmente direttamente dalla VM alla scheda, bypassando lo switch virtuale dell'host.

Ciò fornisce diversi vantaggio:

  • Meno latenza, più PPS.
  • Meno jitter
  • Minore consumo di CPU sull'host e nella macchina virtuale.

Tuttavia, ci sono dettagli importanti. Ad esempio, molti sistemi di rete accelerati non elaborano i pacchetti frammentati tramite la rotta veloce; se è presente frammentazione IP, il traffico viene instradato tramite la rotta lenta, con conseguente impatto sulle prestazioni.

Per quanto riguarda il sistema operativo guest, è fondamentale avere tecnologie come abilitate. Ricevi ridimensionamento laterale (RSS)che distribuisce l'elaborazione dei pacchetti in arrivo su più core della CPU e scarica la segmentazione e l'aggregazione come TSO (Transmit Segmentation Offload) e GRO/LRO (Generic Receive Offload)che riducono il numero di pacchetti che la CPU deve gestire direttamente.

TIME_WAIT e riutilizzo del socket

Un altro fattore di prestazione TCP meno noto ma importante è lo stato TEMPO_ATTESAQuando una connessione TCP viene chiusa normalmente, l'endpoint che invia l'ultimo ACK entra in TIME_WAIT per decine o addirittura centinaia di secondi. Durante questo periodo, il sistema mantiene il socket riservato per garantire che i pacchetti ritardati provenienti dalla vecchia connessione non ricompaiano e non vengano confusi con una nuova sessione.

Su server o macchine molto utilizzati, è facile accumulare migliaia o decine di migliaia di socket in TIME_WAITCiò può esaurire l'intervallo di porte effimere e causare errori durante l'apertura di nuove connessioni. Pertanto, molti sistemi consentono di regolare sia la durata di TIME_WAIT che l'intervallo di porte, nonché alcune policy di riutilizzo.

Una tecnica più aggressiva, supportata da alcuni kernel (ad esempio, Windows Server su Azure), è chiamata TIME_WAIT assassinioSe arriva un nuovo SYN con un numero di sequenza significativamente superiore a quello della vecchia connessione, il sistema può forzare la chiusura del socket durante TIME_WAIT e accettare immediatamente la nuova connessione. Questo aumenta la scalabilità, ma se configurato in modo errato, può causare problemi di interoperabilità con alcuni stack TCP più conservativi.

ping

Perché il ping è così importante nella tua vita quotidiana

Al di là della teoria, la latenza ha un impatto diretto su quasi tutto ciò che facciamo online oggi. Non basta semplicemente "avere 600 Mbps"; se la risposta è lenta, l'esperienza ne risente. Esaminiamo alcuni casi in cui... Un ping "decente" fa tutta la differenza.

Giochi online e livelli di ping "giocabili"

Nei giochi competitivi, ogni millisecondo conta. ping inferiore a 20 ms È praticamente l'ideale: le azioni vengono registrate quasi in tempo reale e il ritardo è praticamente inesistente. Tra 20 e 50 ms, l'esperienza rimane molto buona. Salendo a 50-100 ms, si potrebbe notare una leggera desincronizzazione, soprattutto se si gioca su server distanti.

Dal ms 100-300 Iniziano i problemi seri: colpi che arrivano in ritardo, movimenti che si vedono con un certo ritardo, auto che "rimbalzano" in un gioco di corse, ecc. Oltre i 300 ms, il gioco diventa più una tortura che altro, soprattutto negli sparatutto, nei giochi di corse o nei giochi sportivi.

Anche il tipo di gioco ha una grande influenza. Giochi FPS e di corse È praticamente obbligatorio avere meno di 50 ms per competere; nei titoli sportivi online, è anche auspicabile rimanere sotto i 30-40 ms. Tuttavia, in MMO o giochi di strategia a turniÈ possibile "sopravvivere" con ping di 150-200 ms senza interrompere il gameplay, anche se l'esperienza non sarà mai fluida come quella di un tempo. Se giochi su Windows, potresti essere interessato a scoprire come. Ridurre l'input lag in Windows 11 per migliorare la risposta nei giochi competitivi.

Videochiamate, condivisione dello schermo e chiamate VoIP

Nelle videochiamate con Zoom, Teams, Skype o piattaforme simili, anche il ping è fondamentale. Idealmente, dovrebbe aggirarsi intorno a... ms 20-40dove la conversazione scorre in modo naturale, senza sovrapposizioni. La maggior parte degli utenti tollera fino a circa 100 ms, sebbene lievi ritardi siano già percepibili durante la conversazione.

Quando il ping supera ms 100Inizi a interrompere involontariamente l'altra persona. Le risposte arrivano con un "eco" temporaneo e i silenzi imbarazzanti diventano frequenti. Se, inoltre, la connessione ha una larghezza di banda limitata o il Wi-Fi è debole, si aggiungono al problema anche le interruzioni video e audio.

Con condivisione dello schermo o controllo remoto L'effetto è simile. Ogni clic e ogni movimento del mouse impiegano tempo per essere registrati sullo schermo remoto. Con ping elevati, il computer sembra lento. Questo è incredibilmente frustrante per chiunque cerchi di lavorare in modo produttivo.

Internet delle cose, domotica e telelavoro

Nell'ecosistema di IoT e dispositivi intelligenti (altoparlanti, lampadine, telecamere, prese, robot, mangiatoie per animali domestici, ecc.), anche la latenza gioca un ruolo chiave. Mentre accendere una luce con un ritardo di 500 ms non è un problema, quando si concatenano più azioni o si interagisce con la voce (Alexa, Google Assistant), il ritardo diventa molto evidente.

Quando si lavora da remoto, accedere a desktop, server o applicazioni cloud remoti con ritardi costanti rende qualsiasi attività noiosa. Molti pensano che sia una "mancanza di velocità", quando in realtà ciò che hanno è un latenza elevata e/o altamente variabile (jitter) causati da Wi-Fi saturi, router bloccati o percorsi errati verso il server.

Latenza e sicurezza: impatto indiretto

L'elevata latenza di per sé non implica un rischio diretto per la sicurezzaTuttavia, può avere effetti collaterali. Se i sistemi di monitoraggio, gli IDS o i firewall ricevono informazioni troppo tardi, potrebbero reagire in ritardo a un attacco o addirittura perdere di vista eventi critici.

Inoltre, quando gli utenti sono disperati a causa del ritardo, tendono a "aggirare" i controlli di sicurezza: Disattivano il firewall, disinstallano l'antivirus o aprono le porte a casaccio. sul router per cercare di renderlo "più veloce". È qui che una brutta esperienza di rete può finire per aprire porte inutili a minacce reali.

Principali cause di elevata latenza nelle reti domestiche

Il ping che vedi in un gioco o in un test di velocità è la somma di molti fattori: operatore, percorso internet, server di destinazione... ma a casa ci sono un buon numero di problemi tipici che puoi controllare da solo.

Scarsa copertura WiFi e interferenze

La maggior parte di noi ormai si connette quasi esclusivamente tramite Wi-Fi, ed è qui che iniziano i problemi. Uno segnale debole o pieno di interferenze Non solo riduce la velocità, ma aumenta anche la latenza e il jitter perché i dispositivi devono ritrasmettere i pacchetti, ridurre la modulazione, attendere che il canale si liberi, ecc.

Se ci si trova lontano dal router, dietro più muri o circondati da reti vicine sullo stesso canale, il ping ne risentirà. Inoltre, più client sono connessi a un access point, più lungo sarà il tempo di attesa affinché ciascuno "faccia il suo turno" per comunicare. E i client lenti hanno un impatto negativo sugli altri. Scopri quanti dispositivi sono connessi alla tua rete WiFi per identificare i clienti problematici.

Funzionalità come queste sono molto utili qui Equità del tempo di trasmissioneche distribuiscono il traffico dati tra i dispositivi in ​​modo che quelli più lenti non monopolizzino la radio. Tuttavia, quando possibile, per giocare e lavorare da una linea fissa, usate [l'alternativa]. cavo Ethernet e lascia il WiFi a tutti gli altri.

Router obsoleto o sovraccarico

Un vecchio router con firmware obsoleto o hardware molto basilare può diventare un collo di bottiglia significativo. Quando il processore del router è sovraccarico nella gestione di NAT, firewall, QoS e traffico P2P, ritardo della coda e bufferbloatI pacchetti si accumulano in un buffer gigante e vengono inviati con un ritardo significativo, rovinando il ping.

Aggiorna il firmware, disattiva le funzioni non necessarie e, se necessario, chiedi al tuo operatore un dispositivo sostitutivo o acquistane uno nuovo. il router neutro più potente Spesso segna un punto di svolta. È anche una buona idea riavviarlo di tanto in tanto per cancellare gli stati di memoria e le potenziali perdite.

Download e altri dispositivi che consumano larghezza di banda

Se la tua rete ha diversi dispositivi che scaricano molto (P2P, aggiornamenti, streaming 4K, backup su cloud), è normale che i tuoi picchi di pingIl problema non è tanto che "i megabyte finiscono", ma come il router gestisce le code in uscita.

La soluzione prevede due percorsi:

  • Da un lato, controllare meglio cosa viene scaricato in background (PC, cellulari, console, NAS…).
  • D'altra parte, attivare e regolare correttamente il QoS e anti-bufferbloat dal router in modo che il traffico interattivo (giochi, VoIP, videochiamate) abbia la priorità sui download di massa.

VPN, proxy, firewall e programmi in background

Le VPN Sono molto utili per crittografare il traffico o aggirare le restrizioni geografiche, ma quasi sempre aggiungono latenza perché la connessione passa attraverso un server intermedio. Se la VPN è gratuita o di scarsa qualità, può essere addirittura letale per il ping. Lo stesso vale per alcuni... proxy.

Anche i firewall, sia sul PC che sul router, aggiungono latenza ispezionando ogni pacchetto e, se configurati in modo errato, possono rallentare eccessivamente la connessione. A questo si aggiunge... processi in background (aggiornamenti di Windows, client cloud, patch di download dei giochi, ecc.) che monopolizzano la larghezza di banda senza che tu te ne accorga.

Malware e dispositivi compromessi

Un computer infetto da malware può generare traffico nascosto (spam, attacchi DDoS, mining, download di dati) o consumare molte risorse della CPU e del disco, influenzando la qualità della connessione. Se noti che Tutto è lento e il ping aumenta senza un motivo apparente.Si consiglia di eseguire una scansione approfondita con un programma antivirus affidabile su tutti i dispositivi. Inoltre, si consiglia di seguire le best practice per mantenere un'infrastruttura di rete sana ed evitare apparecchiature compromesse.

winmtr

Strumenti per misurare la latenza e rilevare i problemi

Prima di apportare modifiche, è essenziale effettuare misurazioni accurate. Non affidarti esclusivamente allo speed test del tuo browser: esistono strumenti specifici che possono aiutarti a individuare dove il ping sta aumentando vertiginosamente e se il problema risiede nella tua rete locale, nel tuo provider di servizi Internet o nel server di destinazione.

Ping e traceroute di base

Utilità pingPresente in tutti i sistemi operativi, questo è il punto di partenza. Con un semplice ping 8.8.8.8 (Ad esempio) puoi visualizzare la latenza media, minima e massima verso una destinazione specifica e se si è verificata una perdita di pacchetti. Se esegui il ping del gateway del router, ottieni la latenza della tua rete locale.

Se aggiungi un -t su Windows (ping 8.8.8.8 -tPuoi lasciarlo funzionare per vedere se ci sono picchi, cali o jitter. E con traceroute/tracert Controlli quali hop attraversano i tuoi pacchetti e in quale punto la latenza inizia ad aumentare in modo sospetto.

Strumenti avanzati: WinMTR, PingPlotter e altri

Programmi come WinMTR Combinano traceroute e ping continuo, mostrando la percentuale di perdita di segnale e i tempi di risposta minimo, medio e massimo per ogni salto. Sono molto utili per identificare se il problema risiede nel primo salto del tuo ISP, in un backbone intermedio o nel server di gioco stesso.

Altre utilità come Visualizzazione di latenza di rete (NirSoft) misura la latenza effettiva delle connessioni TCP aperte dal tuo PC. Esistono anche suite come Strumenti NetScan Include ping grafico, scanner di porte, traceroute e DNS. Tutto in uno.

Misura il ping su dispositivi mobili: app per Android e iOS

Su smartphone e tablet è possibile misurare la latenza anche tramite app come Fing, He.net Strumenti di rete, NetX o strumenti ping specifici su iOS. Sono perfetti per verificare se il problema riguarda il Wi-Fi di una stanza specifica, la rete mobile o se la qualità del segnale della linea fissa stessa è scarsa.

Ottimizzazione TCP/IP avanzata su server e cloud

Se gestisci server, macchine virtuali cloud o progetti web impegnativi, ci sono molti altri parametri TCP/IP e kernel che puoi modificare. ridurre la latenza e aumentare le prestazioni. Soprattutto sulle reti ad alta velocità.

Impostazioni del kernel e dello stack TCP in Linux

Su Linux, utilizzando sysctl e strumenti come tc o ethtool È possibile applicare ottimizzazioni avanzate quali:

  • Abbassare l'RTO minimo (net.ipv4.tcp_rto_min_us) a valori sicuri come 5000 µs (5 ms) su reti interne a bassa latenza. Per recuperare più velocemente dalla perdita di pacchetti.
  • attivare Fair Queuing (FQ) con tc qdisc replace dev <iface> root fq. Per distribuire meglio la larghezza di banda tra i flussi ed evitare burst eccessivi da una singola connessione.
  • disattivare avvio lento dopo inattività (net.ipv4.tcp_slow_start_after_idle=0) sui server che utilizzano connessioni persistenti. In modo che non ripartano da una larghezza di banda ridicolmente bassa ogni volta che si riattivano dalla modalità di sospensione.
  • Disattiva la parte problematica di HyStart (Rilevamento del treno ACK) in Cubic TCP. Per impedire che falsi positivi di congestione rallentino la crescita della finestra.
  • Aumentare il Buffer TCP (tcp_rmem, tcp_wmem, rmem_max, wmem_max). per poter sostenere un throughput elevato su collegamenti con RTT elevato, impedendo ai socket di esaurire la memoria.
  • Limite tcp_notsent_lowat Ciò impedisce che troppi dati non inviati si accumulino nel kernel, proteggendo così il sistema da un consumo eccessivo di memoria.
  • permettere hardware GRO/LRO su schede di rete compatibili (ethtool -K <iface> rx-gro-hw on) . Per raggruppare i pacchetti e ridurre il carico della CPU per interruzione.

grandi MTU e reti ad alte prestazioni

Nelle reti cloud interne (ad esempio, Google Cloud VPC) in cui viene fornito supporto MTU jumbo fino a ~8900 byteSi consiglia vivamente di aumentare l'MTU (ad esempio a circa 4082 byte, compatibili con pagine di memoria da 4 KB) per ridurre il numero di pacchetti elaborati al secondo e migliorare l'efficienza della CPU.

Tuttavia, bisogna fare attenzione al traffico in uscita verso Internet o che passa attraverso le VPN: in tal caso, è meglio mantenere un MTU standard di 1500 o regolarlo per percorso (ip route change con mtu y advmss) in modo che le comunicazioni esterne non subiscano frammentazione o perdite dovute a pacchetti eccessivamente grandi.

Server Web, HTTP/2/3 e memorizzazione nella cache

Sui server web (Nginx, Apache, ecc.), oltre a ottimizzare TCP, è possibile ridurre notevolmente la latenza percepita abilitando HTTP/2 e HTTP/3 (QUIC)che consentono di multiplexare più richieste su una singola connessione e di ridurre il costo degli handshake.

Abilitazione Compressione GZIP o Brotliuso cache in memoria (Redis, Memcached), minimizzare CSS/JS e servire contenuti statici tramite un CDN con punti di presenza nelle vicinanze all'utente. Ogni millisecondo risparmiato in TTFB (Time To First Byte) e RTT di rete si traduce in un sito che risponde "più velocemente" agli occhi del visitatore.

Monitoraggio continuo e metriche di latenza

Infine, se prendi sul serio le prestazioni, devi misurarle continuamente. Strumenti come ApacheBench, wrk, JMeter o suite di osservabilità (Prometheus + Grafana, New Relic, Datadog…) consentono di monitorare RTT, TTFB, percentili di latenza, produttività e tasso di errore sotto carico.

L'impostazione di avvisi quando il TTFB supera determinate soglie, quando il ping interno tra i servizi registra picchi o quando aumenta la perdita di pacchetti aiuta a rilevare in modo proattivo problemi di rete, saturazione della CPU, modifiche di percorso o colli di bottiglia prima che il ritardo raggiunga l'utente finale.

Con tutti questi concetti e impostazioni sul tavolo, da MTU e MSS a QoS del router, reti cloud accelerate e configurazione del server web, è chiaro che il lag non è il risultato di un singolo fattore magico. È la somma di molti componenti di rete e del TCP/IP stesso che, se correttamente sintonizzati, consentono a giochi, videochiamate, lavoro da remoto e siti web di rispondere con quella reattività. sensazione di immediatezza che tutti noi cerchiamo e che spesso si ottiene più adattando e comprendendo la rete che semplicemente contraendo "più megabyte".

Come configurare una rete Ethernet in Windows passo dopo passo
Articolo correlato:
Come configurare una rete Ethernet in Windows passo dopo passo