12 Gennaio 2024

Comprendere la logica di Varnish Cache

Guida alla comprensione avanzata della logica Varnish Cache e del suo impatto sulla performance del sito web.

Varnish Cache, un avanzato reverse proxy HTTP, è progettato per massimizzare la velocità dei siti web. Collocandosi strategicamente tra il client e il server, Varnish non solo riduce notevolmente il Time To First Byte (TTFB) e alleggerisce il carico sul server backend, ma sfrutta anche il suo sofisticato meccanismo di caching per gestire efficacemente sia i contenuti statici che quelli dinamici. Questo approccio al caching non solo accelera il caricamento delle pagine per gli utenti finali, ma contribuisce significativamente alla scalabilità dell’infrastruttura del server, rendendo la gestione di picchi di traffico inaspettati un compito più gestibile.

Un aspetto fondamentale di Varnish è il suo linguaggio di configurazione proprietario, il Varnish Configuration Language (VCL). Il VCL offre una flessibilità senza precedenti, permettendo una personalizzazione dettagliata delle politiche di caching e delle regole di gestione del traffico. Per utilizzare efficacemente Varnish e sfruttarne appieno le potenzialità, è essenziale comprendere non solo la logica sottostante di Varnish, ma anche il flusso dei dati attraverso le sue diverse subroutine. Questa comprensione approfondita del VCL e della logica di Varnish è cruciale per ottimizzare le prestazioni di un sito web e realizzare configurazioni che rispondano in modo specifico alle esigenze aziendali. La nostra analisi seguente mira a esplorare dettagliatamente questo flusso di lavoro e le subroutine di Varnish, enfatizzando il contributo di ogni fase nel potenziare le prestazioni e l’efficienza complessive.varnish-finite-state-machine

Fase 1: Elaborazione Iniziale e Determinazione della Cacheabilità.

In questa sezione, esploreremo la Fase 1 del processo di Varnish Cache, un punto critico che determina il trattamento delle richieste HTTP in entrata. Conosciuta come la “Elaborazione Iniziale e Determinazione della Cacheabilità”, questa è la fase dove le decisioni chiave relative alla gestione del caching vengono prese. Vedremo come Varnish esegue i controlli iniziali per valutare se una richiesta può essere servita dalla cache, ottimizzando così la consegna del contenuto e riducendo il carico sul server backend. Analizzeremo inoltre la sofisticazione con cui Varnish gestisce i cookie, l’autenticazione degli utenti e l’analisi degli header HTTP per determinare la strategia di caching più efficace.

vcl_recv : Ricezione e Valutazione Preliminare delle Richieste

All’arrivo di una richiesta HTTP, Varnish la ingloba nel suo ciclo di vita iniziale tramite la subroutine vcl_recv. Questo è il punto critico dove si prendono decisioni fondamentali che influenzeranno tutto il percorso successivo della richiesta. In questa fase, il Varnish Configuration Language (VCL) permette agli amministratori di sistema di scrivere regole complesse e altamente configurabili che esaminano ogni aspetto della richiesta entrante.

Questa subroutine è responsabile per un’ampia gamma di controlli:

  • Controllo dei Cookie: Varnish può ispezionare i cookie della richiesta per decidere se una richiesta è personale e quindi non cacheabile, oppure se può essere ignorata per favorire il caching.
  • Autenticazione e Autorizzazione: Verifica l’identità e i permessi dell’utente. Se una risorsa richiede autenticazione o ha restrizioni di accesso, Varnish può passare la richiesta direttamente al backend senza caching.
  • Analisi degli Header: Gli header HTTP vengono esaminati per determinare se la richiesta rispetta i criteri di caching definiti. Ad esempio, header come Cache-Control: no-cache possono indicare che la risposta non deve essere memorizzata in cache.
  • Gestione della Politica di Caching: Impostazioni personalizzate possono essere scritte per gestire scenari specifici, come il bypass della cache in base a parametri di query, metodi HTTP o altri criteri aziendali.

vcl_hash : Calcolo dell’Hash e Corrispondenza con la Cache

Dopo la valutazione iniziale in vcl_recv, la richiesta procede alla subroutine vcl_hash. Qui, Varnish svolge un compito critico nel processo di caching: il calcolo di un hash univoco per ogni richiesta. Questo hash è fondamentale perché consente a Varnish di identificare in modo efficiente se una versione memorizzata in cache della risposta è già presente, permettendo così una consegna rapida senza dover interrogare il server backend.

Il calcolo dell’hash è influenzato da fattori come:

  • URL della Richiesta: Il componente principale dell’hash è l’URL, che garantisce che le richieste per la stessa risorsa siano raggruppate insieme.
  • Header della Richiesta: Gli header HTTP possono influenzare il caching. Ad esempio, le variazioni nelle lingue accettate o nei tipi di contenuto richiesti possono richiedere versioni separate nella cache.
  • Personalizzazione: Gli amministratori possono influenzare il calcolo dell’hash aggiungendo o escludendo specifici header o parametri, permettendo così un controllo granulare sulle decisioni di caching.

Il risultato di vcl_hash è un identificatore che Varnish utilizza per cercare rapidamente tra le sue memorie cache. Se trova una corrispondenza, segue il percorso di consegna della cache; in caso contrario, procede con la richiesta al backend. La capacità di Varnish di eseguire questa operazione in modo estremamente veloce è ciò che consente di ridurre drasticamente il TTFB e di offrire miglioramenti significativi nella velocità di risposta per gli utenti finali.

Fase 2: Risoluzione delle Richieste nella Cache (Cache Hits e Misses)

In questa sezione, ci addentreremo nella Fase 2 del processo di Varnish Cache, focalizzandoci sulla “Gestione delle Cache Hits e Misses”. Questa fase è fondamentale per il funzionamento di Varnish, poiché qui si determina se una richiesta può essere soddisfatta direttamente dalla cache (un “hit”) o se deve essere inoltrata al server backend (un “miss”). Approfondiremo la logica e le operazioni che si celano dietro la subroutine vcl_hit, dove Varnish decide se una risposta memorizzata in cache può essere servita al client. Esamineremo anche le dinamiche di vcl_miss e la complessa gestione delle situazioni in cui le richieste non corrispondono a una voce esistente in cache. Inoltre, discuteremo il concetto di “Hit-for-Pass”, una funzionalità essenziale per gestire in modo efficiente contenuti dinamici o specifici scenari che richiedono bypassare la cache. Questa fase è cruciale per comprendere come Varnish ottimizza le risorse e fornisce prestazioni elevate, mantenendo un equilibrio tra la velocità di risposta e l’accuratezza del contenuto consegnato.

vcl_hit : Ottimizzazione della Consegna dei Contenuti in Cache

Quando si verifica un “hit” di cache, la subroutine vcl_hit entra in azione. Un hit si manifesta quando l’hash calcolato nella fase di vcl_hash corrisponde a una voce già presente nella cache di Varnish. In questo scenario, la richiesta non necessita di essere inoltrata al server backend, il che si traduce in un miglioramento sostanziale della velocità di consegna del contenuto.

All’interno di vcl_hit, si svolgono operazioni critiche:

  • Verifica della Freschezza: Prima di consegnare il contenuto dalla cache, Varnish controlla la sua “freschezza”, confrontando l’età del contenuto con le direttive di cache come max-age o Expires. Se il contenuto è considerato obsoleto, Varnish può rinnovarlo automaticamente.
  • Logiche Personalizzate: Gli amministratori possono introdurre logiche personalizzate per gestire casi particolari, ad esempio per gestire contenuti che variano in base a sessioni utente o per implementare strategie di invalidamento sofisticate.
  • Controllo del Grace Period: Anche se un contenuto è tecnicamente scaduto, Varnish può servirlo da cache per un breve periodo di “grace” mentre un nuovo contenuto è in fase di recupero, garantendo così la continuità del servizio.

vcl_miss : Gestione delle Richieste Senza Corrispondenza in Cache

Un “miss” di cache accade quando la richiesta non ha una corrispondenza diretta nella cache. vcl_miss è la subroutine che gestisce questi scenari, e le sue funzioni includono:

  • Decisione di Fetching: vcl_miss determina se e come il contenuto deve essere recuperato dal server backend. Questo è il punto in cui si può decidere di memorizzare il contenuto appena recuperato per future richieste, ottimizzando l’uso della cache.
  • Configurazione delle Regole di Caching: Gli amministratori possono configurare regole specifiche che definiscono quali tipi di contenuto devono essere messi in cache e per quanto tempo, personalizzando la politica di caching in base alle esigenze del traffico e del contenuto.

hit-for-pass : Bypassare la Cache quando Necessario

Il meccanismo “hit-for-pass” è una funzionalità avanzata di Varnish che si attiva quando, nonostante la presenza di un hit, il contenuto non dovrebbe essere servito dalla cache. Questo può essere cruciale per:

  • Contenuti Dinamici: Per i contenuti che cambiano frequentemente o sono unici per ogni utente, come i dati di una sessione utente o le informazioni personalizzate, il caching può essere controproducente.
  • Configurazione Dinamica: Varnish permette di configurare dinamicamente queste eccezioni nel VCL, permettendo di ignorare la cache quando i criteri definiti indicano che il contenuto è più efficacemente servito direttamente dal backend.

Fase 3: Implementazione di Azioni Alternative per la Gestione della Cache

In questa fase ci immergeremo nella “Implementazione di Azioni Alternative per la Gestione della Cache”, una fase essenziale per mantenere l’integrità e l’attualità della cache. Qui, esploriamo le subroutine vcl_purge e vcl_ban, che permettono agli amministratori di eseguire azioni di invalidamento della cache in modi diversificati e sofisticati. Approfondiremo come il comando PURGE rimuova specifiche voci dalla cache, mentre BAN consente di invalidare gruppi di voci basati su criteri più ampi. Questa fase sottolinea l’importanza di una gestione efficace e selettiva della cache per assicurare che i contenuti serviti siano sempre aggiornati e pertinenti. Inoltre, esamineremo la subroutine vcl_pipe, utilizzata per bypassare la cache per specifici tipi di contenuto, evidenziando così la flessibilità e l’adattabilità di Varnish nel gestire vari scenari di caching. La Fase 3 è cruciale per comprendere come Varnish gestisce le eccezioni e mantiene prestazioni ottimali anche in condizioni dinamiche.

vcl_purge e BAN: Strategie di Invalidamento Differenziate

In Varnish, la gestione efficace della cache non si limita solo all’archiviazione e alla consegna dei contenuti; è altresì fondamentale poter invalidare i contenuti non più attuali o corretti. La subroutine vcl_purge è progettata per questo scopo: permette di invalidare selettivamente le voci in cache in modo preciso e mirato.

  • PURGE: Il comando PURGE è utilizzato per rimuovere singole voci dalla cache. Quando una risposta memorizzata in cache non è più valida, ad esempio, a causa di una modifica nel contenuto originale, il comando PURGE assicura che questa specifica risposta venga eliminata dalla cache. Questo metodo è ottimale per l’invalidamento di singoli oggetti e viene tipicamente invocato attraverso richieste HTTP con metodo PURGE.
  • BAN: Al contrario, BAN è un comando che permette di invalidare un ampio insieme di voci in cache basandosi su espressioni regolari o altri criteri complessi. Con BAN, è possibile specificare pattern che corrispondono agli header delle risposte o ad altri attributi, eliminando così in blocco tutte le voci di cache che corrispondono ai criteri. Questo è particolarmente utile quando è necessario invalidare cache multiple che condividono un attributo comune, come un tag di sezione o un tipo di contenuto.

La scelta tra PURGE e BAN dipende dalla necessità specifica: PURGE quando si deve agire su una singola risorsa, BAN per una strategia di invalidamento più ampia e potente.

vcl_pipe: Bypass della Cache per Contenuti Specifici

La subroutine vcl_pipe rappresenta una scelta strategica per quei contenuti che, per loro natura, non traggono vantaggio dal caching. Ecco alcuni scenari chiave per l’uso di vcl_pipe:

  • Contenuti Non Cacheabili: Alcuni tipi di interazioni, come le transazioni crittografate o i flussi di dati in tempo reale, non sono adatti al caching. vcl_pipe consente di instradare queste richieste direttamente al backend senza passare attraverso la logica di cache.
  • Gestione del Traffico in Tempo Reale: Per le richieste che richiedono aggiornamenti istantanei o dati live, come le quotazioni di borsa o le chat interattive, vcl_pipe garantisce che i dati vengano recuperati direttamente dalla fonte originale.

In sintesi, vcl_purge e vcl_ban forniscono agli amministratori di sistema gli strumenti necessari per mantenere la cache aggiornata e rilevante, mentre vcl_pipe offre una soluzione efficace per gestire le eccezioni che non si adattano al modello di caching.

Fase 4: Dinamiche di Comunicazione e Gestione delle Risposte del Backend

In questa fase ci concentreremo sull'”Interazione con il Backend (Backend Workthread)”, una componente chiave per la gestione delle richieste che non possono essere soddisfatte dalla cache. In questa fase, approfondiremo la subroutine vcl_backend_fetch, dove Varnish stabilisce una connessione con il server backend per recuperare i dati richiesti. Esamineremo come vengono gestiti aspetti cruciali quali la configurazione dei timeout, il mantenimento delle connessioni keep-alive e la manipolazione degli header di richiesta per ottimizzare l’interazione con il backend. Inoltre, discuteremo il ruolo di vcl_backend_response, che determina se e come le risposte dal backend possono essere messe in cache, valutando gli header di risposta come Cache-Control e Expires. Questa fase è anche dove si affrontano gli errori nel recupero dei dati, con vcl_backend_error che entra in gioco per gestire situazioni impreviste, offrendo risposte di fallback o tentativi di recupero. La comprensione di questa fase è fondamentale per apprezzare come Varnish ottimizza le interazioni con il backend, garantendo prestazioni elevate e una gestione efficiente delle richieste.

vcl_backend_fetch: Ottimizzazione del Recupero dei Dati

La subroutine vcl_backend_fetch è il cuore dell’interazione di Varnish con il server backend. In questo stadio, Varnish inizia una connessione attiva con il backend per recuperare le risorse richieste da una richiesta “miss”. La configurazione di questa fase è cruciale e include diversi aspetti tecnici:

  • Gestione dei Timeout: È possibile impostare specifici timeout per le connessioni al backend, evitando così tempi di attesa prolungati che potrebbero impattare negativamente l’esperienza dell’utente.
  • Connessioni Keep-Alive: Mantenendo le connessioni con il backend aperte (keep-alive), si riduce il sovraccarico associato all’apertura di nuove connessioni per ogni richiesta, migliorando l’efficienza.
  • Impostazione degli Header di Richiesta: Gli amministratori possono manipolare gli header di richiesta inviati al backend per controllare la negoziazione del contenuto e altre politiche di caching del backend.

vcl_backend_response : Valutazione e Caching delle Risposte

Dopo aver ricevuto la risposta dal backend, vcl_backend_response entra in azione per valutare e processare la risposta. Questa subroutine ha il compito di analizzare la risposta e decidere il suo destino in relazione alla cache:

  • Analisi degli Header di Risposta: Gli header come Cache-Control e Expires sono essenziali in questa fase perché informano Varnish sulla cacheabilità della risposta. Una configurazione dettagliata in questa fase permette di rispettare le politiche di caching del backend e di assicurare la coerenza dei dati.
  • Regole di Caching Personalizzate: Gli amministratori hanno la possibilità di sovrascrivere o integrare le logiche di caching del backend con regole personalizzate per adattare il comportamento di caching alle esigenze specifiche del loro sistema.

vcl_backend_error : Gestione degli Errori di Comunicazione con il Backend

Non sempre l’interazione con il backend va a buon fine. Quando si verifica un errore durante il recupero dei dati, la subroutine vcl_backend_error è progettata per gestire questi eventi imprevisti:

  • Implementazione di Risposte di Fallback: In caso di errore, Varnish può fornire una risposta di fallback preconfigurata, come una pagina di errore personalizzata o un messaggio di manutenzione.
  • Tentativi di Recupero: La configurazione può includere la logica per riprovare automaticamente la richiesta, potenzialmente a un backend alternativo, per garantire la resilienza del servizio.

Attraverso questi meccanismi, Varnish assicura che ogni interazione con il backend sia gestita con la massima efficienza e che eventuali problemi siano affrontati con soluzioni che mantengono alta la qualità del servizio agli utenti finali. La fase di backend è fondamentale perché supporta la robustezza e la scalabilità dell’infrastruttura di caching, consentendo a Varnish di servire contenuti freschi e aggiornati mantenendo tempi di risposta rapidi e una buona esperienza utente.

Fase 5: Finalizzazione e Ottimizzazione della Consegna del Contenuto

In questa fase esploreremo la “Consegna del Contenuto”, un momento decisivo in cui le risposte, sia che provengano dalla cache o direttamente dal backend, vengono finalmente inviate al client. In questa parte ci focalizzeremo sulla subroutine vcl_deliver, dove Varnish effettua le ultime modifiche e ottimizzazioni prima della consegna effettiva. Questo include l’adattamento degli header di risposta, l’eventuale compressione del contenuto per migliorarne la trasmissione, e l’implementazione di logiche personalizzate per ottimizzare l’esperienza dell’utente finale. La Fase 5 è cruciale per garantire che il contenuto consegnato sia non solo veloce da caricare, ma anche sicuro e in linea con le aspettative dell’utente. Questa sezione mette in luce l’importanza della fase finale del processo di caching, dove si concretizza l’efficacia di Varnish nel migliorare le prestazioni generali e l’usabilità dei siti web.

vcl_deliver : Rifinitura e Presentazione della Risposta

La subroutine vcl_deliver rappresenta l’ultima tappa nel viaggio di una richiesta all’interno di Varnish. È in questa fase che la risposta, che sia stata recuperata dalla cache o fresca dal backend, viene affinata e preparata per la consegna finale al client. vcl_deliver è il punto in cui si possono effettuare le seguenti azioni essenziali:

  • Modifica degli Header di Risposta: Prima che la risposta venga inviata, si possono rimuovere o aggiungere header per rispettare le best practices di sicurezza, privacy o semplicemente per adattare l’header alla politica di caching.
  • Ottimizzazione del Contenuto: In alcuni casi, è possibile comprimere ulteriormente i contenuti o eseguire altre forme di ottimizzazione per ridurre il tempo di caricamento sul lato client.
  • Logging Personalizzato: Questo è anche il momento per implementare il logging personalizzato delle richieste, che può fornire insights preziosi per l’analisi delle prestazioni e l’ottimizzazione.
  • Controllo Finale della Cacheabilità: Anche se una risposta è stata precedentemente memorizzata in cache o appena recuperata, vcl_deliver permette di effettuare un’ultima verifica della sua cacheabilità prima di lasciarla uscire da Varnish.

Impatto sulla Performance e sulla User Experience

La fase di vcl_deliver è cruciale non solo per garantire che il contenuto venga servito in modo ottimale, ma anche per assicurare che l’esperienza dell’utente sia conforme alle aspettative di performance. Poiché è l’ultimo punto di controllo prima che la risposta raggiunga il browser dell’utente, ogni ottimizzazione in questa fase può avere un impatto significativo sui tempi di caricamento percepiti dall’utente.

Attraverso la configurazione meticolosa di vcl_deliver, gli amministratori possono influenzare l’impressione finale che gli utenti hanno del sito, sia in termini di velocità che di qualità del contenuto consegnato.

Fase 6: Elaborazione delle Risposte Sintetiche e dei Messaggi di Errore

In questa fase ci addentriamo nella “Gestione degli Errori e delle Risposte Sintetiche”, un aspetto fondamentale per garantire una gestione fluida e professionale delle situazioni anomale. In questa fase, l’attenzione è rivolta alla subroutine vcl_synth, che viene invocata quando si verifica la necessità di generare risposte sintetiche, come pagine di errore o messaggi di avviso. Questa fase è cruciale nel fornire agli utenti finali informazioni chiare e utili in caso di errori o interruzioni del servizio, mantenendo un elevato livello di comunicazione e trasparenza. Esamineremo come vcl_synth permetta agli amministratori di personalizzare completamente queste risposte, garantendo che siano in linea con il branding e le politiche del sito. La gestione efficace degli errori e la capacità di reagire a situazioni impreviste con risposte appropriate sono elementi chiave per mantenere l’affidabilità e la fiducia degli utenti, rendendo questa fase un pilastro fondamentale nella strategia complessiva di caching di Varnish.

vcl_synth : Creazione di Contenuti di Sistema e Gestione delle Eccezioni

La subroutine vcl_synth svolge un ruolo cruciale nella gestione delle situazioni in cui Varnish non può fornire una risposta valida attraverso i normali canali di caching o dal backend. Questo stadio del processo è dedicato alla generazione di risposte sintetiche, che sono contenuti generati dinamicamente da Varnish stesso in risposta a errori o eventi particolari. Le funzionalità principali includono:

  • Generazione di Pagine di Errore Personalizzate: Quando una richiesta non può essere soddisfatta, anziché mostrare una generica pagina di errore, vcl_synth permette di presentare una pagina di errore personalizzata che può essere progettata per mantenere la coerenza con il branding del sito e fornire indicazioni utili agli utenti.
  • Messaggi di Avviso e Manutenzione: In caso di manutenzione programmata o imprevisti tecnici, vcl_synth può essere configurata per fornire messaggi chiari e informativi, garantendo che gli utenti siano consapevoli della situazione attuale.
  • Trattamento delle Eccezioni: Questa fase permette anche di gestire casi eccezionali come richieste malformate o comportamenti inaspettati degli utenti, offrendo una risposta coerente e controllata.

Personalizzazione e Configurazione

La configurazione di vcl_synth è altamente personalizzabile grazie al VCL, che permette agli amministratori di definire precisamente come gestire vari scenari di errore. Questo include:

  • Codici di Stato HTTP: Definire quali codici di stato restituire per specifici scenari, migliorando la comunicazione con i client e i sistemi di monitoraggio.
  • Contenuto Dinamico: Inserire contenuti dinamici nelle pagine di errore, come timestamp, messaggi specifici dell’errore o informazioni di troubleshooting.
  • Logs Dettagliati: Configurare un logging dettagliato degli errori per facilitare l’analisi e la risoluzione dei problemi da parte degli amministratori.

Impatto sull’Esperienza Utente e sulla Diagnostica

L’implementazione efficace di vcl_synth non solo aiuta a mantenere una comunicazione chiara con gli utenti durante gli errori, ma funge anche da strumento diagnostico per gli amministratori del sistema. Fornendo feedback immediato e rilevante, gli amministratori possono rapidamente identificare e risolvere i problemi, migliorando la resilienza e l’affidabilità del sistema.

In conclusione, vcl_synth rappresenta l’ultima rete di sicurezza all’interno dell’architettura di Varnish. La sua configurazione e gestione attenta assicurano che anche quando le cose non procedono come previsto, l’esperienza dell’utente rimane il più fluida e informativa possibile, e gli amministratori hanno a disposizione gli strumenti necessari per un’analisi e un intervento efficaci.

Conclusione

Varnish Cache si è affermato come una soluzione di prim’ordine nella fascia enterprise per l’ottimizzazione delle prestazioni dei siti web. Grazie alla sua architettura robusta e flessibile, Varnish non solo migliora significativamente i tempi di caricamento delle pagine e riduce il carico sui server backend, ma offre anche un controllo granulare e una configurabilità che lo rendono ideale per applicazioni web ad alto traffico e siti di grandi dimensioni. La sua efficacia si riflette nell’adozione da parte di alcuni dei più importanti siti web a livello globale. Esempi illustri includono piattaforme come The New York Times, Wikipedia, o CNN, che si affidano a Varnish per garantire una consegna dei contenuti veloce e affidabile. Questa vasta accettazione dimostra la capacità di Varnish di rispondere alle esigenze più esigenti di ottimizzazione web, rendendolo una scelta privilegiata per le aziende che cercano di migliorare l’esperienza utente, ottimizzare le risorse server e scalare in modo efficace in un ambiente digitale sempre più competitivo.

Hai dei dubbi? Non sai da dove iniziare? Contattaci !

Abbiamo tutte le risposte alle tue domande per aiutarti nella giusta scelta.

Chatta con noi

Chatta direttamente con il nostro supporto prevendita.

0256569681

Contattaci telefonicamente negli orari d’ufficio 9:30 – 19:30

Contattaci online

Apri una richiesta direttamente nell’area dei contatti.

INFORMAZIONI

Managed Server S.r.l. è un player italiano di riferimento nel fornire soluzioni avanzate di sistemistica GNU/Linux orientate all’alta performance. Con un modello di sottoscrizione dai costi contenuti e prevedibili, ci assicuriamo che i nostri clienti abbiano accesso a tecnologie avanzate nel campo dell’hosting, server dedicati e servizi cloud. Oltre a questo, offriamo consulenza sistemistica su sistemi Linux e manutenzione specializzata in DBMS, IT Security, Cloud e molto altro. Ci distinguiamo per l’expertise in hosting di primari CMS Open Source come WordPress, WooCommerce, Drupal, Prestashop, Joomla, OpenCart e Magento, affiancato da un servizio di supporto e consulenza di alto livello adatto per la Pubblica Amministrazione, PMI, ed aziende di qualsiasi dimensione.

Red Hat, Inc. detiene i diritti su Red Hat®, RHEL®, RedHat Linux®, e CentOS®; AlmaLinux™ è un marchio di AlmaLinux OS Foundation; Rocky Linux® è un marchio registrato di Rocky Linux Foundation; SUSE® è un marchio registrato di SUSE LLC; Canonical Ltd. detiene i diritti su Ubuntu®; Software in the Public Interest, Inc. detiene i diritti su Debian®; Linus Torvalds detiene i diritti su Linux®; FreeBSD® è un marchio registrato di The FreeBSD Foundation; NetBSD® è un marchio registrato di The NetBSD Foundation; OpenBSD® è un marchio registrato di Theo de Raadt. Oracle Corporation detiene i diritti su Oracle®, MySQL®, e MyRocks®; Percona® è un marchio registrato di Percona LLC; MariaDB® è un marchio registrato di MariaDB Corporation Ab; REDIS® è un marchio registrato di Redis Labs Ltd. F5 Networks, Inc. detiene i diritti su NGINX® e NGINX Plus®; Varnish® è un marchio registrato di Varnish Software AB. Adobe Inc. detiene i diritti su Magento®; PrestaShop® è un marchio registrato di PrestaShop SA; OpenCart® è un marchio registrato di OpenCart Limited. Automattic Inc. detiene i diritti su WordPress®, WooCommerce®, e JetPack®; Open Source Matters, Inc. detiene i diritti su Joomla®; Dries Buytaert detiene i diritti su Drupal®. Amazon Web Services, Inc. detiene i diritti su AWS®; Google LLC detiene i diritti su Google Cloud™ e Chrome™; Microsoft Corporation detiene i diritti su Microsoft®, Azure®, e Internet Explorer®; Mozilla Foundation detiene i diritti su Firefox®. Apache® è un marchio registrato di The Apache Software Foundation; PHP® è un marchio registrato del PHP Group. CloudFlare® è un marchio registrato di Cloudflare, Inc.; NETSCOUT® è un marchio registrato di NETSCOUT Systems Inc.; ElasticSearch®, LogStash®, e Kibana® sono marchi registrati di Elastic N.V. Hetzner Online GmbH detiene i diritti su Hetzner®; OVHcloud è un marchio registrato di OVH Groupe SAS; cPanel®, L.L.C. detiene i diritti su cPanel®; Plesk® è un marchio registrato di Plesk International GmbH; Facebook, Inc. detiene i diritti su Facebook®. Questo sito non è affiliato, sponsorizzato o altrimenti associato a nessuna delle entità sopra menzionate e non rappresenta nessuna di queste entità in alcun modo. Tutti i diritti sui marchi e sui nomi di prodotto menzionati sono di proprietà dei rispettivi detentori di copyright. Ogni altro marchio citato appartiene ai propri registranti. MANAGED SERVER® è un marchio registrato a livello europeo da MANAGED SERVER SRL, Via Enzo Ferrari, 9, 62012 Civitanova Marche (MC), Italia.

Torna in alto