Jump to content

Search the Community

Showing results for tags '&lt&gtdb'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Richiesta informazioni e consigli hosting
    • Domini e Registrazioni
    • Shared e Managed Webhosting
    • WebHosting - Primi passi
    • Server dedicati, colocation, connettività e scelta data center
    • VPS - Virtual Private Server
    • Cloud Computing e Cloud Hosting
    • Gestione Server Windows e Server Linux
    • E-mail e Managed Services
    • Pannelli di controllo e Hosting software
    • Professione Hosting Provider
  • Sviluppo Web e Tempo Libero
    • Io Programmo
    • Promozione, advertising e SEO
    • Off-Topic
    • Il tuo sito
  • Guide su hosting, domini, server, CMS e Cloud Computing
    • Articoli e Guide su hosting, domini e cloud computing
    • Annunci e News
    • Offerte Hosting - Provider HostingTalk.it

Calendars

There are no results to display.


Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


AIM


MSN


Website URL


ICQ


Yahoo


Jabber


Skype


Location


Interests


Biografia


Località


Interessi


Cosa fai nella vita?


Il tuo Hosting Provider?

Found 1 result

  1. Lo so che è vecchia, ma io non ho ancora le idee chiare e non avrei voglia di farmi mille benchmark, quindi se qualcuno ha dei dati da condividere mi farebbe un piacere. Faccio qualche esempio: E' più veloce leggere un array (per esempio un config) da file o da db? E' più veloce caricare un'immagine da file system o da db? Qualcuno afferma che è importante il numero di file per directory, cioè che fino a 100 file è più veloce il file system, sopra il db. Ma che in ricerca il numero di file è 30. immagino che 100 si riferisca al fatto di usare il nome dei file come indice, mentre la ricerca intende in qualsiasi parola contenuta nei file... Se così fosse avrebbe poco senso un sistema di cache che memorizza su file system le query più frequenti... a meno di limitare queste ad un numero inferiore ai 100. Altro punto di vista interessante è il fatto che l'ottimizzazione lato programmazione se non è seguita da quella sistemistica conta poco poco.... però ora mi interessa vedere la prima, la seconda è discorso a parte. Ho visto alcuni cms che usano mysql per far tutto, ma poi a seconda delle impostazioni (a tempo, su comando, ad aggiornamento) riproducono l'intero sito su file system e da quello viene letto alle richieste del browser. Spazio a parte visti i presupposti sopra mi chiedo se è effetivamente più veloce.... Io sto pensando ad un sistema ibrido, una sorta di cache su mysql. Cioè la pagina è spezzettata in vari punti del db per comodità organizzativa, poi però è messa in cachè in un unico campo in modo tale che con un'unica query sia richiamabile. In sostanza un'unica pagina tra gestione ACl, contenuti e qualche altra cosa potrebbe stare entro le 2/3 query totali, neanche troppo complesse. Sta parlando dell'organizzazione per siti ad alto traffico, ovviamente per 300 pagine non ha neanche senso perderci tempo Commenti?
×