Jump to content

IlMerovingio

Members
  • Content Count

    100
  • Joined

  • Last visited

About IlMerovingio

  • Rank
    Appassionato

Contact Methods

  • Skype
    ilmerovingio
  1. IlMerovingio

    OVH e ip italiano

    Ho avuto conferma anche dal servizio clienti:
  2. IlMerovingio

    OVH e ip italiano

    "Spiacenti, la registrazione è stata disabilitata dall'amministratore"
  3. IlMerovingio

    OVH e ip italiano

    Volevo aver conferma se sui prodotti della linea Kimsufi non sia possibile richiedere IP geografici italiani. OVH : geoloc http://www.ovh.it/items/geo_ip.xml qui sembrano abbastanza chiari ma visto che la documentazione di OVH lascia sempre molto a desiderare... rimango nella speranza che si siano dimenticati di aggiornare la pagina
  4. Ho ufw come firewall ma ho impostato le solite regole: ufw default deny ufw allow 999 (è il mio ssh) ufw allow 80 ufw allow 443 e la situazione è la seguente: To Action From -- ------ ---- 999 ALLOW Anywhere 80 ALLOW Anywhere 443 ALLOW Anywhere Munin e il grafico della banda del manager OVH dicono che non sforo i 40Mbit/s di picco (ho fatto prove di velocità e su 100 garantiti 80 li faccio sempre...) Non uso Apache ma nginx che ha la seguente configurazione: user www-data;worker_processes 16; #worker_rlimit_nofile 65535; pid /var/run/nginx.pid; events { worker_connections 1024; # multi_accept on; } http { ## # Basic Settings ## sendfile on; tcp_nopush on; tcp_nodelay on; keepalive_timeout 65; types_hash_max_size 2048; server_tokens off; ....... Provandole tutte dalla disperazione ho provato anche ad aumentare il numero del range dei sockets con: sysctl -w net.ipv4.ip_local_port_range="1024 64000" ed imponendo il riuso delle porte in TIME WAIT sysctl -w net.ipv4.tcp_tw_reuse="1" ma sembra andare sempre a "singhiozzo": a volte va a tuono altre volte ci mette a caricare se non addirittura spunta la pagina di downtime di cloudflare
  5. Rispolvero questo topic. Ho effettuato la configurazione e la migrazione del server e tutto sembra essere andato per il meglio. Ho però un problema che si sta verificando solo da qualche ora: senza apparenti picchi di visitatori e server "scarico" le pagine impiegano qualche secondo a caricare ed addirittura saltuariamente alcuni utenti visualizzano il messaggio di cloudfare che avvisa che il sito è offline. Poichè io da terminale non vedo alcun genere di problema (htop e top mi confermano che il server è scarico) e MUNIN mi dice che 20Mbit/s di download dal server a parte non ci sono problemi di carico (Mysql, APC, php-fpm tutti ok dai grafici) qualcuno mi dice cosa potrebbe essere? O almeno darmi un'idea... che mi serva la palla di cristallo?
  6. Grazie ancora per le dritte. Il tempo ci dirà se le previsioni sono corrette :)
  7. Nono, 500.000 non intendo contemporanei ma giornalieri (sennò farei quasi le scarpe a Gazzetta.it! :stordita:). Su 500.000 giornalieri direi che picchi di 30.000 collegati nelle ore di punta li si possono anche avere (ma spero non visitino tutti il forum!). Quello che avevo evidenziato era il caso più "sfigato". CloudFare è già installato e fa il suo lavoro egregiamente (almeno per il momento). Conta però che i picchi sono "prevedibili": so già con un anticipo di un paio di giorni quando sta per arrivare il patatrac! (nuova relase del software che produciamo)
  8. EvolutionCrazy: a tuo avviso non dovrei aver problemi neanche con i picchi di traffico di cui parlavo sopra vero? Certo che se tutti i visitatori vanno sul forum.... :|
  9. Era quello che volevo sentirtmi dire, ora sono più tranquillo SFTP su utente non privilegiato via OpenSSH. Risparmio anche su un ulteriore demone come vsftpd da gestire e far girare (risorse, security policy etc...). Poi a meno di aggiornamenti del sorgente il sito si spera di caricarlo una volta sola e basta :) Il tutto come vedete è sovradimensionato ma c'è una ragione di fondo: dobbiamo saltuariamente gestire picchi di utenti da noi prevedibili (500.000 utenti giorno), roba di poche volte all'anno. Visto che le risorse ci sono preferisco utilizzarle che far trovare ai miei utenti fastidiosi messaggi di errore e downtime dovuti al carico. Dovessimo comunque abilitare e rendere disponibili tutte le features che gestiamo per i nostri utenti anche un robo così andrebbe parecchio stretto (calcolo approssimativo di traffico per difetto: 40 TB/mese e qui si che le risorse economiche che abbiamo non sono sufficienti :( ) P.S. vi anticipo prima che me lo chiediate: non hostiamo porno, warez, lamerate o schifezze :)
  10. Buongiorno a tutti, sono in procinto di trasferire su un dedicato OVH entry-level (Intel Core i5-2400 - 4 core/4 threads - 16GB DDR3 - 100 Mbps) un dominio che genera un discreto traffico (>15k visite al giorno con un average di 100 utenti collegati). Escludendo una decina di pagine pressochè statiche in php l'unica cosa che mi preoccupa particolarmente è il forum (engine SMF con qualche plugin - 15k utenti registrati, average di 90 collegati, 500mb di DB). Il server, escluso SSH, webserver e database non avrà null'altro di installato (niente demoni per posta, FTP, DNS etc che gestisco a parte...). La configurazione che avevo in mente (e che ho già in produzione in maniera soddisfacente su altri server) è la seguente: - webserver: nginx - php engine: php-fpm (ver. suhosin) - database: mysql - SSH: OpenSSH il tutto configurato ed ottimizzato al meglio delle mie capacità :062802drink_prv: Per togliermi qualche noia (regole di rewrite di SMF e poco altro) avevo anche in mente di usare nginx come webserver di frontend e girare poi in locale le richieste dinamiche su apache2 (anche se sono workaround che mi fanno sempre storcere un poco il naso). So che è una domanda un pò da "tanto al chilo" ma secondo voi con una configurazione del genere, senza fare caching con varnish et similia, non dovrei aver problemi a gestire una tipologia di traffico di questo tipo vero? L'unica cosa che mi fa un pò dubitare del dedicato è la CPU che è quella che è... Grazie e buon lavoro a tutti
  11. Passato quasi tutto su torrent e mirroring su server di volontari. 100tb.eu sembra "tanta roba" comunque. Xirra.net qualcuno lo ha mai provato?
  12. Grazie a tutti per i contributi di questo thread, direi che un po' di nuovi spunti li ho avuti. Buona giornata a tutti
  13. Io l'avevo interpretato come un post ironico a dire il vero Hai perfettamente ragione a riguardo e capisco (mettendomi nei panni di un provider) che sia una domanda un pò forzata quella che ho fatto. Il problema che io sono dall'altra parte e una soluzione vorrei comunque trovarla Penso a questo punto che mi orienterò su un dedicato "spesso" di OVH o similari che ecceduti i 20TB/mese conteggia 1,2 euro per ogni ulteriore TB. Dropbox è una soluzione che utilizzavo già in precedenza, ha funzionato per meno di una settimana poi mi han chiamato dicendo che la festa era finita :) (da quanto so io fvendono solo lo spazio, il traffico non è conteggiato ma come nel mio caso dopo un pò chiudono i rubinetti)
  14. Il "circa" che avevo messo era appunto riguardo alla divisione in 1024 (non avevo la calcolatrice) comunque grazie della precisazione. Non ho capito però perchè dovrei avere 200 utenti contemporanei. 3000/24 = 125 download / hour (poco più di 2 download / min). Limitando la banda ad ogni utente a 500kB/s direi che ci sto (anche se un pò a pelo visto che ogni minuto dovrei considerare 2 ulteriori connessioni e che 100mbps = 12.5 MB/s) --> 250 MB / download a 0,5 MB/s = 500 secondi per ogni download (8m 18s) che ci starebbe anche. Il calcolo fatto è comunque completamente irreale: download costanti ed uniformi nell'arco della giornata, 3000 download (che secondo me saranno molto di più visto il trend di crescita)... Ok per l'uso di CloudFare e nello spingere il torrent ma volevo comunque lasciare agli utenti la possibilità di scegliere Grazie per la segnalazione ma l'avevo già scartato per il prezzo. Il vero problema di fondo è che il progetto è completamente gratuito e non ricevo particolari introiti che mi permettano di sostenere una spesa del genere. Ero alla ricerca di un qualcosa che con 100/150 euro al mese max mi permettesse di evitare la decentralizzazione del servizio. A questo punto direi che il cloud è da scartare: rimane la soluzione "array" di VPS low-cost:asd: o dedicato con i cosiddetti. Idee?
  15. Buon pomeriggio a tutti. Ho la necessità di hostare pochi file (2-4) di grosse dimensioni (250MB l'uno) e renderli disponibili per il download agli utenti del mio sito (non pensate sia roba warez, sono solo dei firmware che stanno avendo un ottimo successo). Attualmente mi appoggio a servizi di filehosting come depositfiles e 2shared ma vorrei "centralizzare" il tutto su un qualcosa che possa controllare direttamente io. Il problema è che ottimisticamente parlando (per ottimistico intendo giornata con pochi download) registro all'incirca 3000 download al giorno. In maniera quindi del tutto approssimativa (tutti gli "=" sono dei "circa" e spero di non aver fatto sbagli nel ragionamento) il traffico mensile generato da uno scenario del genere sarebbe: 250MB/download * 3000 download/giorno = 750.000 MB/giorno = 750 GB/giorno = 22.500 GB/mese = 22.5 TB/mese Metto le mani avanti dicendo che oltre a questo sistema metterò su un tracker torrent dedicato per il download P2P (penso comunque che la maggior parte delle persone utilizzerà il canale di download tradizionale). Che tipo di sistema mi consigliate? Penso esistano 3 tipi di soluzioni: 1) "Batteria" di VPS Unmetered (low cost) - 2Ghz, 1GB ram, 100mbit (shared) un servizio con così poca ram (adibito ovviamente solo con nginx & ssh e ben configurato magari da limitare la banda a ciascun utente) riesce a spremere o almeno anche solo ad avvicinarsi a 100mbit di banda? (la considerazione è da farsi in una situazione ideale in cui il server pompi banda solo per me --> mi serve giusto per capire se è possibile, poi che sia una situazione improbabile lo capisco da me :fagiano:) - in caso positivo vi sembra una buona idea comprare parecchie VPS di questo tipo (low cost ma con poca ram) invece che comprare una VPS con caratteristiche maggiori ma a costo superiore? [per rimanere pratico pratico: tenendo come esempio le offerte di webtropia, meglio 20 x vServer Linux S o 10 x vServer Linux M?]) 2) Dedicato Unmetered "spesso"(es. Enterprise Server S — webtropia) - con un server del genere, limitando la banda a ciascun utente e facendo le considerazioni di prima per quanto riguarda la configurazione (solo ssh&nginx) riesco verosimilmente a gestire un buon numero di connessioni? - qualcuno di voi sa dirmi se con questa offerta la banda è 1.000 mbps flat come scritto? (in tutte le offerte < di questa c'è esplicitamente scritto nelle estensioni "Full Flatrate - 199,99 € / month", di qui in poi scompare) 3) Cloud (esempio Amazon S3) Non ho una particolare esigenza di ridondanza o geolocalizzazione dei contenuti (CDN e quant'altro) e a dire il vero sono novizio del settore (magari è la volta che imparo qualcosa su questo "nuovo mondo"). Il primo servizio che mi è venuto in mente è stato Amazon S3. Ho provato però tramite il configurator con i seguenti parametri: - Storage: 1GB/month - Reduced Redundancy Storage: 1GB/month (non ho molto capito cosa si intenda, è il calcolo dei GB di "ridondanza" che richiedo? - Data Transfer In: 1GB/month - Data Transfer Out: 22.5TB/month - PUT/COPY/POST/LIST Requests: 10 Requests (vuol dire quanti oggetti sposto, modifico... nel mio bucket?) - GET and Other Requests: 90000 Requests (si intende il numero di download vero?) beh la cifra non sta mai sotto dei 2000$ al mese :062802drink_prv::062802drink_prv::062802drink_prv: sbaglio io qualcosa nel configurator (o nel mio ragionamento) o il cloud (almeno quello di Amazon) è una strada impercorribile nel mio caso? Conoscete altri servizi cloud che potrebbero fare al caso mio? Che ne pensate delle tre soluzioni? Cosa credete mi convenga? Grazie a tutti P.S. nella speranza di non aver fatto errori "concettuali", nel caso mea culpa. Mi giustifico dicendo che è stata una giornata terrificante
×