Aide générale Erreur Can't connect to database
Reprise du message précédent
Okay, j'essaierai de faire ce triEn revanche, les erreurs ne cessent pas du tout ^^
Code TEXT :
Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 15:22:52 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 15:22:52 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 11:17:14 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 11:17:14 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 11:17:13 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 10:47:23 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 10:47:23 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 10:47:22 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 10:47:22 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 10:47:22 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 10:47:22 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 07:03:42 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php 2015-11-10 03:46:59 Erreur fatale : Can't connect to database! User planettrucks already has more than 'max_user_connections' active connections Ligne 114 : mysql.class.php
Bonjour,
possible de demander à l'hébergeur comment il calcul ça et surtout quel est la limite réel de ton offre ?
Car je viens de regarder leur site et je trouve que les offre sont bien "bridé" au niveau MySQL, maximum 25 connexion simultané pour la plus grosse offre, alors que à côté (comme par hasard) il propose une offre "mysql privé" avec aucune limite de connexion simultané.
Possible de m'envoyer par MP les logs d'accès sur les 7 derniers jours (si possible en 1fichier et en .zip ou au minimum en .zip même si c'est plusieurs fichiers) ?
Cordialement, janus57
possible de demander à l'hébergeur comment il calcul ça et surtout quel est la limite réel de ton offre ?
Car je viens de regarder leur site et je trouve que les offre sont bien "bridé" au niveau MySQL, maximum 25 connexion simultané pour la plus grosse offre, alors que à côté (comme par hasard) il propose une offre "mysql privé" avec aucune limite de connexion simultané.
Possible de m'envoyer par MP les logs d'accès sur les 7 derniers jours (si possible en 1fichier et en .zip ou au minimum en .zip même si c'est plusieurs fichiers) ?
Cordialement, janus57
Je verrai ça demain, car je dois tout télécharger date par date Je m'en occuperai.
Merci.
Le mysql privé est beaucoup trop cher ..
Merci.
Le mysql privé est beaucoup trop cher ..
Bonjour,
Citation:
je m'en doute, mais si il propose des offres avec maximum 25connexions simultané j'ai l'impression que c’est pour ""forcer"".
Par exemple chez OVH c'est 30 sur toute les offres, infomaniak c'est 36(ou 38 ?), et d'autre hébergeur c'est 100.
Attention je dit pas que nuxit est "nul" en hébergement, mais clairement comme chaque hébergeur y a toujours une caractéristique plus "faible" pour "pousser" le client à prendre (comme par hasard) un produit complémentaire pour compenser cette faiblesse.
Après je dit pas peut être que la V3 (encore que pour sa date de création y avait des monstres plus gourmand) ou que certaines modifs sont trop lourde au niveau SQL (c'est possible).
Mais là en mutualisé c'est pas le top pour analyser en détails le SQL (sans avoir à regarder tout le code de A à Z), on peu juste se fier aux logs d'accès apache pour essayer de trouver une cause externe.
Cordialement, janus57
Citation:
Le mysql privé est beaucoup trop cher ..
je m'en doute, mais si il propose des offres avec maximum 25connexions simultané j'ai l'impression que c’est pour ""forcer"".
Par exemple chez OVH c'est 30 sur toute les offres, infomaniak c'est 36(ou 38 ?), et d'autre hébergeur c'est 100.
Attention je dit pas que nuxit est "nul" en hébergement, mais clairement comme chaque hébergeur y a toujours une caractéristique plus "faible" pour "pousser" le client à prendre (comme par hasard) un produit complémentaire pour compenser cette faiblesse.
Après je dit pas peut être que la V3 (encore que pour sa date de création y avait des monstres plus gourmand) ou que certaines modifs sont trop lourde au niveau SQL (c'est possible).
Mais là en mutualisé c'est pas le top pour analyser en détails le SQL (sans avoir à regarder tout le code de A à Z), on peu juste se fier aux logs d'accès apache pour essayer de trouver une cause externe.
Cordialement, janus57
Bon bah je crois que je ferai avec alors .. Je pensais qu'il existait un moyen pour dire aux robots de ne pas se connecter 50 fois en même temps, mais faut croire que ce n'est pas très efficace le procédé mis en place.
m-ickael:
Bonjour,
cela fonctionne pour les robots qui prennent en compte le robots.txt (et cela dépend de ce qu'il y a dedans) et la fonction "Crawl-delay:"
Mais pour google faut lui dire via le panel webmaster de ralentir les indexations, idem chez bing on peu lui dire via leur panel (j'ai vu ça dans leur FAQ).
Cordialement, janus57
Bon bah je crois que je ferai avec alors .. Je pensais qu'il existait un moyen pour dire aux robots de ne pas se connecter 50 fois en même temps, mais faut croire que ce n'est pas très efficace le procédé mis en place.
Bonjour,
cela fonctionne pour les robots qui prennent en compte le robots.txt (et cela dépend de ce qu'il y a dedans) et la fonction "Crawl-delay:"
Mais pour google faut lui dire via le panel webmaster de ralentir les indexations, idem chez bing on peu lui dire via leur panel (j'ai vu ça dans leur FAQ).
Cordialement, janus57
Répondre
Vous n'êtes pas autorisé à écrire dans cette catégorie