Mi cuenta consume mas recursos de los estipulados. ¿Qué puedo hacer? Imprimir

  • 0

¿Por qué limitar los recursos del sistema pueden utilizar una cuenta?

 

Con el fin de mantener los servidores estables y reducir el riesgo de sobrecarga y caída de los mismos hay que poner unos límites para que un único sitio web no pueda utilizar todos, o la mayor parte de, los recursos del servidor (tenga en cuenta que en un servidor compartido hay mas usuarios a parte de usted y estos límites garantizan que todos disponen de los mismos recursos). Si se agotan los recursos del servidor este se sobrecarga y en este estado puede comenzar a presenter problemas de estabilidad produciendose caídas, de manera que TODOS los usuarios (los que abusan y los que no) sufrirán estas consecuencias debido a que un solo sitio web, o unos pocos, están sobrecargando el servidor. Obviamente, no podemos permitir que un único sitio web cause problemas a todos los sitios web en el servidor.

 

Esta es la razón de ser de esos límites. Toda buena empresa de alojamiento tiene límites de ese tipo aunque la manera de controlar estos consumos no siempre es en función de CPU y RAM como hacemos en Ecodominio.com y pueden basarse en otros paramentros, pero al fin y al cabo se trata de los mismos límites.

 

¿Que está generando este consumo? ¿Cómo puede mi sitio web sobrecargar el servidor?

 

Cada visita a sus sitios web hace uso de la CPU y la memoria (RAM), que son los recursos principales del servidor. Las aplicaciones PHP hacen mas carga que las páginas en HTML ya que HTML es un lenguaje que se ejecuta en el navegador de cada visitante mientras que PHP se ejecuta en el servidor para todas y cada una de las visitas recibidas. A parte de esto, las aplicaciones PHP suelen estar vinculadas a una base de datos en la que almenan toda la información que gestionan. Cada una de las acciones que hace la aplicación sobre la base de datos (crear info nueva, leer info, borrar, buscar,...) también realiza carga en el servidor. Cuantos más visitantes a su sitio web recibe diariamente más recursos de CPU y memoria RAM utilizará. Cada script que se inicia dentro de su cuenta utiliza los recursos del sistema.

 

¿Cómo puedo saber que está utilizando la mayoría de los recursos en mi cuenta?

 

En la mayoría de los casos, los detalles estarán disponibles en el mensaje de notificación que le enviamos para informarle de que su cuenta está utilizando más recursos de los permitidos. También puede controlar los recursos que utiliza su cuenta a través de cPanel -> Avanzado -> Resource Usage. Las estadísticas se actualizan cada 3 horas. 

¿Como puedo optimizar mi sitio?

 

  • Lo primero que debe revisar es el módulo de estadísticas que le ofrece cPanel (Awstats) para revisar las visitas que ha recibido, a que páginas han accedido, cuales son las páginas más visitadas de su web y que es lo que se hace en dichas páginas, para poder proceder con la optimización de esas páginas en la medida de lo posible. 


  • Es posbile que el consumo que efectua no solo sea por las visitas que recibe, sino que puede que algún robot o proceso automátizado (por ejemplo el robot de google, yahoo, bing, twenga, etc...) que haga accesos a su sitio de manera indiscriminada. Si este es el caso le sugerimos que regule la frecuencia de acceso de estos robots mediante un archivo robots.txt (mas info). Aqui tienen un generador de este tipo de archivos, el cual le da información a cerca de los crwalers mas conocidos y puede ayudarle en la tarea creación de su robots.txt:

 

 

Aquí podemos encontrar una lista de robots conocidos.

 

Con la etiqueta "Crawl-delay: XX" se puede especificar el intervalo de tiempo (expresado en segundos) que queremos que haya entre acceso y acceso de un robot. Con esto podemos indicar que se nos visite una vez a la hora, al día, a la semana, ... (Crawl-delay no es soportado todos los crawlers,al menos MSNBot y Slurp si lo soportan, y Googlebot desde el panel de webmasters también). Para cambiar la frecuencia de rastreo de Googlebot deberá hacerlo desde las "Herramientas para el webmaster de Google", siguieno estos pasos.

 

También podemos también incluir un mapa del sitio en nuestro robots.txt de la siguiente forma: Sitemap: http://www.sudominio.com/sitemap.xml

De esta manera los buscadores obtendrán el listado completo de todo nuestro sitio sin necesidad de que obtengan ellos ese sitemap navegando por nuestra web.

 

Recordarle que con el fichero robots.txt no podemos bloquear los accesos por «fuerza bruta». Robots.txt es una recomendación del webmaster a los buscadores, la mayoría de los cuales las seguirán al pie de la letra.

 

Existen otros robots menos "confiables" que no dudarán en acceder a los lugares que hayas prohibido si lo desean. En este caso sería recomendable su bloqueo total.

 

  • Es posible que esos accesos automátizados sean realizados por robots de dudosa confiabilidad, como algunos Web Crawlers (http://es.wikipedia.org/wiki/Web_crawler), a los que es imperativo negarles el acceso siempre que sean detectados, o sean de origen desconocido. En ese caso les sugerimos que investiguen a cerca de esos accesos y, en el caso en el que lo estimen oportuno, bloqueen el acceso a su sitio a esos robots mediante la herramienta de Cpanel del firewall. Con esto evitará que esos robots efectuén carga en su sitio.

  • Si aún así continuan con este tipo de carga, la última opción pasa por activar el registro de actividad en su sitio en la opción "Registro de Acceso RAW". Desde aqui puede activar las siguientes opciones:

    1. Los logs de Archive en tu directorio de home al fin de cada vez que se corran las estadisticas[[cada 24 hora(s)~]]: Esta primera almacena en un archivo comprimido todos los accesos que se efectúan en un día concreto dentro de su servidor de manera que si en una fecha concreto usted es avisado de un consumo abusivo de recursos, podrá dirigirse al registro para ese día en concreto y ver absolutamente todos los accesos que se han hecho a su sitio y que es lo que han hecho. Estos archivos se alojan en la carpeta /home/usuario_cpanel/access-logs

    2. Remueve los logs archive del mes anterior de su directorio de home al final de cada mes: Con esta opción evitamos que nuestro espacio se agote con estos registros pues se eliminarán automáticamente los registros del més anterior en el que nos encontramos.

Si no sabe como optimizar sus procesos deberá contactar con el desarrollador de su sitio web para que lo haga el. Si usted está usando software libre como ZenCart, Prestashop, Joomla, Wordpress, Moodle, etc... deberá:

  1. Asegurarse de que su aplicación está actualizada y actualizarla en caso de que no lo esté. Recuerde que según esta establecido en nuestras condiciones de uso, usted es el responsable de mantener actualizado y seguro. Si esta usando Wordpress, Joomla! o Prestashop debe estar atento a las actualizaciones.
  2. Revisar módulos y añadidos a dicha aplicación pues pueden ser ellos los causantes de la sobrecarga, actualizándolos si es posible o removiéndolos en caso de que no sean necesarios.
  3. Si tiene Cron Jobs activos reduzca la frecuencia de ejecución de estos al menos a cada 30 minutos. Si la frecuencia de ejecución es de 1 o 5 minutos tenga por seguro que la carga efectuada por dicho Cron Jobs será alta.

 

 

Por favor, abtengase de solicitarnos a nosotros la realización de las ediciones indicadas en ese enlace y en las recomendaciones anteriores pues no están incluidas dentro de nuestro soporte y no las efectuaremos.


¿Fue útil la respuesta?

« Atrás