SCI Webhosting

  • ClickFix: nuevo ataque con captcha falso en Windows

    ClickFix: nuevo ataque con captcha falso en Windows

    En los últimos meses ha comenzado a circular una técnica de ingeniería social conocida como ClickFix, que utiliza falsos sistemas de verificación tipo captcha para inducir al usuario a ejecutar comandos directamente en Windows.

    No se trata de un virus tradicional. No explota una vulnerabilidad crítica. Se basa en algo más simple y más efectivo: lograr que el propio usuario ejecute el ataque. Cuando esto ocurre, pueden aparecer comportamientos anómalos en el equipo, como los descritos en estas señales claras de que tu computadora o celular podría estar comprometido por un ataque digital.

    Este artículo explica qué es ClickFix, cómo funciona técnicamente, cómo detectarlo y qué medidas concretas pueden aplicarse para prevenirlo tanto a nivel individual como empresarial, incluyendo prácticas complementarias como habilitar actualizaciones automáticas para reducir la superficie de ataque.

    Un poco de historia: de los adjuntos maliciosos a la ejecución voluntaria

    Para entender ClickFix, conviene mirar hacia atrás. A inicios de los años 2000, la mayoría de ataques se distribuían mediante archivos adjuntos infectados. El usuario debía abrir un documento o ejecutar un archivo .exe. Luego evolucionaron las macros en documentos Office, que requerían habilitar contenido activo. Más adelante, el phishing se sofisticó hasta imitar perfectamente portales bancarios o sistemas corporativos.

    En la última década, el ransomware automatizó el cifrado masivo, explotando vulnerabilidades o credenciales filtradas.

    ClickFix representa una nueva etapa en esa evolución: ya no necesita que el usuario descargue un archivo ni que habilite macros. Le pide que ejecute una instrucción directamente en su sistema operativo bajo la apariencia de una verificación legítima.

    Es un cambio sutil pero significativo: la acción maliciosa ya no parece sospechosa porque se presenta como parte del proceso normal de navegación.

    ¿Qué es ClickFix?

    ClickFix es una técnica de ingeniería social que simula un sistema de verificación legítimo —generalmente similar a Cloudflare o reCAPTCHA— y le indica al usuario que debe ejecutar ciertos pasos “para validar que no es un robot”.

    Las instrucciones suelen ser:

    1. Presionar Windows + R
    2. Pegar un contenido con Ctrl + V
    3. Presionar Enter

    Lo que el usuario no sabe es que el sitio ya copió un comando malicioso al portapapeles mediante JavaScript.

    Al pegar y ejecutar, el comando se ejecuta directamente en el sistema operativo.

    En otras palabras, el ataque no depende de un exploit técnico, lo que evidencia que medidas como una VPN, aunque útiles, no son suficientes por sí solas frente a la ingeniería social, como explicamos en este análisis sobre seguridad en múltiples capas.

    Depende de que el usuario confíe en la instrucción.

    ¿Qué hace el comando ejecutado?

    El contenido puede variar según la campaña, pero normalmente invoca:

    • powershell.exe
    • cmd.exe
    • mshta.exe
    • bitsadmin
    • curl

    El objetivo es descargar y ejecutar un payload remoto, que puede:

    • Instalar un loader persistente
    • Crear tareas programadas
    • Abrir una shell reversa
    • Descargar troyanos de acceso remoto
    • Preparar el entorno para ransomware

    Desde la perspectiva del sistema, la ejecución fue iniciada por el usuario, lo que dificulta la detección temprana si no hay monitoreo avanzado.

    Cómo encaja ClickFix en MITRE ATT&CK

    ClickFix no es una técnica aislada; combina múltiples tácticas conocidas dentro del framework MITRE ATT&CK:

    • T1204 – User Execution
    • T1059 – Command and Scripting Interpreter
    • T1105 – Ingress Tool Transfer
    • T1547 – Boot or Logon Autostart Execution
    • T1071 – Application Layer Protocol

    Lo innovador no es la técnica individual, sino la forma en que se orquesta mediante manipulación contextual.

    Cómo prevenir ClickFix (usuarios individuales)

    La prevención comienza con una regla básica:

    Ningún captcha legítimo pedirá ejecutar comandos en Windows.

    Si un sitio solicita presionar Windows + R y ejecutar algo manualmente, debe asumirse como malicioso.

    La acción correcta es cerrar la página inmediatamente y no ejecutar nada.

    Si ya se ejecutó el comando:

    • Desconectar el equipo de la red.
    • Informar al área técnica.
    • Cambiar credenciales sensibles.
    • Revisar procesos activos.

    La velocidad de respuesta es determinante.

    Cómo prevenir ClickFix en entornos empresariales

    En empresas, la mitigación no puede depender solo del criterio del usuario.

    Principio de mínimo privilegio

    Si los usuarios no trabajan como administradores locales, el impacto disminuye considerablemente.

    Restricción de intérpretes de comandos

    • Activar PowerShell Script Block Logging.
    • Limitar ExecutionPolicy Bypass.
    • Implementar control de aplicaciones.

    Inspección de tráfico saliente

    Muchas variantes requieren descargar payloads externos.

    Un firewall con inspección de tráfico puede bloquear la conexión antes de que el ataque se complete.

    Arquitecturas empresariales con este enfoque pueden revisarse en

    https://www.nettix.com.pe/firewall-empresarial/


    Segmentación de red

    Si un endpoint se compromete, la segmentación evita que el atacante alcance servidores críticos.

    Modelos de VPN y segmentación pueden observarse en

    https://www.nettix.com.pe/vpn/


    Monitoreo continuo

    ClickFix no siempre activa alertas tradicionales de antivirus.

    La detección depende de:

    • Monitoreo de procesos administrativos.
    • Supervisión de tareas programadas nuevas.
    • Análisis de tráfico saliente anómalo.

    Infraestructuras con monitoreo activo bajo modelos de nube privada mejoran significativamente la capacidad de contención.

    Ejemplos de este enfoque pueden revisarse en

    https://www.nettix.com.pe/nube-privada/


    Conclusión

    ClickFix no introduce una nueva vulnerabilidad en Windows. Introduce una nueva narrativa de ataque.

    La evolución de la ingeniería social demuestra que, cuando las superficies técnicas se reducen, los atacantes explotan comportamiento.

    El desafío ya no es solo bloquear malware. Es diseñar entornos donde una simple combinación de teclas no pueda comprometer la operación.

    Comprender esta evolución histórica permite anticipar la siguiente. Como complemento práctico, también puede resultar útil revisar esta comparativa de software de copias de seguridad para fortalecer la resiliencia ante incidentes. Para profundizar en otro de los vectores más utilizados en ataques de ingeniería social, puedes consultar también seguridad del correo electrónico: amenazas clave y cómo proteger el email empresarial.

  • Cuando automatizar en B2B empieza a jugar en tu contra

    Durante años se nos dijo que automatizarlo todo era sinónimo de eficiencia. En B2B, esa idea está empezando a mostrar su lado más incómodo.

    …Correos, seguimientos, respuestas, contenidos, procesos completos de relación con clientes. La eficiencia técnica se convirtió en una especie de virtud moral. Pero en el entorno B2B, esa promesa empieza a mostrar una grieta silenciosa.

    La automatización, aplicada sin criterio, no siempre acerca. A veces enfría. A veces diluye. Y en el peor de los casos, rompe algo que cuesta años construir: la confianza entre empresas.

    El problema no es automatizar, es hacerlo sin pensar

    La mayoría de organizaciones empieza por el mismo lugar: automatizar lo visible. El primer contacto, el mensaje inicial, el seguimiento. Es lo que promete resultados rápidos y una sensación inmediata de orden.

    Sin embargo, también es lo primero que el cliente percibe como genérico.

    Correos bien redactados que podrían venir de cualquiera. Mensajes que llegan “a tiempo” pero fuera de contexto. Interacciones correctas en forma, pero vacías en intención.

    En B2B, donde las decisiones son racionales, complejas y de largo plazo, esa desconexión se nota rápido. Y rara vez se dice en voz alta.

    Lo que casi nadie automatiza (y debería)

    Curiosamente, lo que más valor genera no suele estar de cara al cliente.

    Procesos internos desordenados, tareas repetitivas que consumen horas, validaciones manuales, reportes que se arman siempre igual, monitoreos que dependen de personas cansadas. Ahí la automatización no deshumaniza, libera.

    Cuando una empresa automatiza lo invisible, sus equipos ganan tiempo para pensar mejor, conversar mejor y decidir mejor. Cuando automatiza solo lo visible, lo único que hace es acelerar el ruido.

    Automatizar la relación no es escalarla

    Existe una confusión frecuente entre escalar operaciones y escalar relaciones. En B2B no son lo mismo. Las relaciones entre empresas no crecen por volumen ni por frecuencia, sino por relevancia y contexto. No se fortalecen por más mensajes, sino por mejores conversaciones.

    Intentar automatizar la escucha, el entendimiento o la lectura del momento del cliente es confundir eficiencia con inteligencia. Y el cliente lo percibe, incluso cuando no sabe explicar exactamente por qué algo dejó de sentirse bien.

    Las mejores automatizaciones casi no se notan

    Las organizaciones que mejor usan la automatización rara vez la exhiben. Detrás de experiencias fluidas suele haber sistemas bien integrados, procesos claros y automatismos que el cliente nunca ve. Lo que sí ve es coherencia, continuidad y respuestas que tienen sentido.

    Eso no se logra sumando herramientas, sino decidiendo con cuidado qué tareas puede asumir una máquina y cuáles deben seguir siendo humanas.

    El criterio se vuelve una ventaja competitiva

    En un mercado donde todos automatizan lo mismo, el criterio empieza a diferenciar. Saber qué no automatizar es hoy una decisión estratégica. Entender dónde la tecnología acompaña y dónde estorba es parte de la madurez digital de una empresa.

    La automatización no debería ser una carrera ni una moda. Debería ser una conversación constante, guiada por una pregunta incómoda pero necesaria:

    ¿esto mejora realmente la relación con nuestros clientes o solo nos ahorra tiempo a nosotros?

    En B2B, ignorar esa pregunta suele tener un costo invisible. Pero real.

  • Cuando la nube deja de ser predecible: el eterno conflicto entre tecnología y finanzas

    Durante años, la nube fue presentada como la solución definitiva a los problemas de infraestructura. Elasticidad infinita, pago por uso, escalabilidad inmediata. En teoría, una promesa perfecta tanto para equipos técnicos como para áreas financieras. En la práctica, la historia suele repetirse con demasiada frecuencia.

    La pregunta aparece cada mes, casi como un ritual incómodo en la reunión de cierre financiero:

    “¿Por qué la factura de la nube es más alta de lo proyectado?”

    No es una pregunta malintencionada. Tampoco es ignorancia. Es, en muchos casos, el choque entre dos formas distintas de entender el mundo.

    Desde el lado técnico, la respuesta suele ser larga, matizada y llena de contexto. Se habla de infraestructura de recuperación ante desastres que quedó activa más tiempo del previsto, de transferencias de datos entre regiones que nadie midió con precisión, de servicios que escalaron automáticamente porque el sistema funcionó exactamente como fue diseñado.

    Desde el lado financiero, todo eso se traduce en una sola cosa: variabilidad inesperada.

    Ahí comienza el desgaste.

    La nube pública no falla porque sea cara. Falla porque es difícil de explicar en términos tradicionales. El modelo de costos ya no está anclado a activos visibles ni a presupuestos fijos. Está atado al comportamiento del sistema, al tráfico real, a eventos que no siempre se anticipan y, muchas veces, a decisiones técnicas que se tomaron meses atrás y nadie recuerda del todo.

    El problema se agrava cuando se asume que “pagar por uso” equivale automáticamente a “tener control”. En realidad, pagar por uso exige un nivel de disciplina operativa y visibilidad que muchas organizaciones no estaban acostumbradas a tener. Cada byte transferido, cada réplica entre regiones, cada entorno de respaldo activo tiene un costo real, aunque no siempre evidente.

    Por eso FinOps no es solo una práctica financiera. Es un ejercicio constante de traducción. Traducción entre ingeniería y contabilidad. Entre resiliencia técnica y previsibilidad presupuestal. Entre lo que el sistema puede hacer y lo que la empresa necesita pagar.

    Con el tiempo, algunas organizaciones descubren que el problema no es la nube en sí, sino la falta de alineación entre el modelo tecnológico elegido y la forma en que la empresa planifica, decide y controla sus gastos. No todas las compañías necesitan elasticidad infinita. Muchas necesitan estabilidad, límites claros y facturas que no requieran una explicación técnica cada fin de mes.

    Es en este punto donde algunas empresas empiezan a explorar modelos alternativos, como entornos de nube privada o esquemas híbridos, que mantienen el control técnico y la disponibilidad, pero con costos mensuales predecibles y fácilmente explicables para las áreas financieras.

    (Aquí encaja de forma natural un enlace contextual hacia una página de Nettix Perú o Nettix México, sin CTA, solo como referencia de lectura adicional).

    Cerrar esa brecha no significa renunciar a la nube. Significa entender que la tecnología no solo debe escalar bien, sino también conversar mejor con el negocio.

    Y muchas veces, ese es el verdadero desafío.

  • Por qué el correo empresarial sigue siendo relevante en 2025 y 2026

    Por qué el correo empresarial sigue siendo relevante en 2025 y 2026

    En un entorno donde las herramientas digitales cambian cada año y las plataformas prometen reemplazarlo todo, el correo electrónico sigue ahí. No como una moda, no como una novedad, sino como una pieza estable del engranaje empresarial. Y esa permanencia no es casualidad.

    El correo electrónico no evolucionó al ritmo vertiginoso de otras tecnologías porque no lo necesitó. Desde hace décadas cumple una función que ninguna otra herramienta ha logrado reemplazar por completo: ser el canal formal, verificable y universal de comunicación entre organizaciones. Precisamente por ese rol crítico, también se convierte en un objetivo frecuente de ataques, lo que hace imprescindible entender la seguridad del correo empresarial y sus principales riesgos.

    Mientras las aplicaciones de mensajería priorizan la velocidad y las plataformas colaborativas apuestan por el trabajo interno, el correo sigue ocupando un lugar distinto. Es el espacio donde se firman acuerdos, se validan procesos, se notifican decisiones y queda constancia de lo que ocurrió.

    El correo como identidad digital

    Más allá del mensaje, el correo empresarial representa identidad. Una dirección bajo un dominio propio no solo dice quién escribe, sino desde dónde lo hace. Transmite estructura, permanencia y responsabilidad. No es lo mismo recibir una propuesta desde una cuenta genérica que desde un dominio corporativo que respalda a una organización real.

    En muchos sectores, el correo sigue siendo la primera señal de profesionalismo. No por tradición, sino porque es el único canal que combina universalidad, trazabilidad y formalidad sin depender de plataformas cerradas o acuerdos previos entre usuarios.

    Ninguna otra herramienta lo ha reemplazado del todo

    Slack, Teams, WhatsApp o cualquier plataforma que aparezca mañana cumplen funciones valiosas, pero todas comparten una limitación: están pensadas para conversaciones, no para documentación oficial. Este contraste se profundiza al observar cómo se comunican realmente las empresas en la práctica (https://www.sciwebhosting.com/infraestructura/email-whatsapp-y-slack-como-se-comunican-realmente-las-empresas/).

    El correo, en cambio, actúa como registro. Es archivo. Es evidencia. Es memoria institucional. Por eso, muchas organizaciones complementan el correo con soluciones específicas de respaldo, como las que se comparan en esta guía sobre software de copias de seguridad, para asegurar que esa información crítica no se pierda. Cuando surge una auditoría, un reclamo, una revisión legal o simplemente la necesidad de entender qué se decidió hace meses, el correo sigue siendo la referencia.

    Por eso, aunque el día a día se mueva a chats y tableros, el cierre de los temas importantes vuelve siempre al correo.

    Cuando el correo deja de ser “solo correo”

    En empresas pequeñas, el correo suele verse como una herramienta más. Pero a medida que la operación crece, el correo pasa a ser infraestructura. Su disponibilidad, su seguridad y su respaldo empiezan a importar tanto como cualquier otro sistema crítico, especialmente para evitar problemas como las blacklists que pueden bloquear la entrega de mensajes sin previo aviso (https://www.sciwebhosting.com/correo/que-es-una-blacklist-y-por-que-puede-silenciar-tu-correo-sin-avisar/).

    Es en este punto donde muchas organizaciones descubren que no se trata solo de enviar y recibir mensajes, sino de garantizar continuidad, control y protección de la información. Parte de esa protección implica configurar correctamente aspectos como DNS, SPF, DKIM y DMARC, fundamentales para evitar suplantaciones y problemas de entrega, tal como se detalla en esta guía sobre email confiable.

    “En este escenario, algunas empresas, como Altira, ofrecen servicios de correo empresarial gestionado, donde el foco ya no está en la cuenta individual, sino en la estabilidad y gobernanza del sistema completo.”

    El correo como parte de la infraestructura, no como aplicación

    Uno de los errores más comunes es tratar el correo como si fuera una app aislada. En realidad, forma parte de una cadena más amplia: servidores, almacenamiento, backups, conectividad, políticas de seguridad y monitoreo.

    Cuando uno de esos elementos falla, el impacto no es técnico, es operativo. Comunicaciones detenidas, procesos congelados, clientes sin respuesta.

    Ejemplo editorial:

    “Por eso, cada vez más organizaciones entienden el correo como parte de su infraestructura tecnológica, integrada a servicios administrados que priorizan estabilidad, respaldo y soporte continuo.”

    Por qué seguirá vigente en los próximos años

    El correo no compite con las nuevas herramientas, convive con ellas. Mientras existan empresas, contratos, regulaciones y la necesidad de dejar constancia formal, el correo seguirá siendo relevante.

    No es una cuestión de nostalgia tecnológica, sino de función. El correo cumple un rol que ninguna otra plataforma ha logrado absorber completamente, y por eso sigue siendo el estándar silencioso sobre el que se apoyan muchas decisiones críticas.

    En 2025, en 2026 y probablemente más adelante, el correo no será la herramienta más visible, pero seguirá siendo una de las más importantes.

  • Los SSD no son un archivo eterno: lo que pocos te dicen sobre el almacenamiento a largo plazo

    Los SSD no son un archivo eterno: lo que pocos te dicen sobre el almacenamiento a largo plazo

    Los SSD no son un archivo eterno

    Durante años, los SSD se convirtieron en el símbolo de la modernidad digital. Rápidos, silenciosos, pequeños. Para muchos, representan el punto final de la evolución del almacenamiento. Guardar archivos en un SSD externo se siente seguro, casi definitivo, como si la tecnología hubiese resuelto por fin el problema del tiempo.

    Pero cuando la pregunta deja de ser “¿qué tan rápido es?” y pasa a ser “¿seguirá ahí dentro de veinte años?”, la conversación cambia por completo. Es la misma lógica que rige en la infraestructura profesional, donde factores como la redundancia, la energía y la ubicación —clave en los centros de datos modernos— determinan la verdadera durabilidad de la información (https://www.sciwebhosting.com/infraestructura/que-es-un-centro-de-datos/).

    Y no siempre gusta la respuesta.

    La fragilidad invisible de la memoria flash

    Un SSD no guarda datos como lo hacía un disco duro tradicional. No hay magnetismo, no hay partes móviles. Lo que existe es electricidad atrapada en diminutas celdas de memoria. Cada archivo depende de que esa carga se mantenga estable.

    El problema es que ninguna carga eléctrica lo es para siempre. Con los años —y especialmente cuando el dispositivo pasa largos periodos desconectado— esa carga comienza a degradarse lentamente. No ocurre de forma abrupta ni genera alertas visibles. Simplemente, un día, ciertos bloques dejan de ser confiables.

    No es un defecto de fabricación. Es física.

    Guardarlo y olvidarlo no siempre es protegerlo

    Existe una creencia bastante extendida: si un SSD no se usa, si se guarda en un cajón, entonces estará más seguro. En realidad, sucede lo contrario. Un SSD desconectado no puede corregir errores internos, no puede refrescar sus celdas ni reescribir información degradada. El paso del tiempo, silencioso, hace su trabajo sin avisar.

    Paradójicamente, un SSD encendido ocasionalmente puede conservar mejor los datos que uno completamente olvidado. Una idea contraintuitiva, pero real.

    El problema no es el SSD, es la expectativa

    Nada de esto convierte al SSD en un mal dispositivo. Al contrario: es una de las mejores herramientas de almacenamiento activo que existen. El error aparece cuando se le asigna un rol que no le corresponde.

    Un SSD funciona excelente para trabajar, editar, transportar información. Pero cuando se le confía la misión de preservar recuerdos, proyectos o información crítica durante décadas, entra en un terreno que no fue diseñado para cubrir en solitario.

    El verdadero riesgo no es tecnológico, es conceptual: creer que un solo soporte moderno equivale a una solución definitiva.

    Cómo piensan el tiempo quienes no pueden perder datos

    Cuando el almacenamiento se vuelve crítico —en empresas, archivos profesionales o entornos donde perder información no es una opción— la lógica cambia. Ya no se trata de un disco, sino de una estrategia respaldada por herramientas especializadas, como las que se analizan en esta comparativa de software de copias de seguridad.

    El largo plazo no depende de la durabilidad de un dispositivo, sino de la capacidad de anticipar su fallo. Por eso, en entornos profesionales, el archivo se construye con capas, con redundancia y con distancia física.

    La preservación real no se basa en confiar, sino en verificar y duplicar.

    Aquí entra un concepto clave: sacar una copia fuera del lugar donde nacen los datos.

    Por ese motivo, muchas organizaciones como Nettix, complementan su almacenamiento local con copias externas gestionadas, alojadas fuera de sus oficinas o estudios, reduciendo la dependencia de un solo equipo físico y del paso del tiempo sobre un único soporte.

    Entonces, ¿qué significa archivar en serio?

    Archivar no es guardar. Archivar es asumir que el tiempo va a jugar en contra y prepararse para eso. Los SSD seguirán siendo una pieza clave del ecosistema digital, pero no un archivo eterno. Confiar en ellos está bien. Confiar solo en ellos, no.

    Cuando los años pasan, no sobrevive el disco más moderno, sino la estrategia mejor pensada. Esta misma lógica aplica al mundo online: pensar estratégicamente la infraestructura evita problemas que muchos confunden con simples fallas de hosting, como se explica en este análisis sobre uno de los errores más comunes en hosting. Y esa diferencia, aunque no siempre se vea, es la que separa el almacenamiento doméstico de la gestión profesional de la información.

  • Por qué tus correos no llegan: DNS, SPF, DKIM y DMARC, la clave oculta del email confiable

    Por qué tus correos no llegan: DNS, SPF, DKIM y DMARC, la clave oculta del email confiable

    Cuando el correo deja de llegar y nadie sabe explicar por qué

    Uno de los problemas más incómodos del correo electrónico moderno es que falla sin avisar. El mensaje se envía, el servidor no devuelve error, el remitente asume que todo está bien… pero el destinatario nunca recibe nada. No aparece en spam, no hay rebote, no hay explicación clara. Simplemente desaparece.

    En la mayoría de los casos, el problema no está en el cliente de correo ni en la contraseña del usuario. Está en una capa mucho más silenciosa y menos visible: los registros DNS del dominio.

    El DNS no solo sirve para navegar, también gobierna el correo

    Cuando hablamos de DNS, casi todos pensamos en navegación web. En escribir un dominio y llegar a una página. Pero el DNS cumple una función mucho más amplia: define cómo se comportan los servicios asociados a un dominio, y el correo electrónico es uno de los más sensibles.

    El DNS actúa como una especie de contrato público. Allí se declara qué servidores existen, quién puede recibir correos, quién puede enviarlos y bajo qué condiciones deben considerarse confiables. Si ese contrato está incompleto o mal definido, los servidores de correo modernos prefieren no arriesgarse.

    Aquí se conecta directamente con algo que ya hemos visto en SCI: el DNS no es neutral ni pasivo. Es una capa de decisión.

    Para profundizar, sugerimos revisar: Mejores servidores DNS: qué ganas (y qué arriesgas) al cambiar el DNS de tu proveedor

    Cómo funciona realmente el correo antes de llegar a la bandeja de entrada

    Antes de que un correo sea entregado, el servidor receptor no lee el contenido. Primero consulta el DNS del dominio remitente. Busca respuestas a preguntas muy concretas:

    ¿Quién recibe correo para este dominio? ¿Desde qué servidores está permitido enviar? ¿Qué hago si algo no coincide?

    Si esas respuestas no están claras, el mensaje pierde credibilidad incluso antes de existir como correo “visible”.

    El rol del registro MX: a dónde debe llegar el correo

    El registro MX es el punto de entrada del correo. Define qué servidores están autorizados a recibir mensajes para un dominio y en qué orden deben intentarse. Sin un MX correcto, el correo simplemente no tiene destino.

    Pero tener MX no es suficiente. Hoy, recibir correo es solo la mitad del problema.


    SPF: demostrar que el remitente tiene permiso para enviar

    SPF es la primera prueba de identidad. A través de un registro DNS, el dominio declara desde qué servidores está autorizado a enviar correos. Si un mensaje sale desde una IP no listada, el servidor receptor empieza a desconfiar.

    Aquí ocurre uno de los errores más comunes: empresas que cambian de proveedor, agregan formularios web o usan servicios externos de envío sin actualizar su SPF. El correo sale, pero llega con una reputación dañada.


    DKIM: asegurar que el mensaje no fue alterado

    DKIM añade una firma criptográfica a cada correo saliente. Esa firma se valida usando una clave publicada en el DNS del dominio. Si el mensaje se modifica durante el trayecto, la firma deja de coincidir.

    Para el servidor receptor, esto no es un detalle técnico: es una señal clara de manipulación o suplantación.


    DMARC: decidir qué hacer cuando algo falla

    DMARC es el protocolo que une todas las piezas. Le dice al servidor receptor cómo comportarse cuando SPF o DKIM no coinciden. Aceptar, enviar a spam o rechazar.

    Además, DMARC permite recibir reportes que revelan intentos de envío no autorizados. Muchas organizaciones descubren gracias a estos reportes que alguien está usando su dominio para phishing sin que lo supieran.

    Aquí el correo deja de ser solo comunicación y se convierte en reputación del dominio.

    👉 Oportunidad de interlinking natural

    Para profundizar la importancia de los registros DNS sugerimos leer: Envenenamiento DNS: qué es, cómo ocurre y cómo puedes protegerte de verdad


    PTR y rDNS: la identidad inversa que muchos olvidan

    Hay una validación adicional que suele pasarse por alto: el rDNS. A través de registros PTR, una IP declara qué dominio representa. Muchos servidores de correo verifican que esa relación sea coherente.

    Un servidor que envía correo desde una IP sin rDNS, o con un PTR genérico, empieza el proceso con desventaja. No es una regla absoluta, pero sí un factor más en la puntuación de confianza.


    Por qué esta es una de las principales causas de correos que no llegan

    Cuando SPF, DKIM, DMARC o rDNS están ausentes o mal configurados, el correo no “falla” de forma evidente. Simplemente deja de ser confiable. Y en un ecosistema saturado de spam, los servidores prefieren descartar antes que arriesgarse.

    Por eso tantas empresas creen que el problema está en el usuario, cuando en realidad está en la identidad técnica del dominio.


    Todo esto vive en el DNS, no en el cliente de correo

    Este punto es clave: ninguno de estos mecanismos se configura desde Outlook, Gmail o el webmail. Viven en el DNS. Por eso cambios aparentemente ajenos —migraciones, nuevos proveedores, modificaciones de DNS— pueden afectar de golpe la entregabilidad.

    Si quieres saber como cambiar los registros DNS de tu red sugerimos revisar: Cómo cambiar los servidores DNS en Windows, macOS, Linux, Android, iOS y routers


    Cuando esto ya viene resuelto desde el diseño

    Precisamente por esta complejidad, los servicios de correo empresarial bien diseñados ya contemplan estos registros por defecto. No como opciones avanzadas, sino como parte de la arquitectura base.

    En los servicios de correo empresarial de Nettix y Altira, SPF, DKIM, DMARC y rDNS no se agregan “si el cliente lo pide”. Se incluyen desde el inicio, porque un correo que no llega es un correo que no sirve.

    El valor real no está en enviar mensajes, sino en garantizar que sean aceptados.


    En conclusión

    El correo electrónico moderno no funciona por confianza implícita, sino por verificación técnica. Y esa verificación ocurre en una capa que muchos no miran hasta que algo falla: el DNS.

    Cuando un correo no llega, casi nunca es casualidad. En la mayoría de los casos, es una identidad mal definida. En SCI WebHosting insistimos en una idea simple:

    los problemas de correo empiezan mucho antes de que el usuario escriba el mensaje.

  • Cómo cambiar los servidores DNS en Windows, macOS, Linux, Android, iOS y routers

    Cómo cambiar los servidores DNS en Windows, macOS, Linux, Android, iOS y routers

    Cambiar los servidores DNS es una de las configuraciones más simples que puedes aplicar en un sistema, pero también una de las más incomprendidas. A diferencia de otras optimizaciones, no requiere instalar software ni modificar componentes críticos, y puede revertirse en segundos.

    Este artículo explica exactamente cómo hacerlo, sistema por sistema, y en qué casos conviene aplicar el cambio.

    Antes de empezar: qué implica cambiar DNS

    Al modificar los DNS, estás decidiendo qué servidores responden cuando tu equipo necesita traducir un dominio en una dirección IP. Por defecto, esta tarea la realiza el proveedor de Internet. Cambiarlo implica usar resolvers alternativos, una práctica conocida como bypass DNS.

    Servidores DNS que puedes usar (ejemplos)

    Antes de aplicar los cambios, elige uno de estos pares:

    • Cloudflare DNS: 1.1.1.1 / 1.0.0.1
    • Google Public DNS: 8.8.8.8 / 8.8.4.4
    • Quad9: 9.9.9.9 / 149.112.112.112
    • OpenDNS: 208.67.222.222 / 208.67.220.220

    Puedes usar cualquiera; el procedimiento es el mismo.

    Cómo cambiar DNS en Windows (10 / 11)

    1. Abre ConfiguraciónRed e Internet
    2. Entra a Configuración de red avanzada
    3. Haz clic en Más opciones del adaptador
    4. Clic derecho sobre tu conexión activa → Propiedades
    5. Selecciona Protocolo de Internet versión 4 (IPv4)Propiedades
    6. Marca Usar las siguientes direcciones de servidor DNS
    7. Ingresa:
      • DNS preferido
      • DNS alternativo
    8. Acepta y cierra

    El cambio es inmediato. No necesitas reiniciar.


    Cómo cambiar DNS en macOS

    1. Abre Configuración del sistema
    2. Entra en Red
    3. Selecciona la conexión activa (Wi-Fi o Ethernet)
    4. Haz clic en DetallesDNS
    5. Presiona + y añade los servidores DNS
    6. Elimina los DNS anteriores si deseas
    7. Guarda los cambios

    macOS prioriza el orden: el primer DNS será el principal.


    Cómo cambiar DNS en Linux

    En sistemas con entorno gráfico (Ubuntu, Mint, etc.)

    1. Abre Configuración
    2. Ve a Red
    3. Selecciona la conexión activa
    4. Edita la sección IPv4
    5. Cambia DNS automático por manual
    6. Ingresa los DNS separados por coma
    7. Guarda

    En servidores o sistemas sin GUI

    Edita el archivo:

    sudo nano /etc/resolv.conf

    Agrega:

    nameserver 1.1.1.1
    nameserver 1.0.0.1

    Guarda y cierra.

    ⚠️ Algunas distribuciones sobrescriben este archivo automáticamente; en entornos avanzados conviene usar systemd-resolved o NetworkManager.


    Cómo cambiar DNS en Android

    Método clásico (Wi-Fi)

    • Ve a AjustesWi-Fi
    • Mantén presionada la red actual
    • Selecciona Modificar red
    • Activa Opciones avanzadas
    • Cambia IP automática por Estática
    • Ingresa DNS 1 y DNS 2
    • Guarda

    Método moderno (DNS privado

    • Ve a AjustesRed e Internet
    • Entra a DNS privado
    • Selecciona Nombre de host del proveedor
    • Ingresa por ejemplo:
      • one.one.one.one (Cloudflare)
    • Guarda

    Cómo cambiar DNS en iOS (iPhone / iPad)

    1. Ve a AjustesWi-Fi
    2. Toca la i de la red conectada
    3. Entra a Configurar DNS
    4. Cambia de Automático a Manual
    5. Elimina DNS existentes
    6. Añade los nuevos
    7. Guarda

    El cambio solo afecta a esa red Wi-Fi.


    Cambiar DNS directamente en el router (recomendado)

    • Accede al router desde el navegador (ej. 192.168.1.1)
    • Inicia sesión
    • Busca WAN, Internet o Network Settings
    • Localiza DNS primario / secundario
    • Ingresa los DNS elegidos
    • Guarda y reinicia el router

    Este método aplica el DNS a todos los dispositivos conectados.


    Si el cambio no funciona de inmediato

    Es posible que el sistema siga usando respuestas antiguas almacenadas en la caché DNS.

    En Windows puedes limpiar la caché con:

    ipconfig /flushdns

    Advertencia de seguridad

    Elegir servidores DNS poco confiables puede exponer al usuario a redirecciones maliciosas y ataques invisibles. Este riesgo está directamente relacionado con el envenenamiento DNS, donde las respuestas de resolución son manipuladas.


    En conclusión

    Cambiar los DNS no es complicado, pero sí es una decisión técnica real. Saber cómo hacerlo evita errores, y entender por qué hacerlo evita riesgos.

    En SCI WebHosting creemos que la tecnología debe explicarse hasta que pueda aplicarse con seguridad. El DNS es invisible… hasta que deja de funcionar bien.

  • Mejores servidores DNS: qué ganas (y qué arriesgas) al cambiar el DNS de tu proveedor

    Mejores servidores DNS: qué ganas (y qué arriesgas) al cambiar el DNS de tu proveedor

    Cambiar el DNS suele presentarse como un truco rápido para “mejorar Internet”. Basta con copiar dos números, guardarlos y listo. Pero el DNS no es solo una preferencia técnica menor: es una de las capas invisibles que decide cómo llegas a los sitios, qué tan expuesto estás y en quién confías cuando navegas.

    Antes de cambiar nada, conviene entender qué estás modificando realmente cuando dejas el DNS de tu proveedor.

    El DNS no es neutral (y casi nunca lo pensamos)

    Por defecto, la mayoría de dispositivos usan los DNS del proveedor de Internet. Eso significa que tu ISP sabe qué dominios consultas y puede aplicar bloqueos, redirecciones o políticas técnicas que no siempre son visibles para el usuario.

    Cambiar de DNS implica elegir otro intermediario para esa traducción. Esta decisión, conocida como bypass DNS, no es ilegal ni oscura: es simplemente optar por quién responde cuando preguntas “¿dónde está este sitio?”.

    Qué se gana al cambiar el DNS del proveedor

    Los beneficios más comunes se agrupan en tres áreas: velocidad, seguridad y privacidad. No todos los servidores DNS priorizan lo mismo, por lo que no existe una opción universal.

    Además, el efecto del cambio no siempre es inmediato. Sistemas operativos, navegadores y routers usan caché DNS, lo que puede hacer que sigas viendo resultados antiguos durante un tiempo.

    Alternativas reales de servidores DNS (según lo que buscas)

    Aquí es donde el artículo se vuelve práctico. Estas son algunas de las opciones más utilizadas, agrupadas por enfoque, no por “ranking”.


    DNS enfocados en velocidad y tecnología moderna

    Cloudflare DNS (1.1.1.1 / 1.0.0.1) es conocido por su baja latencia y soporte de DNS sobre HTTPS y DNS sobre TLS. Google Public DNS (8.8.8.8 / 8.8.4.4) prioriza disponibilidad y estabilidad global.


    DNS con enfoque en seguridad

    Quad9 (9.9.9.9) bloquea dominios maliciosos conocidos y no registra consultas personales. OpenDNS (208.67.222.222) permite aplicar políticas de filtrado y protección adicional, especialmente útil en entornos familiares o empresariales.


    DNS con filtrado de contenido y control

    Servicios como CleanBrowsing o AdGuard DNS bloquean anuncios, malware o contenido para adultos, pensados para usuarios que buscan control más que velocidad pura.


    Elegir uno u otro no es una cuestión de “mejor”, sino de contexto y prioridades.

    Los riesgos de elegir mal un DNS

    Cambiar de DNS también implica trasladar la confianza a un nuevo actor. Si el servidor elegido es poco transparente o está comprometido, puede redirigir tráfico a sitios falsos sin que el usuario lo note.

    Muchos ataques silenciosos parten de respuestas DNS manipuladas, un fenómeno conocido como envenenamiento DNS.

    Cómo cambiar los DNS en la práctica (sin entrar en tecnicismos)

    Cambiar los DNS es más sencillo de lo que parece, y se puede revertir en cualquier momento.

    En la mayoría de sistemas, basta con acceder a la configuración de red, editar la conexión activa y reemplazar los DNS automáticos por direcciones manuales. Este cambio puede hacerse a nivel de dispositivo (computadora o teléfono) o directamente en el router, lo que afecta a toda la red.

    El proceso varía ligeramente entre Windows, macOS, Linux, Android, iOS y routers, pero el principio es el mismo: indicar qué servidores deben responder a las consultas DNS.

    Sugerimos leer: “Cómo cambiar los servidores DNS en Windows, macOS, Linux, Android, iOS y routers”

    Cuándo tiene sentido cambiar DNS (y cuándo no)

    Cambiar DNS es útil cuando el proveedor es lento, bloquea contenidos, responde mal o no ofrece medidas básicas de seguridad. En redes empresariales o domésticas complejas, el DNS forma parte de una estrategia más amplia que incluye firewalls, segmentación y monitoreo.

    En cambio, cambiar DNS esperando anonimato total o protección absoluta suele generar falsas expectativas. Es una mejora puntual, no una solución completa.

    En conclusión

    Los servidores DNS influyen más de lo que parece en la experiencia diaria de Internet. Cambiarlos puede aportar velocidad, control o seguridad, pero también introduce nuevas dependencias.

    No se trata de usar “el DNS de moda”, sino de entender qué hace cada uno y por qué lo estás eligiendo. En SCI WebHosting creemos que las decisiones técnicas valen más cuando se entienden, incluso en capas tan invisibles como el DNS.

  • Centros de datos: Tier, energía y ubicación clave

    Centros de datos: Tier, energía y ubicación clave

    Los centros de datos suelen presentarse como infraestructuras invisibles: están ahí, siempre encendidos, y rara vez pensamos en ellos hasta que algo falla. Pero detrás de esa aparente neutralidad técnica hay decisiones muy concretas que determinan si un servicio aguanta una caída de red, si una plataforma resiste un corte eléctrico o si una empresa puede cumplir (o no) con la normativa que le aplica. Por eso, hablar de centros de datos no es hablar de “metros cuadrados con servidores”, sino de estándares de resiliencia, de acceso a energía confiable y de una ubicación que condiciona latencia, costes y obligaciones legales.

    Tier y resiliencia: el estándar detrás de la promesa

    La palabra Tier se ha convertido en una especie de sello rápido para resumir la “calidad” de un centro de datos. Sin embargo, no es un adorno de marketing: es una forma de describir la arquitectura de redundancia y el nivel de tolerancia a fallos, es decir, cuánto puede romperse sin que el servicio se caiga. En la práctica, el Tier habla de rutas eléctricas, sistemas de refrigeración, componentes duplicados y capacidad de mantener operaciones ante mantenimientos o incidentes. Es importante porque traduce ingeniería en expectativas: disponibilidad, continuidad y riesgo.

    Entender el Tier como promesa de resiliencia exige ir más allá del número. Un Tier más alto suele implicar mayor redundancia y menos puntos únicos de fallo, pero también más complejidad operativa y, por supuesto, más coste. No todo necesita el mismo nivel: una plataforma crítica con transacciones en tiempo real no tiene el mismo perfil que un entorno de desarrollo o un repositorio de copias de seguridad con ventanas amplias. La pregunta editorial no es “¿cuál es el Tier más alto?”, sino “¿qué nivel de interrupción es aceptable para el negocio y cuánto se está dispuesto a pagar por reducirlo?”.

    Además, el Tier no lo explica todo. La resiliencia real también depende de la operación diaria: procedimientos, monitoreo, disciplina de cambios, mantenimiento preventivo y capacidad de respuesta ante incidentes. Un diseño redundante puede degradarse si se gestiona mal, y un diseño más modesto puede rendir bien si la operación es rigurosa. Por eso, cuando se evalúa un centro de datos conviene poner el Tier en su lugar: como un marco útil para discutir continuidad, no como una garantía absoluta que reemplaza la gestión del riesgo.

    Energía, conectividad y ley: elegir bien el lugar

    La ubicación importa porque los centros de datos viven de dos cosas: electricidad y conectividad. La energía no es solo “precio por kWh”; es estabilidad de la red, disponibilidad de alimentación redundante, capacidad de crecimiento y tiempo de respuesta ante incidencias. En un contexto de electrificación creciente y tensión sobre las redes, elegir un lugar con buena infraestructura eléctrica puede ser la diferencia entre planificar expansión o quedarse atascado por límites de capacidad. Y a eso se suma la huella ambiental y los compromisos de sostenibilidad, que ya no son un “extra” reputacional: cada vez más son requisito contractual o regulatorio.

    La conectividad, por su parte, define el rendimiento percibido por usuarios y sistemas. No es lo mismo estar cerca de los grandes nodos de intercambio de tráfico (IXPs), de rutas troncales y de múltiples operadores, que depender de pocas salidas y trayectos largos. La latencia se vuelve un factor estratégico: afecta experiencia de usuario, sincronización entre sedes, replicación de datos y viabilidad de arquitecturas híbridas o multirregión. Y no se trata solo de “tener fibra”: importa la diversidad de rutas, la redundancia física, el ecosistema de carriers y la capacidad de interconexión eficiente con nubes públicas y socios.

    Luego está el componente menos visible, pero decisivo: la legislación. La localización del dato puede activar obligaciones específicas sobre privacidad, retención, auditoría, soberanía digital y notificación de incidentes. Normas como GDPR en Europa, o marcos sectoriales (finanzas, salud, administración pública) condicionan dónde puede residir la información y bajo qué controles. Además, el país o región elegida impacta en aspectos prácticos: permisos, fiscalidad, estabilidad regulatoria, restricciones a transferencias internacionales y hasta exposición a riesgos geopolíticos. En última instancia, ubicar un centro de datos —o elegir dónde alojar cargas— es una decisión técnica y legal a la vez.

    Pensar en centros de datos es pensar en compromisos: entre disponibilidad y coste, entre proximidad y redundancia geográfica, entre rapidez de despliegue y cumplimiento normativo. El Tier ayuda a poner nombre a la resiliencia, pero la ubicación define el terreno donde esa promesa se sostiene: energía suficiente, conectividad robusta y un marco legal compatible con el negocio. Por eso, la pregunta correcta no es si un centro de datos “es bueno” en abstracto, sino si su diseño y su lugar encajan con lo que la organización realmente necesita proteger: continuidad, rendimiento y responsabilidad.

  • Servidores dedicados: cuándo realmente los necesitas (y cuándo no)

    Servidores dedicados: cuándo realmente los necesitas (y cuándo no)

    El servidor dedicado ha tenido, durante años, un aura casi mítica. Para muchas empresas representa el “siguiente nivel”, la sensación de estar jugando en una liga mayor, con una máquina completa solo para uno, sin vecinos, sin compartir nada. Y aunque esa imagen tiene algo de cierto, también está cargada de decisiones que no siempre se analizan con calma.

    Porque no todo proyecto necesita un servidor dedicado, y no todo el que lo contrata está preparado para lo que implica mantenerlo.

    La promesa del control absoluto

    Un servidor dedicado es, en esencia, hardware físico asignado a un solo cliente. CPU, memoria, discos y red están ahí exclusivamente para ese entorno. No hay sobreventa, no hay competencia interna por recursos, no hay dudas sobre quién consume qué. Sin embargo, modelos modernos de bare metal compartido con aislamiento real y correcta gestión de recursos (como se analiza en este enfoque de optimización en entornos bare metal) pueden ofrecer un rendimiento igualmente consistente.

    Esa exclusividad resulta atractiva, sobre todo para equipos técnicos que vienen de lidiar con entornos compartidos o VPS mal dimensionados. El problema aparece cuando se asume que más control siempre equivale a mejores resultados, sin evaluar el costo operativo que viene detrás.

    Cuando un VPS potente ya cubre el escenario

    En los últimos años, la virtualización ha avanzado lo suficiente como para que un VPS bien diseñado, con recursos generosos y aislamiento real —especialmente cuando se basa en tecnologías como KVM— cubra escenarios que antes parecían exclusivos del hardware dedicado. Aplicaciones empresariales, bases de datos medianas, servidores web con tráfico relevante o sistemas internos suelen funcionar de manera impecable sobre VPS robustos. En el contexto de pequeñas empresas, la verdadera cuestión suele ser si ese VPS será gestionado correctamente o terminará convirtiéndose en una carga silenciosa, como explicamos en ¿VPS o hosting gestionado para una pequeña empresa? Cuándo vale la pena y cuándo se convierte en una carga silenciosa (https://www.sciwebhosting.com/infraestructura/vale-la-pena-un-vps-para-una-pequena-empresa/).

    La diferencia, muchas veces, no está en el rendimiento, sino en la percepción. Un VPS potente, bien administrado, con almacenamiento rápido y buena red, puede ofrecer estabilidad y escalabilidad sin obligar a la empresa a asumir tareas de bajo nivel como firmware, discos defectuosos o monitoreo de hardware.

    Aquí es donde muchas decisiones se toman por costumbre y no por necesidad real.

    El costo que no aparece en la factura

    El precio mensual de un servidor dedicado rara vez cuenta toda la historia. A diferencia de un VPS, donde la infraestructura subyacente suele estar abstraída, el dedicado trae consigo responsabilidades adicionales. Fallas de disco, reemplazos, reinicios físicos, tiempos de intervención y planificación de capacidad dejan de ser problemas “del proveedor” y pasan a formar parte del día a día.

    Si la empresa no cuenta con un equipo técnico preparado para esto, el costo oculto no es solo económico. Es tiempo, estrés operativo y dependencia constante del soporte.

    Muchas organizaciones descubren tarde que necesitaban infraestructura confiable, no necesariamente infraestructura propia.

    Los escenarios donde el dedicado sí tiene sentido

    Hay casos donde el servidor dedicado no es un lujo, sino una herramienta adecuada. Cargas extremadamente intensivas, necesidades específicas de hardware, altos volúmenes de I/O sostenido, requisitos de cumplimiento muy estrictos o arquitecturas que no toleran virtualización suelen justificar esta elección.

    También tiene sentido cuando existe un equipo técnico capaz de administrar el entorno, anticipar fallos y diseñar redundancia real. En estos contextos, el dedicado deja de ser un riesgo y se convierte en una base sólida.

    El problema aparece cuando se contrata como solución genérica a problemas que en realidad son de arquitectura.

    Administración: la frontera que muchos subestiman

    Uno de los mayores errores es pensar que el servidor dedicado “se administra solo”. En realidad, exige más atención, más monitoreo y más decisiones. Parcheo, seguridad, backups, planes de contingencia y crecimiento dejan de ser abstractos.

    Un VPS administrado suele ocultar gran parte de esa complejidad. Un dedicado la expone por completo. Para algunas empresas eso es una ventaja. Para otras, es una carga innecesaria.

    Elegir infraestructura con madurez

    El verdadero dilema no es dedicado versus VPS. Es entender qué tipo de problema se está resolviendo. Muchas veces, una infraestructura bien pensada, basada en VPS potentes, nube privada y buena administración, ofrece más estabilidad y previsibilidad que un servidor dedicado mal aprovechado.

    Elegir un dedicado por reflejo, por prestigio o por miedo a compartir recursos suele ser una decisión emocional, no técnica. Elegirlo porque el proyecto lo exige, porque el equipo está preparado y porque los costos están claros, es otra historia muy distinta.

    Al final, el servidor dedicado no es el destino natural de todo crecimiento. Es una herramienta específica, poderosa, pero exigente. Saber cuándo usarla —y cuándo no— es parte de la madurez tecnológica de cualquier organización. Si este tema te interesa, también puede resultarte útil leer Hosting no es infraestructura: el error más común que causa caídas, correos perdidos y sitios lentos, donde profundizamos en una confusión que suele estar en el origen de muchas malas decisiones técnicas.