segunda-feira, 25 de junho de 2012

NMAP 6.0 – você só sabe das novidades quando precisa delas

Saiu o NMAP 6.0 há algum tempo. Eu sei, eu sei, não falei à respeito porque não achei interessante, na época. Mudei de ideia depois de terem feito uma cagada e eu achar em uma de suas novas features uma luz no fim do túnel.
Pois bem, as principais features adicionadas a esta nova versão são (tudo em inglês hein, vamos valorizar o CCA que as suas mães pagaram):
  • NSE Enhanced – The Nmap Scripting Engine (NSE) has exploded in popularity and capabilities. This modular system allows users to automate a wide variety of networking tasks, from querying network applications for configuration information to vulnerability detection and advanced host discovery. The script count has grown from 59 in Nmap 5 to 348 in Nmap 6, and all of them are documented and categorized in our NSE Documentation Portal. The underlying NSE infrastructure has improved dramatically as well.
  • Better Web Scanning – As the Internet has grown more web-centric, Nmap has developed web scanning capabilities to keep pace. When Nmap was first released in 1997, most of the network services offered by a server listened on individual TCP or UDP ports and could be found with a simple port scan. Now, applications are just as commonly accessed via URL path instead, all sharing a web server listening on a single port. Nmap now includes many techniques for enumerating those applications, as well as performing a wide variety of other HTTP tasks, from web site spidering to brute force authentication cracking. Technologies such as SSL encryption, HTTP pipelining, and caching mechanisms are well supported.
  • Full IPv6 Support – Given the exhaustion of available IPv4 addresses, the Internet community is trying to move to IPv6. Nmap has been a leader in the transition, offering basic IPv6 support since 2002. But basic support isn’t enough, so we spent many months ensuring that Nmap version 6 contains full support for IP version 6. And we released it just in time for the World IPv6 Launch. We’ve created a new IPv6 OS detection system, advanced host discovery, raw-packet IPv6 port scanning, and many NSE scripts for IPv6-related protocols. It’s easy to use too—just specify the -6 argument along with IPv6 target IP addresses or DNS records. In addition, all of our web sites are now accessible via IPv6. For example, Nmap.org can be found at 2600:3c01::f03c:91ff:fe96:967c.
  • New Nping Tool – The newest member of the Nmap suite of networking and security tools is Nping, an open source tool for network packet generation, response analysis and response time measurement. Nping can generate network packets for a wide range of protocols, allowing full control over protocol headers. While Nping can be used as a simple ping utility to detect active hosts, it can also be used as a raw packet generator for network stack stress testing, ARP poisoning, Denial of Service attacks, route tracing, etc. Nping’s novel echo mode lets users see how packets change in transit between the source and destination hosts. That’s a great way to understand firewall rules, detect packet corruption, and more.
  • Better Zenmap GUI results viewer – While Nmap started out as a command-line tool and many (possibly most) users still use it that way, we’ve also developed an enhanced GUI and results viewer named Zenmap. One addition since Nmap 5 is a “filter hosts” feature which allows you to see only the hosts which match your criteria (e.g. Linux boxes, hosts running Apache, etc.) We’ve also localized the GUI to support five languages besides English. A new script selection interface helps you find and execute Nmap NSE scripts. It even tells you what arguments each script supports.
  • Faster scans – In Nmap’s 15-year history, performance has always been a top priority. Whether scanning one target or a million, users want scans to run as fast as possible without sacrificing accuracy. Since Nmap 5 we’ve rewritten the traceroute system for higher performance and increased the allowed parallelism of the Nmap Scripting Engine and version detection subsystems. We also performed an intense memory audit which reduced peak consumption during our benchmark scan by 90%. We made many improvements to Zenmap data structures and algorithms as well so that it can now handle large enterprise scans with ease.
Vocês poderão baixá-lo nos seguintes links:
Linux: nmap-6.00.tar.bz2
Windows: nmap-6.00-win32.zip

terça-feira, 19 de junho de 2012

Linus Torvalds manda Nvidia se fuder

Este vídeo já é um clássico e o motivo disso é bem simples, o senhor Linus Torvalds, aquele cara que quando tinha lá pelos seus 18 anos criou o Linux, mandou, nada mais nada menos, a Nvidia tomar no cu.
Correram direto para o ponto 49:30 e vejam só.
Isso é um clássico… hehehe – -dica do amigo @ragiovanini

Site do RIO+20 fora do ar a partir de quarta-feira

Um ataque em massa está agendado para essa próxima quarta-feira, 20 de junho, contra diversos sites que participam do evento RIO+20. O mais interessante disso tudo é que foi confirmada a …. Esta parte foi censurada para não gerar problemas ao blog. Digamos que será uma surpresa e tanto para todos os envolvidos
E aí, o que fazer ? Pois bem, sabemos que se defender de ataques DDoS não é uma das coisas mais simples do mundo. Você precisa de muito link para conseguir isso. Eu sugiro migrarem os principais sites para debaixo da Amazon.
E para a surpresa (parte censurada para não gerar problemas ao blog) ? Well, a coisa é bem mais complicada. (parte censurada para não gerar problemas ao blog) – Lembram do ataque contra o coruja nas vésperas do H2HC do ano passado ? Pois bem, o pessoal teve um trabalhinho para conseguir achar (parte censurada para não gerar problemas ao blog)
O pessoal da RIO+20 deverá passar pelo (parte censurada para não gerar problemas ao blog) na quarta, boa sorte !!:(
P.S.: Tudo isso que estou reportando só será evidenciado na quarta-feira. Só escrevi essas informações para deixar o pessoal que administra os portais do evento ligados, espertos, antenados e preparados.
P.S.S.: O pessoal sabe que não sou de publicar hoax por aqui, então, acompanhem….
Atualizações mais tarde…
Atualização.
Então, o pessoal encontrou um 0-day no Joomla que você consegue simplesmente criar umaconta de administrador, ok ? Blz, então. Daí, a mesma galera descobriu que o site do RIO+20 está hospedado no mesmo servidor do Incra. Até aí tudo bem, né?
Então veja o printscreen abaixo:
Bom, isso aí é um pulo para subir uma Wshell, correto ?!
Well, as cenas dos próximos capítulos serão divulgadas nas próximas horas — to vendo que isso vai dar merda..
Atualização fresquinha – já instalaram uma Wshell no servidor do incra e conseqüentemente, no rio+20 — agora ferrou de vez..
P.S.:  Acabaram de me informar que um e-mail com a falha/vulnerabilidade foi enviado aos administradores responsáveis pelo site e que nenhum dado e informação foram alterados, até agora.
Este tipo de vulnerabilidade, quando encontrada e explorada, deve ser reportada imediatamente aos administradores do site, isso porque os seus descobridores são pesquisadores.

sábado, 16 de junho de 2012

Backtrack4-HandBook de Comandos-Edicao1-rev1.0.0 – Download Grátis

O Mauro risonho liberou o download do livro Backtrack4-HandBook de Comandos-Edicao1-rev1.0.0. Vejam o post falando a respeito:
Em 2009, criei este livro com autorização do Mutts (CEO) do Backtrack-linux.org, para ajudar nos custos de hospedagem do projeto, viagens para palestrar e outros custos para o projeto Backtrack Brasil – o qual está desativado.
Você pode fazer download:

Backtrack 5.2 – muita coisa nova

Saiu a nova versão da distribuição Linux focada em segurança mais utilizada pela galera. Backtrack está com Kernel novo e uma serie de novas ferramentas, vejam a lista:
  • arduino
  • bluelog
  • bt-audit
  • dirb
  • dnschef
  • dpscan
  • easy-creds
  • extundelete
  • findmyhash
  • golismero
  • goofile
  • hashcat-gui
  • hash-identifier
  • hexorbase
  • horst
  • hotpatch
  • joomscan
  • killerbee
  • libhijack
  • magictree
  • nipper-ng
  • patator
  • pipal
  • pyrit
  • reaver
  • rebind
  • rec-studio
  • redfang
  • se-toolkit
  • sqlsus
  • sslyze
  • sucrack
  • thc-ssl-dos
  • tlssled
  • uniscan — ferramenta Brasileira — Show…
  • vega
  • watobo
  • wcex
  • wol-e
  • xspy
A maioria dos ataques e pentests são realizados com a ajuda desta distribuição que pode ser baixada a partir deste link.

NSA está construído a maior rede para espionagem cibernética do mundo ?

A revista Wired deste mês trás uma reportagem exclusiva sobre o que o governo americano vem criando para monitorar a Internet. A NSA, agência americana focada em segurança e que durante décadas foi negada a sua existência, hoje é responsável por monitorar boa parte, se não, quase tudo que das vidas dos americanos. Estou falando de ligações telefônicas e é claro, o ciberespaço.
No ano passado já se especulava sobre o motivo pelo qual a agência em questão estava investindo rios de dinheiro na aquisição de um storage com capacidade Yotta – veja na tabela abaixo, que foi retirada do wikipédia, explicando o que significa um storage com capacidade Yotta — dá para colocar muita música e conteúdo adulto nele:
Wired conseguiu informações exclusivas e bem interessantes quanto ao datacenter da NSA que está sendo construído no estado do UTAH/EUA e que tem um custo de US$ 2 bilhões. Este novo complexo, vejam pelas fotos abaixo, será o gerenciador de toda a informação coletada pelos outros centros de dados da NSA, e pelo que entendi até agora, ele será o responsável pela análise dos dados.
Os EUA já está na casa dos 400 milhões de habitantes. A quantidade de dados gerados por estas pessoas a cada segundo é alarmante. O governo sabe disso e muito bem. Somado a isso, coloque aí os seus inimigos do outro lado do mundo. Já deu para imaginar a quantidade de dados que os EUA precisa analisar a cada instante.. ?!
O problema disso tudo é a invasão de privacidade que isso gera. Ela é sem limites e sem fins. Já era ruim antes do 11 de setembro, depois com o ato patriótico, ela ficou pior ainda.
“The NSA has become the largest, most covert, and potentially most intrusive intelligence agency ever” é uma frase que não é novidade para ninguém. Sabemos que governos utilizam-se de todos os meios para garantirem a sua soberania e controlar a informação é a melhor forma de exercer isso.
A imagem acima dá detalhes quanto o que é e faz cada prédio do novo complexo de ciberespionagem que está sendo mutando no estado do UTAH/EUA pela NSA.
A imagem acima já demonstra todos os centros da NSA existentes e como será, a partir de setembro de 2013, quando este novo complexo de UTAH for entregue.
Focando mais no lado de TI, o pessoal que projetou este complexo passou algumas informações bem interessantes:
Toda a rede do complexo será 10Gibabit, o que me remete a seguinte pergunta “Isso será suficiente ?”. Galera, já há equipamentos que falam 40Gigabit/s e até mesmo 100Gigabit/s. Para tratar uma massa de dados como essa eu partiria para o que há de melhor em tecnologia. 10Gigabit já dá para ter em casa :)
Quando o assunto é performance de disco, hoje eu não vejo outra alternativa que não seja utilizar SSDs. São os mais rápidos, mas infelizmente a densidade não passou dos 480GB, até agora.
A reportagem fala e muito em poder de processamento e até deixa de forma subentendida que o governo americano poderá criar o computador/cluster mais rápido do mundo em UTAH. Eu acredito que isso será feito e é necessário. Os EUA precisará e rápido de um alto poder de processamento e de forma escalável. Não se esqueçam que estamos mais do que duplicando a quantidade de dados gerados a cada ano :)
Eu só fico imaginando a quantidade e o tipo de informação que o governo americano tem acesso. Depois o pessoal fala que deep web é balela.

Como proteger o e-mail corporativo na nuvem? Artigo da PP – muito bom

A Patrícia Peck é uma advogada conhecida e respeitada quando o assunto é Direito Digital. Alguns dos seus artigos são controversos, principalmente entre aqueles que trabalham com TI e vivenciam o dia a dia de uma grande operação.
Não posso negar que advogados ainda patinam nesse tema, direito digital. É fácil falar sobre leis, jurisprudência, mas quando há algo de técnico no meio, a maioria dos doutores se enrola, e um dos temas mais discutidos é o título do último post da Patrícia Peck “Como proteger o e-mail corporativo na nuvem?”
O artigo é mais do que recomendado para aqueles que trabalham ou irão trabalhar com este tipo de serviço suportado by Cloud e que ainda se pergunta “Quem é responsável pela integridade e segurança dos dados contidos em meus e-mails e que ficarão armazenados na nuvem?”
Fica claro no artigo da Peck que as empresas veem em cloud computing a solução técnica e financeira para a maioria dos seus problemas, mas esquecem que não há um amadurecimento e nem uma segurança daquilo que será armazenado fora de seus domínios.
O ponto no artigo que fala sobre contratos está muito bom, só acho que faltou colocar que são raras as exceções em que o fornecedor do serviço de cloud computing altera o seu contrato para um cliente, para que o mesmo possa se enquadrar nas políticas e normas desta empresa. Trabalho com grandes empresas há 10 anos e só vi isso acontecer 3 vezes.
Em resumo, quer aprender e entender sobre e-mail coportativo na nuvem ? Então leia este artigo Como proteger o e-mail corporativo na nuvem?”

quarta-feira, 13 de junho de 2012

Versão III do Desafio Hacker no ar

O projeto DesafioHacker foi criado por Alan Sanches em novembro de 2010 com a ideia de praticar ataques direcionados ao VPS com um hardening básico.
Até o momento, ninguém conseguiu invadi-lo e nesta nova versão, a ideia é diferente.– :)
O DesafioHacker agora disponibiliza um Wargame nível 1 (básico) para que usuários possam colocar em prática seus conhecimentos e discutir estratégias.
Assim que 10 pessoas finalizarem o nível básico, um outro Wargame será lançado com questões de níveis moderados, valendo prêmios e cursos.
Quando essa fase for superada, teremos um Wargame de nível avançado, onde irá valer dinheiro vivo aos ganhadores.
Neste Wargame envolve conhecimentos de manipulação de conteúdo à engenharia social.
Faça um teste de seu conhecimento em www.desafiohacker.com.br
P.S.: Comentário do autor deste blog.
A primeira versão do desafio hacker chamou e muito a atenção da comunidade de segurança. O pessoal tentou várias vezes invadir o projeto do Alan, mas todos sabem que foi sem sucesso. Depois, começaram os ataques DDoS e disseram que o site dele não parava no ar. Piada né. Po, se não consegue invadir, então pare com a babaquice de executar um ataque desses.
Agora, o pessoal está pegando o Alan para cristo – Estão executando uma série de defacements por aí e colocando a culpa nele. O estranho disso tudo é que o cara é acessível e na dele. Acredito que o problema que o Alan esteja passando seja o fato dele não fazer parte da patotinha e nem puxe o saco de ninguém.

Senhas e mais senhas vazam por aí, e vc, o que tem a ver com isso ?


Pois bem, uma série de importantes sites sofreram e muito com o descaso de seus desenvolvedores. O linkedin deu uma baita vacilada com a sua integração mobile e simplesmente todas as senhas armazenadas de seus clientes e usuários foram roubadas. O pessoal entrou em pânico e por um bom motivo.
Boa parte da via de milhares de profissionais está no linkedin, e queria ou não queria, ele se tornou a avó de todo o planeta. Digo isso porque eu nunca encontrei um comentário negativo. Todo mundo é lindo e perfeito, engraçado isso né ?!
Voltando ao que interessa, o Last.FM também foi vítima e os amantes de música como eu, tiveram que mudar as suas senhas correndo. Mas você já parou para pensar do porque desta correria ?
A resposta é simples, devido ao descaso e a simplicidade que tentamos gerar para tudo ao nosso redor,  temos o costume de utilizar uma mesma senha para todos os serviços, sejam eles essenciais ou não. Então, eu não duvido nada que a senha que você utiliza no seu gmail seja a mesma do seu login do trabalho. Facilidade, simplicidade e comodismo, esses são alguns dos nossos maiores pecados. Hackers e Crackers sabem disso como ninguém.
E para resolver isso, o que fazer ? Simples, crie um algoritmo baseando-se em critérios específicos de cada site. Exemplo:
Para o Linkedin a senha seria L!kGust01.av)
Para o Last.fm ela seria desta forma L@sT.Gust@@1.FM
e assim por diante, mas não achem que esse seja o meu algoritmo, isso só foi um exemplo. Várias empresas e pessoas utilizam da mesma técnica, elas só não saem por aí contando para todo mundo.