Como todo buen gorrón me gusta las cosas gratis y fáciles, sobre todo cuando se tiene una serie de 24 capítulos que se quiere descargar sin estar pendiente rellenando captchas, y aunque las cuentas premiun no son tan caras, la verdad no me apetece gastarme una platica en algo que voy a utilizar muy rara vez, así que hice lo que cualquier persona normal haría, juntar un montón de software libre y pegarlos con un poco de python y voila mi propio gestor de descarga con reconocimiento de captchas (solo megaupload), ya se que hay muchos programas que hacen lo mismo y ademas libres (
Tucan por ejemplo), pero usarlos no seria tan divertido, así que me puse a recolectar los materiales para mi "manualidad". Gestor de descargas ya tenia y no podía ser mejor que 
wget, solo faltaba el reconocimiento de caracteres, 
ocr que llaman; después de un poco de búsqueda apareció 
tesseract que sin lugar a dudas es el mejor programa de reconocimiento de caracteres que haya visto hasta el momento. Solo faltaban algunas librerías como 
pytesser para "comunicarse" con tesseract y  
libxml2dom (requiere 
libxml2) para consultar el dom en documentos aun cuando estos estén mal formados.
Como ven, lo bonito del software libre es que con tan solo una búsqueda nos encontramos con programas maravillosos, los cuales podemos utilizar sin ninguna restricción (sí, ya se que esto no es completamente cierto). Ahora si, con ustedes el script:
import libxml2dom
import urllib2
import urllib
import pytesser
import Image
MAX_TRY = 5 # intentos antes de rendirse
WAIT_TIME = 45 # tiempo de espera en segundos
CAPTCHA_INPUT_NAME = "captcha"
TEMP_FILE_NAME   = "tempImg.gif"
ID_DOWNLOAD_LINK = "downloadlink"
def urlopen(url, data={}):
 """Abrir un recurso remoto, si se pasa data se envía por POST"""
 req = urllib2.Request(url, urllib.urlencode(data) if data else None)
 try:
  sock = urllib2.urlopen(req)
  try:
   data = sock.read()
  finally:
   sock.close()
 except IOError:
  print "el archivo no existe"
 else:
  return data
def html2dom(page):
 """Retornar representación DOM de un documento html"""
 dom = libxml2dom.parseString(page, html=1)
 return dom
def tag(elem, tag):
 """Encontrar descendientes de un elementos por su tag"""
 elements = elem.getElementsByTagName(tag)
 return elements[0] if len(elements) == 1 else elements
 
def id(elem, Id):
 return elem.getElementById(Id)
 
def attr(elem, attr):
 """Retornar atributo de un elemento"""
 return elem.getAttribute(attr)
def save_img(uri):
 """Guardar imagen en local"""
 data = urlopen(uri)
 temp = file(TEMP_FILE_NAME, 'wb')
 temp.write(data)
 temp.close()
def resolver_captcha():
 """Resolver captcha"""
 data = Image.open(TEMP_FILE_NAME)
 return pytesser.image_to_string(data)[:4]
def fill_form(page):
 """Recolectar datos de formulario"""
 try:
  form = tag(page, 'form')
  img = tag(form, 'img')
  save_img(attr(img, "src"))
 
  # crear diccionario valores a enviar
  data = dict([(attr(i, 'name'),attr(i, 'value')) for i in tag(form, 'input')])
  # "rellenar" campo captcha
  captcha = resolver_captcha()
  data[CAPTCHA_INPUT_NAME] = captcha
 except:
  return None
 else:
  return (data, captcha)
# Donde la magia sucede XD
def get(url):
 """Descargar archivo"""
 times = 1
 # solo links de megaupload
 if url.find('http://www.megaupload.com/') != 0:
  print "%s no es un link de megaupload" % url
  return 0
  
 # Abrir pagina de formulario
 page = html2dom( urlopen(url) )
 while True:
  # llenamos el formulario
  data, captcha = fill_form(page)
  
  if not data or times == MAX_TRY:
   print "Error al abrir %s, puede que el link haya sido deshabilitado" % url
   return 0
  print "%s ==> intento %d\ncaptcha = %s" % (url, times, captcha)
  times += 1
  # Enviamos formulario por POST
  page = html2dom( urlopen(url, data) )
  
  # Si el captcha esta correcto obtenemos la página de descarga
  download_page = id(page, ID_DOWNLOAD_LINK)
  
  if download_page:
   download_link = tag( download_page , 'a' )
   import subprocess, time
   
   # please wait.... XD
   time.sleep(WAIT_TIME)
   args = ['wget', '-c', attr(download_link, 'href')]
   
   # empezamos a descargar ^_^
   proc = subprocess.Popen(args)
   retcode = proc.wait()
   return 1
   
def get_from_file(file_path):
 """descargar múltiples archivos leyendo urls almacenadas en un archivo"""
 try:
  sock = file(file_path)
  try:
   lines = sock.readlines()
  finally:
   sock.close()
 except IOError:
  print "el archivo %s no existe" % file_path
 else:
  for line in lines:
   url = line.strip()
   if url:
    get( url )
if __name__ == "__main__":
 import sys
 arg = sys.argv[1:]
 
 if arg[0] == "-f":
  get_from_file(arg[1])
 elif "http" in arg[0]:
  get(arg[0])
 else:
  print "uso:\nmget link_descarga\nmget -f /ruta/archivo/links_descarga\n" 
Claro que le hacen falta algunas funcionalidades, pero para lo que lo necesito me basta y me sobra, ademas como ya dije existe una gran variedad de programas que hacen lo mismo. Si lo desean pueden descargar los archivos desde el siguiente enlace:
P.D.: Se aceptan criticas, solo no sean tan duros XD