yacy.56k.es – Montar un nodo Yacy – Un buscador p2p

Aquí dejo un par de notas de como montar yacy. He montado un nodo aquí: http://yacy.56k.es

# apt-get update
# apt-get install openjdk-8-jdk curl wget
# add user yacy
# su yacy
$ cd /home/yacy
$ wget https://yacy.net/release/yacy_v1.92_20161226_9000.tar.gz
$ tar xfvz yacy_v1.92_20161226_9000.tar.gz 
$ cd yacy
$ bash bin/passwd.sh admin
$ bash startYACY.sh

Una vez se monta se ha de ir al puerto 8090 y a disfrutar.
Y configurar empezando aquí: http://dominio:8090/ConfigBasic.html

Se mete el user admin y la password admin (o la que pusiesemos) y ya se puede configurar más tinglado.

User: admin
Password: admin

Inicialmente al buscar poco encontrarás. Pero conforme vas nutriendo al buscador (en la zona de crawling) con diferentes webs (yo por ejemplo he comenzado a meter wikipedia) pues la cosa va dando cada vez mejores resultados.

Poco puedo opinar sobre ello de momento. Solo comentar que si lo montas en local tendrás que abrir puertos (por ejemplo).

Saludos cordiales.

 

¿Le ha gustado el contenido?

Si le ha gustado y le ha sido de utilidad puede donar aquí https://paypal.me/mierdatv .  
También puede escribir un comentario si lo considera oportuno.  
 

Comentarios 3

  • Lo cierto es que lo he probado durante años pero siempre poco tiempo. Esta vez he montado el nodo para probarlo más a largo plazo.

  • Lo mismo me pasa. Pero siempre ando con unas preguntas sobre Yacy que las voy a hacer:
    – ¿Qué o cómo funciona la BD distribuida? Me explico, el número de nodos no es constante…¿Cómo sabe darle valor a un «scrapeo» frente a otro para que se mantenga en el BD pese a la perdida de nodos? ¿O cada nodo es responsable del «scrapeo» que ha puesto su usuario/a?
    – ¿Un nodo «scrapea» lo que tiene puesto en su lista de «scrapeo» o si le viene «una ordén de scrapeo» del enjambre de nodos?
    – ¿Hay alguna implementación que no sea Java?

  • Pues esta es Java. Desconozco si existe otra implementación que no sea Java.

    Un nodo scrapea lo que le dices que tenga que scrapear. Puede programarse o hacerse solamente una vez.

    Se puede activar permitir scrapear ordenes de otros nodos. Por defecto no viene activado. Si se activa es bueno limitarlo a que no sea demasiado.

    Cada nodo es responsable de lo que scrapea. La idea es que esté activo. Se puede montar por ejemplo sin hablar con otros nodos y las busquedas serán solamente locales.

    Es interesante por ejemplo no federar para que sean rapidas las búsquedas y no busque en nodos remotos. Por ejemplo para añadir gnusocial, mastodon, … cientos de nodos.

    Creo que es lo que finalmente voy a hacer. Solo meter contenido de fediverso para poder hacer búsquedas. Que no es poca cosa. Serán muchos gigas de datos.

    Respecto a como funciona aún no tengo mucha idea. Ando aún probando.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *