J'ai besoin d'intimité. Non pas parce que mes actions sont douteuses, mais parce que votre jugement et vos intentions le sont.
5136 links
Un outils pour télécharger audio ou vidéo depuis pléthore de sites. Sans pub et hébergeable.
Et le code source disponible ici : https://github.com/wukko/cobalt/tree/current
Another reason not to pipe from curl to bash. Detecting curl | bash serverside.
J'avais oublié ce script. Du Bronco pur et dur mais qui rend service :D
C'est top. Merci Korben (et Bronco d'avoir partagé le lien).
Toutes les versions de Firefox.
Merci.
Je vais vérifier ça une fois au boulot.
J'essaie de me rendre sur le site de Tor et la connexion est dite non sécurisée (avec Firefox et IE sous windows).
Vous savez si c'est normal ?
Musopen fonctionne selon un modèle freemium, en ce que certains contenus sont disponibles gratuitement, mais les téléchargements premium nécessitent un abonnement. Les partitions sont disponibles en téléchargement gratuitement, et des enregistrements peuvent être joués en utilisant un lecteur HTML5 ou Flash. Les utilisateurs ne payant pas peuvent télécharger des enregistrements de musique, mais sont limités à 5 téléchargements par jour (en qualité dégradée : mp3). Les membres payants 55 $ par année reçoivent des téléchargements illimités de musique, codés sans pertes. Les "bienfaiteurs" payant 240 $ par année peuvent demander des enregistrements supplémentaires (à partir de janvier 2014).
wikipedia.fr
Voici une commande utile :
wget -r -k -E -np <a href="http://tar.get/wanted/directory/">http://tar.get/wanted/directory/</a>
Donc la cible est http://tar.get/wanted/directory/
. Les options :
-r pour parcourir tous les liens du sites.
-k conversion des liens en liens locaux.
-E conversion php vers HTML, pour relire aisément avec Firefox.
-np pour ne pas remonter dans l’arborescence du site
D’autre options utiles :
-lX, où X est un entier, pour ne parcourir que X niveaux de l’arborescence du site.
-c pour continuer un téléchargement interrompu.
–load-cookies si nécessaire.
Les options pour ne pas pourir le serveur :
–limit-rate X, pour limiter la Bande Passante à X B/s
-w X pour attendre X secondes entre chaque téléchargement de fichiers.
-T X au bout de X secondes wget abandonne le téléchargement d’un fichier.
Petit tuto de ce que j'ai fait l'autre jour :) https://framapiaf.org/@mitsu/550072
Comme vous le savez, la DHT (Distributed Hash Table) est le mécanisme décentralisé utilisé par les logiciels Bittorrent pour échanger les informations sur les torrents, ainsi que les sources et pairs.
Ainsi lorsqu'on lance son logiciel Bittorrent, celui-ci va servir de relais pour une "branche" de la DHT. Ce qui permet donc de collecter des infohash qui circulent (rattachés ou non à un torrent authentique), et avoir un aperçu de ce qui est échangé sur le réseau.Étape 1: la collecte. Pour ce faire, j'ai configuré qBittorrent pour qu'il utilise le port UDP 51515 pour les connexions DHT. Peu importe le port, c'est juste pour ne pas avoir trop de pollution par la suite.
Étape 2: lancer Wireshark et le faire écouter la carte réseau, avec un filtre de capture: "port 51515"Laisser tourner quelques temps :) En 10 minutes vous aurez déjà pas mal de données à vous mettre sous la dent.
Étape 3: dans Wireshark appliquer un filtre d'affichage pour ne garder que les paquets contenant des infohash: "udp contains 5f:68:61:73:68:32:30:3a"
(5f:68:61:73:68:32:30:3a étant la valeur hexa pour le texte UTF-8 "_hash", on aurait pu faire un filtre sur le tag entier "info_hash" mais c'est pas nécessaire)
Ensuite, cliquez sur Edit > mark all displayed packets.
Et enfin: File > Save as (en ne sélectionnant que les paquets marqués)Étape 4: exporter la payload des paquets en hexadécimal brut. Simple ligne de commande: tshark -r fichier.pcapng -Tfields -e data >> fichier.txt
Étape 5: extraire les infohash. Voilà la commande: cat fichier.txt | grep -o -P "5f6861736832303a.{0,40}" | sed 's/5f6861736832303a/magnet:?xt=urn:btih:/' | sort -u >> infohash.txt
(détail: on prend le contenu brut, on vise la séquence hexa correspondante à "_hash" et on inclut les 40 chiffres hexadécimaux suivants, puis on remplace la séquence par le schéma pour avoir des liens magnet, que l'on trie pour supprimer les doublons, et on sort le résultat)Étape 6: récupérer les .torrent correspondants aux infohash, sachant qu'il y a beaucoup de spam sur le réseau: vous n'aurez peut-être qu'une poignée de fichiers .torrent. Pas grave. Commande:
aria2c --bt-save-metadata --bt-metadata-only --enable-dht6=true --dht-entry-point='dht.transmissionbt.com:6881' --dht-entry-point6='dht.transmissionbt.com:6881' --max-concurrent-downloads=3 --timeout=40 --bt-stop-timeout=30 --dht-file-path=dht.dat --dht-file-path6=dht6.dat --input-file=infohash.txtDétail: Aria2 est un puissant logiciel de téléchargement. Ici, on indique en paramètre que l'on ne veut que les .torrent (pas les fichiers partagés eux-même), maxi 3 simultanés pour ne pas être rejetés par les liens DHT, en utilisant les fichiers de relais DHT du répertoire courant (vous voudrez peut-être utiliser Aria2 pour télécharger un torrent populaire, de sorte à créer ces fichiers de "voisins" dans la DHT).
Et voilà ! Vous obtiendrez des fichiers .torrent, dont vous pourrez afficher le contenu avec aria2c -S *.torrent
Libre à vous de les utiliser ensuite pour créer votre propre The Pirate Bay, de manière complètement autonome, avec uniquement des torrents effectivement échangés sur le réseau ^^
Merci Mitsu
Pourquoi ? Car ça permet à Google de fliquer l'usage des polices ainsi que les habitudes des utilisateurs/visiteurs (en plus des stat fournies par les scripts)
Base64 encoding of large files.
Base64 encoding converts triples of eight-bit symbols into quadruples of six-bit symbols. Reading the input file in chunks that are a multiple of three bytes in length results in a chunk that can be encoded independently of the rest of the input file. MIME additionally enforces a line length of 76 characters plus the CRLF. 76 characters is enough for 19 quadruples of six-bit symbols thus representing 19 triples of eight-bit symbols. Reading 57 eight-bit symbols provides exactly enough data for a complete MIME-formatted line. Finally, PHP's default buffer size is 8192 bytes - enough for 143 MIME lines' worth of input.
So if you read from the input file in chunks of 8151 (=57*143) bytes you will get (up to) 8151 eight-bit symbols, which encode as exactly 10868 six-bit symbols, which then wrap to exactly 143 MIME-formatted lines. There is no need to retain left-over symbols (either six- or eight-bit) from one chunk to the next. Just read a chunk, encode it, write it out, and go on to the next chunk. Obviously the last chunk will probably be shorter, but encoding it is still independent of the rest.
while(!feof($input_file))
{
$plain = fread($input_file, 57 * 143);
$encoded = base64_encode($plain);
$encoded = chunk_split($encoded, 76, "\r\n");
fwrite($output_file, $encoded);
}
Conversely, each 76-character MIME-formatted line (not counting the trailing CRLF) contains exactly enough data for 57 bytes of output without needing to retain leftover bits that need prepending to the next line. What that means is that each line can be decoded independently of the others, and the decoded chunks can then be concatenated together or written out sequentially. However, this does make the assumption that the encoded data really is MIME-formatted; without that assurance it is necessary to accept that the base64 data won't be so conveniently arranged.
Des calendriers à imprimer au format Libreoffice.
Via Sebsauvage
Placer dans un fichier (que l'on nommera "urls" pour l'exemple), les urls à télécharger. Puis lancer la commande :
youtube-dl --batch-file urls
dans le dossier dans lequel vous souhaitez que vos films soient sauvegardés.
Sont poursuivis et jugés comme pirates : Tout individu faisant partie de l'équipage d'un navire ou bâtiment de mer français, lequel commettrait à main armée des actes de déprédation ou de violence […]
Est-ce que la gendarmerie a également trouvé un bateau au domicile des parents du gestionnaire du site ???
Oui, mais on la trouve où cette version 2.0. Le site (codingteam) de téléchargement ne propose que la version 1.8
Edit : ça y est, c'est corrigé. Merci Tuxicoman ;)
Je me le note ici aussi. Merci.