575 liens privés
Parce que je ne suis pas un expert dans la commande, je me notes ce mémo (oui, je suis sensé savoir cela sur le bout des doigts depuis 20 ans… mais bon…)
Astuces pour gérer des commandes en arrière-plan
- Le
&
en fin de ligne pour lancer en arrière-plan - Si on a oublié le
&
, on peut faire un[Ctrl]+[Z]
- Après un
[Ctrl]+[Z]
on peut lancer unbg
pour lancer en background - On peut utiliser le
fg
pour ramener en foreground (avant-plan) le dernier processus (ou bien indiquer le PID correspond). - Enfin
nohup
(en début de ligne cette fois-ci), s'affranchit du processus du terminal depuis lequel il est lancé pour fonctionner en arrière-plan (ie, on peut fermer la fenêtre).
On peut retrouver 4 commandes pour nettoyer son disque, dans le cas où on doit le vendre/céder/donner. :
wipe
, pour une partitionshred
, détruit en écrasant avec d'autres données (aléatoires ou non)dd
, remplit le disque avec des0000
(mieux que rien…)scrub
, idem àschred
?
Pour nettoyer un fichier je procède ainsi :
sed -i '/MonTexte/d' MonFichier.ext
Possibilité de créer un fichier de sauvegarde .bak
sed -i.bak '/MonTexte/d' MonFichier.ext
Wow ! Je découvre la commande last
:
last -F -a MonIdentifiant
Cela permet de voir la liste des N précédentes connexions, avec heures de démarrage et de fin. Un peu creepy !
si je veux chercher toto
uniquement dans des fichiers markdown
de manière récursive (en parcourant les sous-dossiers) à partir du répertoire courant, alors :
grep -ir "toto" --include \*.md ./
(attention à la combinaison de 2 options -i
pour ignorer la casse et -r
pour récursif)
complète ceci
Quelques options utiles :
-i
pour ignorer la casseC 3
ou-3
pour ajouter 3 lignes de contexte-r coucou .
pour chercher récursivement (dans les sous-dossiers) à partir du répertoire couranthello *
pour chercher dans l'ensemble des fichiers du répertoire courantpwet monfichier.ext
pour chercher le texte dansmonfichier
uniquement
Et un second livre sur des fondamentaux
Un premier wikibook qui m'a permis d'avoir des rappels sur la syntaxe concernant les sous-réseau.
ah bah c'est pas mal ça !
J'entends dans l'open space "ah mais tu peux pas installer WinMerge sur Linux". Ma réaction "utilise diff
", sauf que je me rend compte que je ne l'ai jamais vraiment utilisé.
Les 3 options à connaître :
diff un.txt deux.txt -c
pour ajouter du contexte. mais sur de gros fichiers, ce n'est pas forcément très lisible.diff un.txt deux.txt -u
pour un affichage unifié, à la suite (et avec du contexte), c'est à combiner avec l'ultime option :diff un.txt deux.txt --color
pour un rendu coloré
J'utilise souvent Meld mais là en mode rapide je vois que l'on a facilement moyen de s'en sortir !
Peut-être évident pour certains mais ça va mieux en le disant :
Les actions des commandes
apt-get update
,apt update
ou encoreaptitude update
sont similaires.
Les optionsdist-upgrade
oufull-upgrade
sont identiques, utiliser l’une ou l’autre revient donc au même. En plus de mettre à jour les paquets existants, elles vont également être en mesure de gérer les dépendances.
Dans un environnement hautement critique et qui doit rester stable, la commandeupgrade
est plus sûr.
Dans la plupart des autres cas, l’optiondist-upgrade
oufull-upgrade
est à privilégier car vous obtiendrez toutes les dernières mises à jour sur votre système et du noyau.
J'ai vu passer un lien y'a pas longtemps sur des morceaux qui pourraient m'intéresser, mais je ne savais pas trop comment les récupérer. Après avoir regarder un peu wget
, je me suis intéressé à httrack
.
J'ai un peu tâtonné mais finalement après un moment, j'ai lancé la requête suivante et j'ai pu récupérer tout (et seulement ça) les mp3
d'un sous dossier du site.
httrack https://exemple.fr/ +https://exemple.fr/dwl/2minutes/*.mp3
Si vous vous demandez ce que j'ai récupéré, je vous laisse jeter un œil à http://links.bill2-software.com/shaarli/?dmZ8Mg ou http://liens.nonymous.fr/?3N3VAg (je ne mets pas de lien direct pour éviter ceux qui voudraient essayer aveuglément)
"C:\Program Files (x86)\Java\jre1.8.0_241\bin\java.exe" -jar "C:\exe\plantuml\plantuml.jar" -gui -charset UTF-8
J'adore cette commande, trop pratique !
Dans votre terminal si vous tapez Ctrl + r, vous obtiendrez :
[romain@arch_machine ~]$ (reverse-i-search)`':
Ensuite tapez un mot clé correspondant à ce que vous pourriez avoir envié de rechercher dans l’historique :
Ces derniers jours, j’ai utilisé des lignes de commandes qui comportées « gcc », si je tape « gcc » il m’affiche :
[romain@arch_machine ~]$ (reverse-i-search)`': gcc -g test.c
Ci-dessus, on peut voir qu’il m’affiche une ligne commande entière (avec les arguments) qui contient l’expression « gcc ». Cette ligne de commande correspond à la dernière ligne de commande que j’ai tapé et qui contenait le mot clé gcc.
En appuyant une deuxième fois sur Ctrl + R, je remonte dans l’historique Bash enregistré. Il m’affiche :
[romain@arch_machine ~]$ (reverse-i-search)`': gcc test.c
Ci-dessus, il m’affiche une autre ligne de commande que j’ai tapé dernièrement et qui contient également l’expression « gcc ».
En appuyant successivement sur CTRL + r vous pouvez remonter dans l’historique des commandes.
vi nom_du_fichier
pour créer et ouvrir ledit fichieri
pour passer en mode insertion ;
taper son texte ;[Esc]
pour passer en mode commande ;:wq
pour enregistrer ("write") et quitter.
« Tuer un homme » est la traduction en français d'une recherche que j'ai effectuée aujourd'hui dans un moteur de recherche. Et pourtant… tout va bien :-)
exiftool -Orientation= *.jpg
Ça c'est la commande qui va bien quand l'orientation des photos s'emmêle les pinceaux. Et oui, MinigalNano ne gère toujours pas bien l'orientation indiquée dans les données Exif des photos et il faut bricoler pour y parvenir ! :-S
Je couple ça à phatch et une éventuelle réorientation manuelle et j'arrive à ce que je veux.
J'aimerais bien faire tout ça scripté avec jpegtran ou imagemagick mais le flemme :-P
Oh putain !
Je sais, je vais passer pour un noob mais tampis ! J'ai cherché trop longtemps à comprendre comment faire simplement que je ne vais pas laisser tomber aux oubliettes de ma mémorie cette astuce.
Je veux tout simplement 1/récupérer la liste des fichiers de mon répertoire et 2/ajouter une balise [img]...[/img] autour du nom.
Je le fais en 3 étapes :
ls > list.txt
sed 's/^/[img]/' list.txt > list2.txt
sed 's/$/[\/img]/' list2.txt > list3.txt
A savoir que pour la commande sed le "s" signifie "substituer" le "^" étant la regex du début du de ligne et le "$" celle de fin de ligne. La troisième partie du '.../.../[img]/ étant le texte que l'on veut ajouter. Puis ensuite on sort tout ça dans un nouveau fichier.
Il y a très certainement moyen d'optimiser en 2 lignes voire 1 mais pour le moment je m'arrête là.
Edit 2015-05-18T19:37 : Merci à Stuper https://stuper.info/shaarli//?3mSpBg qui me propose ça :
ls | awk -F " " '{print "[img]"$0"[/img]"}' > list3.txt
Je note l'utilisation des pipes. J'y ai pensé mais je ne suis pas encore à l'aise. Et "awk", j'en ai entendu parlé ; genre c'est un peu le "couteau-suisse" (mais bon, un couteau, ça coupe...).
Et merci à Oros https://www.ecirtam.net/links/?ra2mcw également qui propose quelque chose qui me convient mieux au premier abord :
ls | sed 's/^/[img]/' | sed 's/$/[\/img]/' > list.txt
Wow, quelques astuces pour l'utilisation de wget.
Je cite : «
J'ai voulu aspirer les one-piece de http://lel-scan.com (pour ne pas être forcé de les lire en ligne). J'ai utilisé cette commande :
$ wget -r -linf -k -p -E http://lel-scan.com/mangas/one-piece/
Ça a fait le job mais ça a aussi téléchargé tous les autres mangas du site (j'ai coupé à 38 000 fichiers..). Il y a moyen de mieux faire.
Par exemple, en limitant la profondeur et le type de fichier (juste *.jpg )
$ wget -r -l2 -A.jpg -k -p -E http://lel-scan.com/mangas/one-piece/
(...)
Terminé — 2015-05-04 08:22:31 —
Temps total effectif : 13m 3s
Téléchargés : 3196 fichiers, 609M en 11m 8s (933 KB/s)
0 fichiers convertis en 0 secondes.
On peut virer -k (pour convertir les liens et avoir une navigation locale), -p (téléchrge tout ce qui est nécessaire pour l'affichage d'une page) et -E (modifier les extensions en .html). Au passage, je modifie -A (pour que ce soit plus propre).
$ wget -r -l2 -A "*.jpg" http://lel-scan.com/mangas/one-piece/
(...)
Terminé — 2015-05-04 08:43:18 —
Temps total effectif : 13m 1s
Téléchargés : 3178 fichiers, 609M en 11m 9s (933 KB/s)
Je suis surpris de voir que c'est à peine plus rapide...
Enfin, on peut télécharger juste un chapitre :
$ wget -r -l1 -A "*.jpg" http://lel-scan.com/mangas/one-piece/784/
(...)
Terminé — 2015-05-04 08:44:33 —
Temps total effectif : 6,4s
Téléchargés : 32 fichiers, 4,6M en 5,1s (934 KB/s)
»
Ooooou, super intéressant ça (même si je pense que c'est déjà présent sur le site de Timo quelque part) : ça peut être utile pour dupliquer toute une configuration (à iso-distribution bien entendu).
Petite citation pour ma distro (et surtout ses dérivées) préférées, Debian-Ubuntu :
Sauvegarde:
dpkg --get-selections > liste-programmes
Restauration:
sudo dpkg --set-selections < liste-programmes
sudo apt-get dselect-upgrade