viernes, 23 de agosto de 2019
Archivos
Buscar archivos mayores a 500 mb
find . -type f -size +500M -exec ls -lh {} \;| awk '{ print $5 "\t" $9}' |sort -k 3
jueves, 22 de agosto de 2019
Agregar area de Swap a una existente
Estos son los comandos, resumidos:
lvcreate -n lv_swap2 -L50g /dev/VolGroup00 mkswap /dev/VolGroup00/lv_swap2 agregar esta linea al /etc/fstab : /dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0 swapon -va free -m
Aca esta el paso a paso detallado
[root@plana]# lvcreate -n lv_swap2 -L50g /dev/VolGroup00
Logical volume "lv_swap2" created.
[root@plana]# mkswap /dev/VolGroup00/lv_swap2
mkswap: /dev/VolGroup00/lv_swap2: warning: don't erase bootbits sectors on whole disk.
Use -f to force. Setting up swapspace version 1, size = 52428796 KiB
[root@plana]# vi /etc/fstab (agregar la linea a continuacion descripta)
/dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0
[root@plan]# swapon -va swapon on /dev/mapper/VolGroup00-lv_swap2
swapon: /dev/mapper/VolGroup00-lv_swap2: found swap signature: version 1, page-size 4, same byte order swapon: /dev/mapper/VolGroup00-lv_swap2: pagesize=4096, swapsize=53687091200, devsize=53687091200
[root@plan]# free -m total used free shared buffers cached
Mem: 258208 169225 88982 0 1642 128652 -/+ buffers/cache: 38931 219277 Swap: 67583 2197 65386
[root@plan]#
lvcreate -n lv_swap2 -L50g /dev/VolGroup00 mkswap /dev/VolGroup00/lv_swap2 agregar esta linea al /etc/fstab : /dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0 swapon -va free -m
Aca esta el paso a paso detallado
[root@plana]# lvcreate -n lv_swap2 -L50g /dev/VolGroup00
Logical volume "lv_swap2" created.
[root@plana]# mkswap /dev/VolGroup00/lv_swap2
mkswap: /dev/VolGroup00/lv_swap2: warning: don't erase bootbits sectors on whole disk.
Use -f to force. Setting up swapspace version 1, size = 52428796 KiB
[root@plana]# vi /etc/fstab (agregar la linea a continuacion descripta)
/dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0
[root@plan]# swapon -va swapon on /dev/mapper/VolGroup00-lv_swap2
swapon: /dev/mapper/VolGroup00-lv_swap2: found swap signature: version 1, page-size 4, same byte order swapon: /dev/mapper/VolGroup00-lv_swap2: pagesize=4096, swapsize=53687091200, devsize=53687091200
[root@plan]# free -m total used free shared buffers cached
Mem: 258208 169225 88982 0 1642 128652 -/+ buffers/cache: 38931 219277 Swap: 67583 2197 65386
[root@plan]#
jueves, 15 de agosto de 2019
Errores de Mail
Aca demostramos que el mail esta configurado en el linux y pero lo rebota el smtp
# echo hola | sendmail -v -Am nicolas@dominio.com.ar
nicolas@dominio.com.ar... Connecting to smtp.dominio.com.ar. via relay... 220 X3.dominio.dominio.com.ar Microsoft ESMTP MAIL Service ready at Thu,13:12:14 >>> EHLO linux.dominio.com.ar 250-mailbox.dominio.arg.dominio.com.ar Hello [10.10.10.108] 250-SIZE 250-PIPELINING 250-DSN 250-ENHANCEDSTATUSCODES 250-STARTTLS 250-X-ANONYMOUSTLS 250-AUTH NTLM 250-X-EXPS GSSAPI NTLM 250-8BITMIME 250-BINARYMIME 250-CHUNKING 250-XEXCH50 250-XRDST 250 XSHADOWREQUEST >>> STARTTLS 220 2.0.0 SMTP server ready >>> EHLO linux.dominio.com.ar 250-mailbox.dominio.arg.dominio.com.ar Hello [10.10.10.108] 250-SIZE 250-PIPELINING 250-DSN 250-ENHANCEDSTATUSCODES 250-AUTH NTLM LOGIN 250-X-EXPS GSSAPI NTLM 250-8BITMIME 250-BINARYMIME 250-CHUNKING 250-XEXCH50 250-XRDST 250 XSHADOWREQUEST >>> MAIL From:<root@linux.dominio.com.ar> SIZE=5 530 5.7.1 Client was not authenticated /root/dead.letter... Saved message in /root/dead.letter Closing connection to smtp.dominio.com.ar. >>> QUIT
lunes, 5 de agosto de 2019
Habilitacion de repo con error
Pidieron habilitar un repositorio rhel-server-rhscl-7-rpms , lo hicimos de la siguiente manera;
subscription-manager repos --enable rhel-7-server-extras-rpms
subscription-manager repos --enable rhel-server-rhscl-7-rpms
subscription-manager repos --list-enabled
Al intentar usarlo, nos tira error
yum install php
https://sat1.dominio.com.ar/pulp/repos/telecom/Library/content/dist/rhel/server/7/7.5/x86_64/rhscl/1/os/repodata/repomd.xml: [Errno 14] HTTPS Error 404 - Not Found
Trying other mirror.
Cuando pasa que nos muestra la version(resaltada en el parrafo anterior) en lugar de esto rhel/server/7/7Server/x86_64 significa que es porque tiene seteado el release (que lo usamos para llevar a una version especifica en este caso 7.5 al momento de instalar el so) simplemente le sacamos el release y limpiamos los repos asi:
subscription-manager release --unset
yum clean all yum list
viernes, 5 de julio de 2019
Agregar raw device al oracle rac
En el siguiente ejemplo nos piden agregar 2 luns
ora1]# rescan-scsi-bus.sh Scanning SCSI subsystem for new devices Scanning host 0 for SCSI target IDs 0 1 2 3 4 5 6 7, all LUNs Scanning for device 0 0 0 0 ... 0 ... OLD: Host: scsi0 Channel: 00 Id: 00 Lun: 00 Vendor: HP Model: LOGICAL VOLUME Rev: 4.52 Type: Direct-Access ANSI SCSI revision: 05 Scanning for device 0 3 0 0 ... 0 ... OLD: Host: scsi0 Channel: 03 Id: 00 Lun: 00 Vendor: HP Model: P440ar Rev: 4.52 Type: RAID ANSI SCSI revision: 05 Scanning host 1 for all SCSI target IDs, all LUNs Scanning for device 1 0 0 0 ... OLD: Host: scsi1 Channel: 00 Id: 00 Lun: 00 Vendor: EMC Model: Invista Rev: 5520 Type: Direct-Access ANSI SCSI revision: 04 Scanning for device 1 0 0 1 ... ACA CORTO LA SALIDA PORQUE ES MUY LARGA 8 new or changed device(s) found. [1:0:0:31] [1:0:0:32] [1:0:1:31] [1:0:1:32] [2:0:0:31] [2:0:0:32] [2:0:1:31] [2:0:1:32] 0 remapped or resized device(s) found. 0 device(s) removed.
Si el procedimiento de arriba no funciona o no esta instalado el rescan-scsi-bus.sh , copiar y pegar el script siguiente :
for s in $(ls /sys/class/scsi_host)
do FILE="/sys/class/fc_host/$s/issue_lip" if [ -f $FILE ]; then echo $s "lip" echo "1" > /sys/class/fc_host/$s/issue_lip #else #echo "File $FILE no existe" fi FILE="/sys/class/scsi_host/$s/scan" if [ -f $FILE ]; then echo $s "scan" echo "- - -" > /sys/class/scsi_host/$s/scan #else #echo "File $FILE does not exist." fi sleep 3 done
Ahora chequeo en Ambos Nodos, si en la salida del multipath -ll veo las luns que me asigno storage
[ ora1 ]# multipath -F; multipath -v2
Jul 05 14:19:09 | mp_fra02: map in use Jul 05 14:19:09 | mp_redo01: map in use Jul 05 14:19:09 | mp_fra01: map in use Jul 05 14:19:09 | mp_scannetfs: map in use Jul 05 14:19:09 | mp_data12: map in use Jul 05 14:19:09 | mp_data09: map in use Jul 05 14:19:09 | mp_data11: map in use Jul 05 14:19:09 | mp_data08: map in use Jul 05 14:19:09 | mp_data10: map in use Jul 05 14:19:09 | mp_data07: map in use Jul 05 14:19:09 | mp_data06: map in use Jul 05 14:19:09 | mp_data05: map in use Jul 05 14:19:09 | mp_data04: map in use Jul 05 14:19:09 | mp_u01: map in use Jul 05 14:19:09 | mp_ocr03: map in use Jul 05 14:19:09 | mp_data03: map in use Jul 05 14:19:09 | mp_u00: map in use Jul 05 14:19:09 | mp_fra04: map in use Jul 05 14:19:09 | mp_data02: map in use Jul 05 14:19:09 | mp_ocr02: map in use Jul 05 14:19:09 | mp_fra03: map in use Jul 05 14:19:09 | mp_redo02: map in use Jul 05 14:19:09 | mp_data01: map in use Jul 05 14:19:09 | mp_ocr01: map in use Jul 05 14:19:09 | mpatha: ignoring map create: mp_data13 (36000144000000010601ec9b99d38f9ec) undef EMC,Invista size=310G features='0' hwhandler='0' wp=undef `-+- policy='round-robin 0' prio=1 status=undef |- 1:0:0:31 sdct 70:16 undef ready running |- 2:0:0:31 sdcx 70:80 undef ready running |- 1:0:1:31 sdcv 70:48 undef ready running `- 2:0:1:31 sdcz 70:112 undef ready running create: mp_data14 (36000144000000010601ec9b99d38f9f0) undef EMC,Invista size=310G features='0' hwhandler='0' wp=undef `-+- policy='round-robin 0' prio=1 status=undef |- 1:0:0:32 sdcu 70:32 undef ready running |- 2:0:0:32 sdcy 70:96 undef ready running |- 1:0:1:32 sdcw 70:64 undef ready running `- 2:0:1:32 sdda 70:128 undef ready running [ora1]# [ora1]# multipath -F; multipath -v2 Jul 05 14:20:57 | mp_fra02: map in use Jul 05 14:20:57 | mp_redo01: map in use Jul 05 14:20:57 | mp_fra01: map in use Jul 05 14:20:57 | mp_scannetfs: map in use Jul 05 14:20:57 | mp_data12: map in use Jul 05 14:20:57 | mp_data09: map in use Jul 05 14:20:57 | mp_data11: map in use Jul 05 14:20:57 | mp_data08: map in use Jul 05 14:20:57 | mp_data10: map in use Jul 05 14:20:57 | mp_data07: map in use Jul 05 14:20:57 | mp_data06: map in use Jul 05 14:20:57 | mp_data05: map in use Jul 05 14:20:57 | mp_data04: map in use Jul 05 14:20:57 | mp_u01: map in use Jul 05 14:20:57 | mp_data03: map in use Jul 05 14:20:57 | mp_ocr03: map in use Jul 05 14:20:57 | mp_u00: map in use Jul 05 14:20:57 | mp_fra04: map in use Jul 05 14:20:57 | mp_data02: map in use Jul 05 14:20:57 | mp_ocr02: map in use Jul 05 14:20:57 | mp_fra03: map in use Jul 05 14:20:57 | mp_redo02: map in use Jul 05 14:20:57 | mp_data01: map in use Jul 05 14:20:57 | mp_ocr01: map in use Jul 05 14:20:57 | mpatha: ignoring map create: mp_data13 (36000144000000010601ec9b99d38f9ec) undef EMC,Invista size=310G features='0' hwhandler='0' wp=undef `-+- policy='round-robin 0' prio=1 status=undef |- 1:0:0:31 sdct 70:16 undef ready running |- 2:0:0:31 sdcx 70:80 undef ready running |- 1:0:1:31 sdcv 70:48 undef ready running `- 2:0:1:31 sdcz 70:112 undef ready running create: mp_data14 (36000144000000010601ec9b99d38f9f0) undef EMC,Invista size=310G features='0' hwhandler='0' wp=undef `-+- policy='round-robin 0' prio=1 status=undef |- 1:0:0:32 sdcu 70:32 undef ready running |- 2:0:0:32 sdcy 70:96 undef ready running |- 1:0:1:32 sdcw 70:64 undef ready running `- 2:0:1:32 sdda 70:128 undef ready running [ora1]#
[~]# multipath -ll|grep -i 00010601ec9b99d38f9ec mpathz (36000144000000010601ec9b99d38f9ec) dm-57 EMC,Invista [root@plscannetora1 ~]# multipath -ll|grep -i 00010601ec9b99d38f9f0 mpathaa (36000144000000010601ec9b99d38f9f0) dm-58 EMC,Invista [ora1]# Chequeo lo mismo en el otro nodo del rac [ora2 ~]# multipath -ll|grep -i 00010601ec9b99d38f9ec mpathz (36000144000000010601ec9b99d38f9ec) dm-57 EMC,Invista [root@plscannetora2 ~]# multipath -ll|grep -i 00010601ec9b99d38f9f0 mpathaa (36000144000000010601ec9b99d38f9f0) dm-58 EMC,Invista [ora2 ~]#
En ambos nodos del rac, hago un bkp del multipath.conf
[ora1]# cp multipath.conf multipath.conf.ant [ora2 ]# ls -l multipath.conf -rw-r--r-- 1 root root 6433 May 22 2018 multipath.conf [ora2 ]# cp multipath.conf multipath.conf.ant
En AMBOS nodos del rac ,edito el multipath.conf , y agrego la lun con el nombre que me indico base de datos, en este ejemplo el nombre que pidieron fue mp_data13 y mp_data14
multipath {
wwid 36000144000000010601ec9b99d38f9ec alias mp_data13 } multipath { wwid 36000144000000010601ec9b99d38f9f0 alias mp_data14 }
Luego en uno de los nodos ejecuto el fdisk pero con la opcion -u para poder generar :
[ora1 ~]# fdisk -u /dev/mapper/mp_data13 WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c'). Command (m for help): d Selected partition 1 Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First sector (63-650119679, default 63): 128 Last sector, +sectors or +size{K,M,G} (128-650119679, default 650119679): Using default value 650119679 Command (m for help): t Selected partition 1 Hex code (type L to list codes): 83 Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. WARNING: Re-reading the partition table failed with error 22: Invalid argument. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks. [ora1 ~]# [ora1 ~]# fdisk -u /dev/mapper/mp_data14 WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c'). Command (m for help): d Selected partition 1 Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First sector (63-650119679, default 63): 128 Last sector, +sectors or +size{K,M,G} (128-650119679, default 650119679): Using default value 650119679 Command (m for help): t Selected partition 1 Hex code (type L to list codes): 83 Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. WARNING: Re-reading the partition table failed with error 22: Invalid argument. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) Syncing disks.
[ora1 ~]#
Solo en uno de los nodos , por ultimo ejecutar
[ora1 ~]# partprobe /dev/mapper/mp_data13 [ora1 ~]# partprobe /dev/mapper/mp_data14
chequeamos en el /dev/mapper/ como quedaron o si tienen reglas udev ( si las tienen aparece como owner oracle:grid , en ese caso hay que agregar en el /etc/udev...)
[ora1 ~]# ls -ltr /dev/mapper/mp_data1* lrwxrwxrwx 1 root root 8 Jan 8 08:14 /dev/mapper/mp_data10 -> ../dm-11 lrwxrwxrwx 1 root root 8 Jan 8 08:14 /dev/mapper/mp_data11 -> ../dm-13 lrwxrwxrwx 1 root root 8 Jan 8 08:14 /dev/mapper/mp_data12 -> ../dm-28 lrwxrwxrwx 1 root root 8 Jan 8 08:15 /dev/mapper/mp_data10p1 -> ../dm-30 lrwxrwxrwx 1 root root 8 Jan 8 08:15 /dev/mapper/mp_data11p1 -> ../dm-36 lrwxrwxrwx 1 root root 8 Jan 8 08:15 /dev/mapper/mp_data12p1 -> ../dm-43 lrwxrwxrwx 1 root root 8 Jul 5 14:46 /dev/mapper/mp_data13p1 -> ../dm-59 lrwxrwxrwx 1 root root 8 Jul 5 14:46 /dev/mapper/mp_data13 -> ../dm-57 lrwxrwxrwx 1 root root 8 Jul 5 14:46 /dev/mapper/mp_data14p1 -> ../dm-60 lrwxrwxrwx 1 root root 8 Jul 5 14:46 /dev/mapper/mp_data14 -> ../dm-58 [ora1 ~]#
En el otro nodo del rac, ejecutar un multipath -F ; multipath -v2 para que tome lo que ejecute en el otro nodo cuando hice el partprobe
[ora2 ~]# multipath -F; multipath -v2 Jul 05 15:25:38 | mp_fra02: map in use Jul 05 15:25:38 | mp_redo01: map in use Jul 05 15:25:38 | mp_fra01: map in use Jul 05 15:25:38 | mp_scannetfs: map in use Jul 05 15:25:38 | mp_data12: map in use Jul 05 15:25:38 | mp_data09: map in use Jul 05 15:25:38 | mp_data11: map in use Jul 05 15:25:38 | mp_data08: map in use Jul 05 15:25:38 | mp_data10: map in use Jul 05 15:25:38 | mp_data07: map in use Jul 05 15:25:38 | mp_data06: map in use Jul 05 15:25:38 | mp_data05: map in use Jul 05 15:25:38 | mp_data04: map in use Jul 05 15:25:38 | mp_u01: map in use Jul 05 15:25:38 | mp_data03: map in use Jul 05 15:25:38 | mp_ocr03: map in use Jul 05 15:25:38 | mp_u00: map in use Jul 05 15:25:38 | mp_fra04: map in use Jul 05 15:25:38 | mp_data02: map in use Jul 05 15:25:38 | mp_ocr02: map in use Jul 05 15:25:38 | mp_fra03: map in use Jul 05 15:25:38 | mp_redo02: map in use Jul 05 15:25:38 | mp_data01: map in use Jul 05 15:25:38 | mp_ocr01: map in use Jul 05 15:25:38 | mpatha: ignoring map create: mp_data13 (36000144000000010601ec9b99d38f9ec) undef EMC,Invista size=310G features='0' hwhandler='0' wp=undef `-+- policy='round-robin 0' prio=1 status=undef |- 1:0:0:31 sdct 70:16 undef ready running |- 2:0:0:31 sdcx 70:80 undef ready running |- 1:0:1:31 sdcv 70:48 undef ready running `- 2:0:1:31 sdcz 70:112 undef ready running create: mp_data14 (36000144000000010601ec9b99d38f9f0) undef EMC,Invista size=310G features='0' hwhandler='0' wp=undef `-+- policy='round-robin 0' prio=1 status=undef |- 1:0:0:32 sdcu 70:32 undef ready running |- 2:0:0:32 sdcy 70:96 undef ready running |- 1:0:1:32 sdcw 70:64 undef ready running `- 2:0:1:32 sdda 70:128 undef ready running [ora2 ~]#
Instalar docker-compose
Para instalar docker-compose, primero se debe instalar docker
[app5 ~]# yum install docker
Loaded plugins: langpacks, product-id, search-disabled-repos, subscription-manager rhel-7-server-extras-rpms | 2.0 kB 00:00:00 rhel-7-server-optional-rpms | 2.0 kB 00:00:00 rhel-7-server-rpms | 2.0 kB 00:00:00 rhel-7-server-supplementary-rpms | 2.0 kB 00:00:00 Dependencies Resolved ========================================================================================================================== Package Arch Version Repository Size ========================================================================================================================== Installing: docker x86_64 2:1.13.1-88.git07f3374.el7 rhel-7-server-extras-rpms 17 M Installing for dependencies: PyYAML x86_64 3.10-11.el7 rhel-7-server-rpms 153 k atomic-registries x86_64 1:1.22.1-26.gitb507039.el7 rhel-7-server-extras-rpms 35 k audit-libs-python x86_64 2.8.4-4.el7 rhel-7-server-rpms 76 k checkpolicy x86_64 2.5-8.el7 rhel-7-server-rpms 295 k container-selinux noarch 2:2.74-1.el7 rhel-7-server-extras-rpms 37 k container-storage-setup noarch 0.11.0-2.git5eaf76c.el7 rhel-7-server-extras-rpms 35 k containers-common x86_64 1:0.1.31-7.gitb0b750d.el7 rhel-7-server-extras-rpms 18 k docker-client x86_64 2:1.13.1-88.git07f3374.el7 rhel-7-server-extras-rpms 3.8 M docker-common x86_64 2:1.13.1-88.git07f3374.el7 rhel-7-server-extras-rpms 95 k docker-rhel-push-plugin x86_64 2:1.13.1-88.git07f3374.el7 rhel-7-server-extras-rpms 1.9 M libsemanage-python x86_64 2.5-14.el7 rhel-7-server-rpms 113 k libyaml x86_64 0.1.4-11.el7_0 rhel-7-server-rpms 55 k oci-register-machine x86_64 1:0-6.git2b44233.el7 rhel-7-server-extras-rpms 1.1 M oci-systemd-hook x86_64 1:0.1.18-2.git3efe246.el7 rhel-7-server-extras-rpms 34 k oci-umount x86_64 2:2.3.4-2.git87f9237.el7 rhel-7-server-extras-rpms 32 k policycoreutils-python x86_64 2.5-29.el7 rhel-7-server-rpms 456 k python-IPy noarch 0.75-6.el7 rhel-7-server-rpms 32 k python-pytoml noarch 0.1.14-1.git7dea353.el7 rhel-7-server-extras-rpms 18 k setools-libs x86_64 3.3.8-4.el7 rhel-7-server-rpms 620 k Updating for dependencies: audit x86_64 2.8.4-4.el7 rhel-7-server-rpms 250 k audit-libs i686 2.8.4-4.el7 rhel-7-server-rpms 101 k audit-libs x86_64 2.8.4-4.el7 rhel-7-server-rpms 100 k Transaction Summary ========================================================================================================================== Install 1 Package (+19 Dependent packages) Upgrade ( 3 Dependent packages) Total download size: 27 M Is this ok [y/d/N]: y Downloading packages:
El paso siguiente es bajar de internet, el docker compose, se puede bajar de esta web :
https://github.com/docker/compose/releases
Al ingresar al link mencionado arriba, me baja el archivo docker-compose-Linux-x86_64 , el cual lo debo poner en /usr/local/bin/ con el nombre docker-compose tal como muestro a continuacion:
mv docker-compose-Linux-x86_64 /usr/local/bin/docker-compose
Eso es todo
miércoles, 3 de julio de 2019
Restore de Sistema Operativo de una maquina virtual
Con el equipo prendido, ir a cd/dvd drive 1 y seleccionar
Connect to ISO image on local disk
Elegir la imagen para bootear
En este paso, hay que darle para entar al Setup del equipo y seleccionar la secuencia de booteo
como CD-rom
Grabar los cambios y salir
Cuando bootea de CD, tipear linux rescue
Cuando bootea de Cd, hay que setear la red ( tener a mano, la ip , y mascara de red del equipo a restorear)
En este paso CAMBIAR a MANUAL, para ponerle la direccion ip y la mascara de red
setearle el gateway
Aparece un cartel de que vamos a montar la instalacion Linux como read/write en el /mnt/sysimage
darle ( Continue )
OJO ACA
Mucho cuidado, tipear < NO > porque caso contrario intentara crear una nueva particion en el disco, borrando la existente
OJO Aca tambien, porque volvera a intentar crear una nueva particion, asi que tipear < NO >
nos muestra un carte del finalizacion
nos muestra un carte del finalizacion
Ahora si, chequeo la conectividad contra el equipo linux234
ping 10.1.2.3
Si funciona la red, lo que debo hacer es :
df -h
umount -l /mnt/sysimage/dev
umount /mnt/sysimage/boot
umount /mnt/sysimage
mkfs.ext3 /dev/VolGroup00/LogVol00 *** o LV_root como o se llame donde monta el /
mount /dev/VolGroup00/LogVol00 /mnt/sysimage
cd /mnt/sysimage
ssh root@10.1.2.3 gzip -dc /backupsos/lnx0038/lnx0038.root.*gz | restore -xvolf -
En este ejemplo el restore tardaba muchisimo debido a que tenia mas de 3 millones de archivos en el /var/spool/clientmqueue/* , y lo solucionamos , agregando un disco, creando un fs nuevo /restore , copiando el archivo.dump.gz a dicho fs y descomprimiendolo despues. Y Ademas, el restore lo hicimos selectivo, es decir de todo menos del /var/spool/clientmqueue
la sintaxis usada fue :
cd /mnt/sysimage; restore -ivf /mnt/sysimage/restore/lnx0038.root.dump
**con los parametros ivf lo abre en modo interactivo, te move, con cd , ls, seleccionas con add y lo extraes con ex
miércoles, 5 de junio de 2019
Agregar area de Swap a uno existente
Estos son los comandos, resumidos:
lvcreate -n lv_swap2 -L50g /dev/VolGroup00
mkswap /dev/VolGroup00/lv_swap2
agregar esta linea al /etc/fstab :
/dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0
swapon -va
free -m
Aca esta el paso a paso detallado :
[root@app2 ~]# lvcreate -n lv_swap2 -L50g /dev/VolGroup00
Logical volume "lv_swap2" created.
[root@app2 ~]# mkswap /dev/VolGroup00/lv_swap2
mkswap: /dev/VolGroup00/lv_swap2: warning: don't erase bootbits sectors
on whole disk. Use -f to force.
Setting up swapspace version 1, size = 52428796 KiB
no label, UUID=68d25033-5db8-4fe5-a53a-c50cfcf9f3e7
[root@app2 ~]# vi /etc/fstab (agregar la linea a continuacion descripta)
/dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0
[root@app2 ~]# swapon -va
swapon on /dev/mapper/VolGroup00-lv_swap2
swapon: /dev/mapper/VolGroup00-lv_swap2: found swap signature: version 1, page-size 4, same byte order
swapon: /dev/mapper/VolGroup00-lv_swap2: pagesize=4096, swapsize=53687091200, devsize=53687091200
[root@app2 ~]# free -m
total used free shared buffers cached
Mem: 258208 169225 88982 0 1642 128652
-/+ buffers/cache: 38931 219277
Swap: 67583 2197 65386
[root@app2 ~]#
jueves, 9 de mayo de 2019
Error en rpmdb, solucion
rpmdb: Thread/process 32254/47320016639680 failed: Thread died in Berkeley DB library
error: db3 error(-30974) from dbenv->failchk: DB_RUNRECOVERY: Fatal error,
run database recovery
error: cannot open Packages index using db3 - (-30974)
error: cannot open Packages database in /var/lib/rpm
CRITICAL:yum.main:
Error: rpmdb open failed
La solucion es reconstruir la base de rpm, de esta manera:
[root@webdb1]# mkdir /var/lib/rpm/backup
[root@webdb1]# cp -a /var/lib/rpm/__db* /var/lib/rpm/backup/
[root@webdb1]# rm -f /var/lib/rpm/__db.[0-9][0-9]*
[root@webdb1]# rpm --quiet -qa
[root@webdb1]# rpm --rebuilddb
[root@webdb1]# yum clean all
Loaded plugins: enabled_repos_upload, package_upload, product-id, search-disabled-repos, security, subscription-manager This system is registered with an entitlement server, but is not receiving updates. You can use subscription-manager to assign subscriptions.
Cleaning repos:
Cleaning up Everything
Uploading Enabled Repositories Report Loaded plugins: product-id
[root@webdb1]#
error: db3 error(-30974) from dbenv->failchk: DB_RUNRECOVERY: Fatal error,
run database recovery
error: cannot open Packages index using db3 - (-30974)
error: cannot open Packages database in /var/lib/rpm
CRITICAL:yum.main:
Error: rpmdb open failed
La solucion es reconstruir la base de rpm, de esta manera:
[root@webdb1]# mkdir /var/lib/rpm/backup
[root@webdb1]# cp -a /var/lib/rpm/__db* /var/lib/rpm/backup/
[root@webdb1]# rm -f /var/lib/rpm/__db.[0-9][0-9]*
[root@webdb1]# rpm --quiet -qa
[root@webdb1]# rpm --rebuilddb
[root@webdb1]# yum clean all
Loaded plugins: enabled_repos_upload, package_upload, product-id, search-disabled-repos, security, subscription-manager This system is registered with an entitlement server, but is not receiving updates. You can use subscription-manager to assign subscriptions.
Cleaning repos:
Cleaning up Everything
Uploading Enabled Repositories Report Loaded plugins: product-id
[root@webdb1]#
sábado, 4 de mayo de 2019
Semaphore ! - cannot create semaphore No space left on device
Me conecto al equipo, y chequeo los valores actuales
[root@lnx157 ~]# ipcs -sl
------ Semaphore Limits --------
max number of arrays = 128
max semaphores per array = 250
max semaphores system wide = 32000
max ops per semop call = 32
semaphore max value = 32767
[root@lnx0157 ~]# sysctl kernel.sem
kernel.sem = 250 32000 32 128
[root@lnx0157 ~]#
Dependiendo si es red hat 6 o menor, hacer :
[root@lnx0157 ~]# echo kernel.sem = 250 64000 32 256 >>/etc/sysctl.conf
[root@lnx0157 ~]# sysctl -p
[root@lnx0157 ~]# sysctl kernel.sem
kernel.sem = 250 64000 32 256
[root@lnx0157 ~]#
Con el sysctl -p, relee el sysctlconf y toma los cambios, pero lo mejor es un reboot.
En el caso que sea un redhat 7, hay que hacer
echo kernel.sem = 250 64000 32 256 >/etc/sysctl.d/99-kernelsem.conf
sysctl --system
chequeo los valores con
sysctl kernel.sem ipcs -sl
A continuacion dejo unos valores de ejemplo para usar
kernel.sem = 250 64000 32 256
kernel.sem = 250 320000 32 1280
kernel.sem = 500 640000 32 1280
kernel.sem = 500 4096000 32 8192
jueves, 25 de abril de 2019
Single user y falta el /bin
Primero describimos como llegar a single user en red hat 7 y luego como hacerlo bootear si nos falta el /bin , con un ejemplo de cuando el discagnt te borra el /bin
Elegir la primer linea del grub, la que NO dice rescue. y editarla con la tecla "e"
Buscar la linea que empieza con linux16 , ir al final y agregarle rd.break
Luego presionar las teclas CTRL + X , esto bootea y te deja en el prompt del initramfs con un shell de root, donde luego debo montar como RW el /sysroot
luego ahi puedo cambiar el /sysroot como el / , haciendo un chroot /sysroot
llegado a este punto, ya podria hacer un passwd root y cambiarle la password tranquilamente, y luego darle un reboot.
OJO, en el caso de tener problemas como el siguiente
Llegado a este punto, vemos que no tiene nada en el /bin/sh , asi que tengo que bootear con init=/usr/bin/bash
En este caso, ahi es donde vemos que el /bin esta vacio, solo con el discagnt
Esto es lo que hay que hacer para arreglarlo
Luego darle un RESET , porque no tomo el reboot
listo
jueves, 4 de abril de 2019
Update con redhat-upgrade tool de rhel 6.x a 7.x
cat /etc/redhat-release
yum update
subscription-manager repos --enable rhel-6-server-extras-rpms
yum update
yum -y install preupgrade-assistant preupgrade-assistant-el6toel7 preupgrade-assistant-tools
preupg -v
yum -y install redhat-upgrade-tool
yum -y install yum-utils
yum-config-manager --disable *
DESDE LA CONSOLA SI O SI!!!!!!
[root@app1 ~]
# redhat-upgrade-tool --network 7.6 --instrepo http://10.76.40.120/7.6/7Server/x86_64/
Configurar la red especialmente los archivos de route-ethXX
reiniciar y cuando todo funcione reinstalar grubyum remove grub
yum install grub2
grub2-install --grub-setup=/bin/true /dev/sda
grub2-mkconfig -o /boot/grub2/grub.cfg
vi /boot/grub/grub.conf
agregar
title GRUB 2 Test
root (hd0,0)
kernel /grub2/i386-pc/core.img
boot
reboot #####y seleccionar la opcion grub2 test
si funca ya esta casi listo solo corremos lo siguiente
grub2-install /dev/sda
miércoles, 27 de marzo de 2019
Habilitar creacion core files
### Edito el limits.conf me deslogeo y me logeo.
[root@app1 ~]# ulimit -c
0
[root@app1 ~]# vi /etc/security/limits.conf
* soft core unlimited
* hard core unlimited
[root@app1 ~]# logout
[root@app1 ~]# ulimit -c
unlimited
[root@app1 ~]# ulimit -c
0
[root@app1 ~]# vi /etc/security/limits.conf
* soft core unlimited
* hard core unlimited
[root@app1 ~]# logout
[root@app1 ~]# ulimit -c
unlimited
viernes, 1 de marzo de 2019
Repositorio Local desde una imagen .iso
# mount -o loop RHEL7.1.iso /mnt # mount -o loop RHEL7.1.iso /mnt # mount -o loop /dev/sr0 /mnt cp /mnt/media.repo /etc/yum.repos.d/rhel7dvd.repo chmod 644 /etc/yum.repos.d/rhel7dvd.repo enabled=1 baseurl=file:///mnt/ gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release [InstallMedia] name=DVD for Red Hat Enterprise Linux 7.1 Server mediaid=1359576196.686790 metadata_expire=-1 gpgcheck=1 cost=500 enabled=1 baseurl=file:///mnt/ gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release yum clean all subscription-manager clean yum --noplugins install gcc-* libstdc++* glibc-devel
RPM
# Fecha de paquetes instalados
for PACKAGE in $(rpm -aq | grep kernel);
do
echo "$PACKAGE was intalled on $(date -d @$(rpm -q --qf "%{INSTALLTIME}\n" $PACKAGE))";
done
for PACKAGE in $(rpm -aq | grep kernel);
do
echo "$PACKAGE was intalled on $(date -d @$(rpm -q --qf "%{INSTALLTIME}\n" $PACKAGE))";
done
ssh remoto
# SSH copiado remoto
tar cpf - /some/important/data | ssh user@destination-machine "tar xpf - -C /some/directory/"
tar cvpf - /mediation/proc | ssh root@10.7.24.98 "tar xpf - -C /mediation/proc/"
tar cvpf - /mediation/input | ssh root@10.7.24.98 "tar xpf - -C /mediation/input/"
tar cvpf - /mediation/backup2 | ssh root@10.7.24.98 "tar xpf - -C /mediation/backup2/"
tar cpf - /some/important/data | ssh user@destination-machine "tar xpf - -C /some/directory/"
tar cvpf - /mediation/proc | ssh root@10.7.24.98 "tar xpf - -C /mediation/proc/"
tar cvpf - /mediation/input | ssh root@10.7.24.98 "tar xpf - -C /mediation/input/"
tar cvpf - /mediation/backup2 | ssh root@10.7.24.98 "tar xpf - -C /mediation/backup2/"
Configurar Sendmail
#--smtp
#echo "DAEMON=yes" > /etc/sysconfig/sendmail
#echo "QUEUE=1h" >> /etc/sysconfig/sendmail
#yum reinstall sendmail sendmail-cf
## Editar la linea de smarthost en /etc/mail/sendmail.mc para que quede asi:
#define(`SMART_HOST', `[smtpappl.dominio.com.ar]')'
#m4 /etc/mail/sendmail.mc > /etc/mail/sendmail.cf
#service sendmail restart
#NOW=$(date +"%H:%M:%S %d/%m/%Y");echo "${HOSTNAME} ${NOW} " | mail -vvv -s "${HOSTNAME} mail relay test" st_linux@dominio.com.ar
#NOW=$(date +"%H:%M:%S %d/%m/%Y");echo "${HOSTNAME} ${NOW} " | mail -vvv -s "${HOSTNAME} mail relay test" st_linux@dominio.com.ar
#echo $HOSTNAME prueba de mail |mail -vvv -s test st_linux@dominio.com.ar
#echo "${HOSTNAME} prueba de mail relay" | mail -vvv -s "${HOSTNAME} test" st_linux@dominio.com.ar
#probar mail con telnet:
#telnet smtpappl.dominio.com.ar 25
#HELO dominio.com.ar
#MAIL FROM: st_linux@dominio.com.ar
#RCPT TO: st_linux@dominio.com.ar
#DATA
#prueba
#.
#QUIT
#----Disable mails in cron:
#MAILTO=""
#echo "DAEMON=yes" > /etc/sysconfig/sendmail
#echo "QUEUE=1h" >> /etc/sysconfig/sendmail
#yum reinstall sendmail sendmail-cf
## Editar la linea de smarthost en /etc/mail/sendmail.mc para que quede asi:
#define(`SMART_HOST', `[smtpappl.dominio.com.ar]')'
#m4 /etc/mail/sendmail.mc > /etc/mail/sendmail.cf
#service sendmail restart
#NOW=$(date +"%H:%M:%S %d/%m/%Y");echo "${HOSTNAME} ${NOW} " | mail -vvv -s "${HOSTNAME} mail relay test" st_linux@dominio.com.ar
#NOW=$(date +"%H:%M:%S %d/%m/%Y");echo "${HOSTNAME} ${NOW} " | mail -vvv -s "${HOSTNAME} mail relay test" st_linux@dominio.com.ar
#echo $HOSTNAME prueba de mail |mail -vvv -s test st_linux@dominio.com.ar
#echo "${HOSTNAME} prueba de mail relay" | mail -vvv -s "${HOSTNAME} test" st_linux@dominio.com.ar
#probar mail con telnet:
#telnet smtpappl.dominio.com.ar 25
#HELO dominio.com.ar
#MAIL FROM: st_linux@dominio.com.ar
#RCPT TO: st_linux@dominio.com.ar
#DATA
#prueba
#.
#QUIT
#----Disable mails in cron:
#MAILTO=""
Procesos
#----Top 10 consumo de memoria
#ps -auxf | sort -nr -k 4 | head -10
#---Top 10 consumo de CPU
#ps -auxf | sort -nr -k 3 | head -10
#----Borrar mails :
#cd /var/spool/clientmqueue/ ; find . | xargs rm -v {}
# hacer mierda los procesos de un fs cuando fuser no funciona
FS='/u00' ; for i in $(lsof ${FS} | awk '{print $2}' | uniq | grep -v "PID") ; do kill -9 $i ; done
# hacer mierda los proceso de los fs de un vg en ro (read only )
VG='vg_store' ; for fs in $(cat /etc/fstab | grep ${VG} | awk '{print $2}'); do for i in $(lsof ${fs} | awk '{print $2}' | uniq | grep -v "PID") ; do kill -9 $i ; done ; done
#ps -auxf | sort -nr -k 4 | head -10
#---Top 10 consumo de CPU
#ps -auxf | sort -nr -k 3 | head -10
#----Borrar mails :
#cd /var/spool/clientmqueue/ ; find . | xargs rm -v {}
# hacer mierda los procesos de un fs cuando fuser no funciona
FS='/u00' ; for i in $(lsof ${FS} | awk '{print $2}' | uniq | grep -v "PID") ; do kill -9 $i ; done
# hacer mierda los proceso de los fs de un vg en ro (read only )
VG='vg_store' ; for fs in $(cat /etc/fstab | grep ${VG} | awk '{print $2}'); do for i in $(lsof ${fs} | awk '{print $2}' | uniq | grep -v "PID") ; do kill -9 $i ; done ; done
Algo de Redes
#----Conexiones no exitosas. #nc -zv 172.168.1.1 80 #----Visualizar por que interfaz de red sale el trafico #/sbin/ip route get 10.11.34.1 #Borrar ip vieja: #ip addr del 10.75.255.15/22 dev eth2.150 #Desactivar ZEROCONF #En la salida del comando route se ve algo como esto: #169.254.0.0 0.0.0.0 255.255.0.0 U 0 0 0 #add the following NOZEROCONF value to the end of the file: #NETWORKING=YES #HOSTNAME=localhost.localdomain #NOZEROCONF=yes # Rutas en rhel7 ip route ip route get 10.0.0.1 cat > /etc/sysconfig/network-scripts/route-{$ifname} << EOF 10.0.0.0 via 10.0.2.1 dev ${ifname} EOF systemctl restart network # Netcat para puerto en escucha local nc -l 8080 # Netcat para test tcp nc -z -n -v ip_servidor port nc -z -n -v 10.0.0.2 8888 # Netcat Conexion TCP Server A nc -l 8888 > output_file Server B, client. nc server_a_ip 8888 < send_file Web Server while true ; do nc -l -p 8443 -c 'echo -e "HTTP/1.1 200 OK\n
\n $(date) $(hostname)"'; done
martes, 26 de febrero de 2019
Reglas Udev Oracle
cd /etc/udev/rules.d vi 96-dm-oracle-permissions.rules ##### SE AGREGA LINEA POR CADA DISCO ###### ENV{DM_NAME}=="mpdata01", OWNER:="oracle", GROUP:="oinstall", MODE:="660" ENV{DM_NAME}=="mpdata01p1", OWNER:="oracle", GROUP:="oinstall", MODE:="660" ENV{DM_NAME}=="mpdata02", OWNER:="oracle", GROUP:="oinstall", MODE:="660" ENV{DM_NAME}=="mpdata02p1", OWNER:="oracle", GROUP:="oinstall", MODE:="660" ################################################# luego ejecutar: [root@linux]# udevadm control --reload-rules [root@linux]# udevadm trigger --type=devices --action=change
Esto te muestra las propiedades y te puede ayudar:
udevadm info –query=property –name /dev/xxxxxx
lunes, 25 de febrero de 2019
LVM (cortitos)
#pvcreate /dev/mapper/mp_u00p1 #vgcreate vg_u00 /dev/mapper/mp_u00p1 #lvcreate -n lv_u00 -l 100%FREE vg_u00 #mkdir /u00 #mkfs.ext4 /dev/vg_u00/lv_u00 #tune2fs -c -1 /dev/vg_u00/lv_u00 RESIZE FS #RHEL 5 y 6 #lvresize -L +8G /dev/<volumegroup>/<logicalvolume> #resize2fs -p /dev/<volumegroup>/<logicalvolume>10G #RHEL4 #ext2online /dev/<volumegroup>/<logicalvolume>
jueves, 21 de febrero de 2019
Falla en la desinstalacion de Access Control
Si al intentar desisntalar el access control, nos tira un error del tipo:
[root@app4 lbin]# /opt/CA/eTrustAccessControl/lbin/Uninstall
ERROR: Another CA ControlMinder process is currently running. Wait until the process completes and run uninstallation again, or remove /tmp/pre_install. [root@app4 lbin]#
La solucion es borrar el /tmp/pre-install
[root@app4 lbin]# rm -fr /tmp/pre_install [root@app4 lbin]# /opt/CA/eTrustAccessControl/lbin/Uninstall Removing CA ControlMinder service from /etc/services Removing CA ControlMinder system call loader. Trying to remove references to CA ControlMinder from the system init files. Removing CA ControlMinder PAM module from your system. Restoring /etc/pam.d/login by removing last changes made to file Removing CA ControlMinder Admin tools binaries and directories. Removing CA ControlMinder Admin tools X-resource files. The CA ControlMinder Admin tools files have now been removed from your system. Removing seos.ini from /etc The token global.AC_Version, now set to 'none', (was '12.xx.0.2919') Removing ControlMinder from AccessControl Shared dependency list Removing AccessControl Shared Removing CAPKI. Removing CA ControlMinder binaries and directories. UnInstall complete. The CA ControlMinder files have now been removed. Warning: If you have replaced /bin/passwd with sepass, You must restore the original /bin/passwd. You may edit your /etc/passwd and /etc/group files, in order to remove unnecessary users. [root@app4 lbin]#
Upgrade version de SO desde el satellite
subscription-manager register --org="miOrga" --activationkey="ak_miOrga" subscription-manager release --set=6.9 subscription-manager release --show yum --releasever=6.9 update
miércoles, 20 de febrero de 2019
Agregar VIP al cluster 6.6
Editar el archivo /etc/cluster/cluster.conf y agregar la ip como servicio y como recurso
[root@cluster01]# vim cluster.conf
<resources> <ip address="10.5.254.3" monitor_link="1"/> </resources> <service autostart="1" domain="fd-mbdvdes" name="svc-mbd" recovery="relocate"> <ip ref="10.5.254.3"/> </service>
Verificar la version actual del archivo de configuracion del cluster, con el siguiente comando
[root@cluster01]# cman_tool version 6.2.0 config 24 [root@cluster01]#
Ahora con ese dato, editar el archivo de configuracion del cluster ( en ambos nodos del cluster ) y en la primera linea modificarle al version ( sumaremos 1 a la actual, en este caso sera 25 )
[root@cluster01]# vim cluster.conf <?xml version="1.0"?> <cluster config_version="25" name="cl-cluster">
Ahora si, replicar la configuracion con el siguiente comando ( ejecutarlo solo en uno de los nodos ) :
cman_tool version -r -S
Ahora chequeo si levanto la ip VIP del cluster
[root@cluster01]# ip ad sh |grep glo |grep bond0
inet 10.5.252.2/22 brd 10.5.255.255 scope global bond0.150 inet 10.5.254.3/22 scope global secondary bond0.150 [root@cluster01]#
martes, 19 de febrero de 2019
Habilitar core dumps (crash dumps)
cat /etc/kdump.conf |grep -v "#" path /var/crash core_collector makedumpfile -c --message-level 1 -d 31
[root@prod5 ]# service kdump restart
Stopping kdump: [ OK ]
Detected change(s) the following file(s):
/etc/kdump.conf
Rebuilding /boot/initrd-2.6.32-358.el6.x86_64kdump.img
No module seos found for kernel 2.6.32-358.el6.x86_64, aborting.
Failed to run mkdumprd
Starting kdump: [FAILED]
Solucion
secons -sk
SEOS_load -u
y reintentar
si no funciona bootearlo sin ac
chkconfig seos off
reboot
service kdump restart
Probar kdump
#probar kdump #Then type the following commands at a shell prompt: #echo 1 > /proc/sys/kernel/sysrq #echo c > /proc/sysrq-trigger
Sacar EMC powerpath ** lleva reboot del server**
Chequeo los valores actuales del multiapth y luego de los physical volume
# multipath -ll
Pseudo name=emcpowera Symmetrix ID=000295700059 Logical device ID=1D4E state=alive; policy=BasicFailover; queued-IOs=0 ============================================================================== --------------- Host --------------- - Stor - -- I/O Path -- -- Stats --- ### HW Path I/O Paths Interf. Mode State Q-IOs Errors ============================================================================== 6 lpfc sdu FA 6eB unlic alive 0 0 4 lpfc sdk FA 11eA active alive 0 0 Pseudo name=emcpowerb Symmetrix ID=000295700059 Logical device ID=1D4D state=alive; policy=BasicFailover; queued-IOs=0 ============================================================================== --------------- Host --------------- - Stor - -- I/O Path -- -- Stats --- ### HW Path I/O Paths Interf. Mode State Q-IOs Errors ============================================================================== 6 lpfc sdt FA 6eB unlic alive 0 0 4 lpfc sdj FA 11eA active alive 0 0 Pseudo name=emcpowerc Symmetrix ID=000295700059 Logical device ID=1D4C state=alive; policy=BasicFailover; queued-IOs=0 ============================================================================== --------------- Host --------------- - Stor - -- I/O Path -- -- Stats --- ### HW Path I/O Paths Interf. Mode State Q-IOs Errors ============================================================================== 6 lpfc sds FA 6eB unlic alive 0 0 4 lpfc sdi FA 11eA active alive 0 0 FA 6eB unlic alive 0 0 4 lpfc sdf FA 11eA active alive 0 0 #
Chequeo los physical volume actuales
# pvs PV VG Fmt Attr PSize PFree /dev/emcpoweri1 vg_u01 lvm2 a-- 60.00g 0 /dev/sda2 vg_omidbsrv2 lvm2 a-- 278.88g 224.07g #
Ahora hago la magia
# /etc/init.d/PowerPath stop Stopping PowerPath: Following LVM volume groups are in use: Volume Group: vg_u01 (/dev/emcpoweri1) These open logical volume devices use LUNs from PowerPath managed devices, Please reissue the command after closing these volumes. failed # mv /etc/init.d/PowerPath /root/PowerPath # # reboot -f
Luego del Reboot hacer
# powermt display dev=all
ERROR: Cannot open PowerPath. Initialization error # pvs Found duplicate PV BKQDRy80KHl3e8ZDuJM4rws21cgjTlU0: using /dev/sdc1 not /dev/sdq1 PV VG Fmt Attr PSize PFree /dev/sda2 vg_omidbsrv2 lvm2 a-- 278.88g 224.07g /dev/sdc1 vg_u01 lvm2 a-- 60.00g 0 # rpm -qa |grep -i emc EMCpower.LINUX-5.7.1.00.00-029.el6.x86_64 # rpm -e EMCpower.LINUX-5.7.1.00.00-029.el6.x86_64 # yum install device-mapper-multipath # cd / # cp ./usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc/multipath.conf # service multipathd start Starting multipathd daemon: [ OK ] # multipath -ll # chkconfig multipathd on #
martes, 12 de febrero de 2019
Actualizar Version de Sistema Operativo
En el equipo stlinux1, ejecutar :
stlinux1 ~]# cd /SOFT/repos
stlinux1 repos]# ls -ltr total 4 drwxr-xr-x 3 root root 21 Dec 14 15:29 7.3 drwxr-xr-x 3 root root 21 Dec 14 15:31 6.3 drwxr-xr-x 3 root root 21 Dec 14 15:32 5.8 drwxr-xr-x 3 root root 21 Dec 14 15:33 5.4 drwxr-xr-x 3 root root 21 Dec 14 15:34 6.8 drwxr-xr-x 3 root root 21 Dec 14 15:36 6.6 -rwxr--r-- 1 root root 3159 Dec 17 16:22 crea_repo_con_menu.sh drwxr-xr-x 3 root root 21 Dec 19 10:58 7.6 drwxr-xr-x 3 root root 21 Dec 19 11:17 7.4 drwxr-xr-x 3 root root 21 Jan 9 03:45 6.4 drwxr-xr-x 3 root root 21 Feb 4 09:48 6.9 stlinux1 repos]#
Ejecutar sh crea_repo_con_menu.sh y seleccionar la version a la cual queremos actualizar el SO
sh crea_repo_con_menu.sh
Me genera esta salida, de la cual voy a extraer los datos para modificar
luego el cliente a actualizar.
El iso elegido es : rhel-server-6.9-x86_64-dvd.iso
Release : 6.9 Arch : x86_64 Releasever : 6Server Verficando/Updateando repo localmente El repo ya existe existe /SOFT/repos/6.9/6Server/x86_64 ################################################################### ##### Crear en el cliente /etc/yum.repos.d/stlinux.repo con lo ##### ##### siguiente: ##### ################################################################### [stlinux-Server] name=Red Hat Enterprise Linux $releasever - $basearch - stlinux baseurl=http://10.1.3.37/6.9/$releasever/$basearch/Server/ enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
En el cliente a actualizar tengo que ejecutar
subscription-manager clean
copiar y pegar desde [stlinux-Server] hasta gpgkey incluido, dentro del archivo /etc/yum.repos.d/stlinux.repo
[stlinux-Server] name=Red Hat Enterprise Linux $releasever - $basearch - stlinux baseurl=http://10.1.3.37/6.9/$releasever/$basearch/Server/ enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
yum clean all
yum update #Yes
luego reboot
lunes, 11 de febrero de 2019
rpm colgado
El sintoma es que el rpm -qa se queda colgado. La manera de solucionarlo fue matar los procesos asociados al rpm y reconstruir la base de rpm borrandola previamente.
# ps -ef | grep rpm
root 7729 5539 0 15:45 ? 00:00:00 /bin/sh /etc/cron.daily/rpm root 7730 5539 0 15:45 ? 00:00:00 awk -v progname=/etc/cron.daily/rpm progname {????? print progname ":\n"????? progname="";???? }???? { print; } root 7733 7729 0 15:45 ? 00:00:00 /usr/lib/rpm/rpmq -q --all --qf %{name}-%{version}-%{release}.%{arch}.rpm\n root 7737 7461 0 15:45 pts/2 00:00:00 /usr/lib/rpm/rpmq -q --all root 7882 7601 0 15:47 pts/7 00:00:00 grep rpm # kill -9 7729 7730 7733 7737 # ps -ef | grep rpm root 7963 7601 0 15:48 pts/7 00:00:00 grep rpm # rm /var/lib/rpm/__db* rm: remove regular file `/var/lib/rpm/__db.001'? y rm: remove regular file `/var/lib/rpm/__db.002'? y rm: remove regular file `/var/lib/rpm/__db.003'? y # rpm --rebuilddb
jueves, 7 de febrero de 2019
Network error, unable to connect to server. Please /var/log/rhsm/rhsm.log for more information.
Al intentar registrar un equipo al satellite, que no habia sido registrado anteriormente, arrojo el error mencioando en el titulo de este post.
# subscription-manager register --org=”Orga” --activationkey=”ak_Orga” Network error, unable to connect to server. Please see /var/log/rhsm/rhsm.log for more information. # curl -O https://sat1.dominio.com.ar/pub/katello-ca-consumer-latest.noarch.rpm --insecure # rpm -ivh katello-ca-consumer-latest.noarch.rpm Preparing... ########################################### [100%] 1:katello-ca-consumer-plr########################################### [100%] # # subscription-manager register --org="Orga" --activationkey="ak_Orga" The system has been registered with ID: 5c29ba6f-83a6-4a9e-aa18-62c60xaafe71 Installed Product Current Status: Product Name: Red Hat Enterprise Linux Server Status: Subscribed # yum clean all Loaded plugins: product-id, security, subscription-manager Cleaning repos: InstallMedia rhel-6-server-optional-rpms rhel-6-server-rpms Cleaning up Everything # yum install net-snmp net-snmp-utils
error Can't open /dev/mapper/mp_u01 exclusively. Mounted filesystem?
Este error se produjo al intentar agregar o remover un disco
La solucion fue borrarlo con el dm-setup y volverlo a crear como se muestra a continuacion
# pvcreate /dev/mapper/mp_u01 Can't open /dev/mapper/mp_u01 exclusively. Mounted filesystem? # dmsetup info -C Name Maj Min Stat Open Targ Event UUID mpathak 253 70 L--w 0 1 1 mpath-36000144000000010f0058d828093e679 mpdata07 253 42 L--w 1 1 1 mpath-360000970000292603946533030334646 mpdata09p1 253 38 L--w 105 1 0 part1-mpath-360000970000292603946533030334533 mpfra_01 253 47 L--w 1 1 1 mpath-360000970000292603946533030343033 mpathap2 253 3 L--w 3 1 0 part2-mpath-3600508b1001c33eca8bffe940a55d328 mpathaj 253 64 L--w 0 1 1 mpath-36000144000000010f0058d828093e65f VolGroup00-lv_swap 253 52 L--w 1 1 0 LVM-e16sRDsZfUWb1Tet4ezit8hAzJtMQjrVjOrQlG97MssYdlXrPzHCcqQJlutRiWcM mpdata06 253 32 L--w 1 1 1 mpath-360000970000292603946533030334537 VG_app-lv_app 253 56 L--w 1 1 0 LVM-2kHoNZKFTh4zbnOZvsMRd9wuhyrcLdMebmg73Aut8Zw6molkBjC6vL99MU6aToGs VolGroup00-lv_root 253 51 L--w 1 1 0 LVM-e16sRDsZfUWb1Tet4ezit8hAzJtMQjrVsQKPdVwFz4U5UKamzS7Zzz8DU1cIA0Si mpocr03 253 16 L--w 1 1 1 mpath-360000970000292603946533030344143 mpathap1 253 2 L--w 1 1 0 part1-mpath-3600508b1001c33eca8bffe940a55d328 mpu00p1 253 14 L--w 1 1 0 part1-mpath-360000970000292603946533030343244 mpathai 253 63 L--w 0 1 1 mpath-36000144000000010f0058d828093e655 mpdata05 253 33 L--w 1 1 3 mpath-360000970000292603946533030334542 mpathc 253 4 L--r 0 1 1 mpath-360000970000292603946533030303530 mpocr02 253 22 L--w 1 1 1 mpath-360000970000292603946533030344144 mpocr01p1 253 19 L--w 8 1 0 part1-mpath-360000970000292603946533030344145 mpu01p1 253 11 L--w 1 1 0 part1-mpath-360000970000292603946533030343245 mpocr02p1 253 28 L--w 4 1 0 part1-mpath-360000970000292603946533030344144 mpathah 253 61 L--w 0 1 1 mpath-36000144000000010f0058d828093e650 mpdata04 253 35 L--w 1 1 1 mpath-360000970000292603946533030334546 mpathb 253 1 L--w 0 1 1 mpath-3600508b1001cdc8279ddb944060d80dd mpocr01 253 12 L--w 1 1 3 mpath-360000970000292603946533030344145 mpocr03p1 253 23 L--w 5 1 0 part1-mpath-360000970000292603946533030344143 VG_u01-lv_u01 253 54 L--w 1 1 0 LVM-TCKdgDIRBA0gtx8HpGXam20xk0p97uwCQu7qLu7R077NgxmwymnY6Y3l8t2aWIE0 mpathag 253 62 L--w 0 1 1 mpath-36000144000000010f0058d828093e65a mpdata03 253 36 L--w 1 1 1 mpath-360000970000292603946533030334633 mpatha 253 0 L--w 2 1 0 mpath-3600508b1001c33eca8bffe940a55d328 mpdata10p1 253 37 L--w 106 1 0 part1-mpath-360000970000292603946533030334446 mp_logsp1 253 68 L--w 1 1 0 part1-mpath-36000144000000010f0058d828093e649 mpathaf 253 65 L--w 0 1 1 mpath-36000144000000010f0058d828093e664 mpdata02 253 39 L--w 1 1 1 mpath-360000970000292603946533030334637 mpdata11p1 253 34 L--w 107 1 0 part1-mpath-360000970000292603946533030334442 mpappsp1 253 9 L--w 1 1 0 part1-mpath-360000970000292603946533030343231 mpdata12p1 253 31 L--w 108 1 0 part1-mpath-360000970000292603946533030334437 mpdata01 253 45 L--w 1 1 1 mpath-360000970000292603946533030334642 VG_logs-pvmove0 253 73 L--w 1 1 0 LVM-rnGCrs5MGQMsHW6Ec9PWN0L9sYQ1ceKwSnRphlJfL8GCuiwYOEPmhavL24wLeoad mpdata13p1 253 25 L--w 105 1 0 part1-mpath-360000970000292603946533030334433 mpdata14p1 253 27 L--w 105 1 0 part1-mpath-360000970000292603946533030334346 mpdata15 253 13 L--w 1 1 1 mpath-360000970000292603946533030334342 mp_logs 253 60 L--w 1 1 1 mpath-36000144000000010f0058d828093e649 mpdata15p1 253 20 L--w 107 1 0 part1-mpath-360000970000292603946533030334342 mpathac 253 59 L--w 0 1 1 mpath-36000144000000010f0058d828093e644 mpdata14 253 18 L--w 1 1 3 mpath-360000970000292603946533030334346 mpdata01p1 253 49 L--w 108 1 0 part1-mpath-360000970000292603946533030334642 mpathao 253 71 L--w 0 1 1 mpath-36000144000000010f0058d828093e67e mpdata02p1 253 46 L--w 107 1 0 part1-mpath-360000970000292603946533030334637 mpfra_01p1 253 50 L--w 17 1 0 part1-mpath-360000970000292603946533030343033 mpdata13 253 17 L--w 1 1 1 mpath-360000970000292603946533030334433 mp_u01 253 58 L--w 1 1 1 mpath-36000144000000010f0058d828093e63f mplogs 253 6 L--w 1 1 1 mpath-360000970000292603946533030343236 mpdata03p1 253 44 L--w 111 1 0 part1-mpath-360000970000292603946533030334633 mpathan 253 66 L--w 0 1 1 mpath-36000144000000010f0058d828093e669 mpdata04p1 253 43 L--w 107 1 0 part1-mpath-360000970000292603946533030334546 mpdata12 253 24 L--w 1 1 1 mpath-360000970000292603946533030334437 mp_u00 253 72 L--w 1 1 1 mpath-36000144000000010f0058d828093e63a VG_logs-lv_logs 253 55 L--w 1 1 0 LVM-rnGCrs5MGQMsHW6Ec9PWN0L9sYQ1ceKweTWBIajB0zDGXuD0BUNiDdN2GYbRaKnX VolGroup00-lv_home 253 57 L--w 1 1 0 LVM-e16sRDsZfUWb1Tet4ezit8hAzJtMQjrVjVNtDyy4HR2PDYKdq8XWD3He0DACFTe5 mpdata05p1 253 41 L--w 110 1 0 part1-mpath-360000970000292603946533030334542 mp_u00p1 253 74 L--w 0 1 0 part1-mpath-36000144000000010f0058d828093e63a mpatham 253 67 L--w 0 1 1 mpath-36000144000000010f0058d828093e66e VG_u00-lv_u00 253 53 L--w 1 1 0 LVM-niGBoMDkV3y8BFKMWfRMwbxT3h2gePlw30jEiPqpIJZGPXMskKSnY2oJdegLlzPm mpdata09 253 30 L--w 1 1 1 mpath-360000970000292603946533030334533 mpdata11 253 26 L--w 1 1 1 mpath-360000970000292603946533030334442 mpapps 253 5 L--w 1 1 1 mpath-360000970000292603946533030343231 mpdata06p1 253 40 L--w 114 1 0 part1-mpath-360000970000292603946533030334537 mp_u01p1 253 75 L--w 0 1 0 mplogsp1 253 10 L--w 1 1 0 part1-mpath-360000970000292603946533030343236 mpu01 253 7 L--w 1 1 1 mpath-360000970000292603946533030343245 mpathal 253 69 L--w 0 1 1 mpath-36000144000000010f0058d828093e673 mpdata07p1 253 48 L--w 106 1 0 part1-mpath-360000970000292603946533030334646 mpdata08 253 15 L--w 1 1 1 mpath-360000970000292603946533030334337 mpdata10 253 29 L--w 1 1 3 mpath-360000970000292603946533030334446 mpdata08p1 253 21 L--w 107 1 0 part1-mpath-360000970000292603946533030334337 mpu00 253 8 L--w 1 1 1 mpath-360000970000292603946533030343244 # dmsetup remove mp_u01p1 # pvcreate /dev/mapper/mp_u01 Writing physical volume data to disk "/dev/mapper/mp_u01" Physical volume "/dev/mapper/mp_u01" successfully created #
lunes, 4 de febrero de 2019
Cambiar parametros STACK oracle db
Cambiar parametro STACK para la instalacion de base de datos oracle:
# ulimit -Ss
8192
vi /etc/security/limits.conf
oracle soft stack 10240 <----agregar esta linea!
Verificacion del parametro:
# su - oracle
DBCOREP:/u00/app/oracle> ulimit -Ss
10240 <---- Parametro ok!
jueves, 10 de enero de 2019
Orden Subida Cluster redhat 6
# service cman start
Starting cluster:
Checking if cluster has been disabled at boot… [ OK ]
Checking Network Manager… [ OK ]
Global setup… [ OK ]
Loading kernel modules… [ OK ]
Mounting configfs… [ OK ]
Starting cman… [ OK ]
Waiting for quorum… [ OK ]
Starting fenced… [ OK ]
Starting dlm_controld… [ OK ]
Starting gfs_controld… [ OK ]
Unfencing self… [ OK ]
Joining fence domain… [ OK ]
# service clvmd start
Starting clvmd:
Activating VG(s): Found duplicate PV v3CdfCX2DsI7NZSYVX0X0YnR6Rz4qyGH: using /dev/sdai1 not /dev/sdq1
Found duplicate PV LAZIG4x4eoZbh5ezYWcoNtBqM9DtS6Wf: using /dev/sdbo1 not /dev/sdaw1
1 logical volume(s) in volume group "VolGroup_tsm_PR2" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR5" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR1" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR1" now active
1 logical volume(s) in volume group "VolGroup_arpr1" now active
1 logical volume(s) in volume group "VolGroup_z01" now active
1 logical volume(s) in volume group "VolGroup_x01" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR2" now active
1 logical volume(s) in volume group "VolGroup_arpr5" now active
1 logical volume(s) in volume group "VolGroup_u01" now active
1 logical volume(s) in volume group "VolGroup_arpr2" now active
1 logical volume(s) in volume group "VolGroup_v00" now active
1 logical volume(s) in volume group "VolGroup_arpr1" now active
1 logical volume(s) in volume group "VolGroup_w00" now active
1 logical volume(s) in volume group "VolGroup_w01" now active
1 logical volume(s) in volume group "VolGroup_v01" now active
1 logical volume(s) in volume group "VolGroup_z00" now active
1 logical volume(s) in volume group "VolGroup_x00" now active
1 logical volume(s) in volume group "VolGroup_u00" now active
1 logical volume(s) in volume group "VolGroup_arposipr2" now active
3 logical volume(s) in volume group "VolGroup00" now active
[ OK ]
# service gfs2 start
GFS2: no entries found in /etc/fstab
# service rgmanager start
Starting Cluster Service Manager: [ OK ]
#
lunes, 7 de enero de 2019
Sacar /boot del multipath
# mkdir /boot.old
# umount /boot
# mount /dev/mapper/mpathap1 /boot.old/
# mount --bind /boot.old/ /boot (menos menos bind)
# df -h (no se ve el bind aca pero si en el mount)
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-lv_root 30G 5.8G 23G 21% /
tmpfs 16G 0 16G 0% /dev/shm
/dev/mapper/VolGroup00-lv_home 7.9G 2.6G 5.0G 35% /home
/dev/mapper/mpathap1 388M 65M 304M 18% /boot.old
# mount
/dev/mapper/VolGroup00-lv_root on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on /dev/shm type tmpfs (rw)
/dev/mapper/mpathap1 on /boot.old type ext4 (rw)
/boot.old on /boot type none (rw,bind)
Agregar lun a rhel cluster 5
Verificamos las wwn online y pedimos la lun.
# cat /sys/class/fc_host/*/port_name 0x21000024ff219f38 0x21000024ff219f39 0x21000024ff2194ac 0x21000024ff2194ad # cat /sys/class/fc_host/*/port_state Online Online Linkdown Linkdown
Una vez que nos asignaron las luns rescaneamos, identificamos la lun y la editamos el /etc/multipath.conf para modificarle el nombre. (TODO ESTO EN LOS DOS NODOS)
# rescan-scsi-bus.sh
# multipath -F; multipath -v2 create: mpath27 (360050768018285d270000000000005b5) IBM,2145 [size=200G][features=0][hwhandler=0][n/a] \_ round-robin 0 [prio=50][undef] \_ 1:0:1:26 sdcm 69:160 [undef][ready] \_ 2:0:1:26 sdco 69:192 [undef][ready] \_ round-robin 0 [prio=10][undef] \_ 1:0:0:26 sdcl 69:144 [undef][ready] \_ 2:0:0:26 sdcn 69:176 [undef][ready] # vi /etc/multipath.conf ### Agregamos algo como esto multipath { wwid 360050768018285d270000000000005b5 alias mp_storage_u11 } # multipath -F; multipath -v2
Con el disco reconocido por el sistema operativo procedemos a formatearlo, agregarlo a lvm.
# fdisk /dev/mapper/mp_storage_u11
[ ponemos todas las opciones que van n - p - 1 - enter - enter t 8e w ] # pvcreate /dev/mapper/mp_storage_u11p1 # vgcreate vgstorage_u11 /dev/mapper/mp_storage_u11p1 # lvcreate -n lv_u11 -l 100%FREE vgstorage_u11Aca faltaria crear el fs y agregarlo al cluster el tema es que el tipo de fs es gfs2 asi que hay que darle un vueltita de rosca mas.
Con gfs2.tool buscamos la etiquieta de locktable que tienen los fs montados y la cantidad de journals (deberia ser un journal por nodo que lo monta)
# gfs2_tool list
253:52 gatclu:u10 253:58 gatclu:utsm 253:57 gatclu:uarchive 253:60 gatclu:gfs2 253:53 gatclu:u08 253:51 gatclu:u07 253:50 gatclu:u06 253:48 gatclu:gfs2-u05 253:61 gatclu:u04 253:59 gatclu:u03 253:56 gatclu:u02 253:55 gatclu:u01 253:54 gatclu:u00 # gfs2_tool journals /u09 journal1 - 128MB journal0 - 128MB 2 journal(s) found.
Creamos entonces los fs y los agregamos al cluster.
mkfs.gfs2 -p lock_dlm -t gatclu:u11 -j2 /dev/vgstorage_u11/lv_u11 mount -t gfs2 /dev/vgstorage_u11/lv_u11 /u11 vi /etc/cluster/cluster.conf ### Cambiar la config_version en la seccion cluster <cluster config_version="48" name="gatclu"> ### Agrego en la seccion resources TENER en cuenta el fsid que no se repita <clusterfs device="/dev/vgstorage_u11/lv_u11" force_unmount="1" fsid="58377"
fstype="gfs2" mountpoint="/u11" name="gfs2-u11" options="noatime,defaults"/> ### Agrego en la seccion service <clusterfs ref="gfs2-u11"> </clusterfs>Una vez revisado todo updateo la configuracion del cluster:
ccs_tool update /etc/cluster/cluster.conf
viernes, 4 de enero de 2019
Instalando wordpress en rhel con docker
Partimos de dos servidores con rhel 7, con docker instalado.
El servidor stlinux tiene salida a internet a traves de proxy y el dlstlinux1 no sale a ningun lado pero se publica el blog ahi y todos pueden acceder.
Los pasos a seguir eran bajar las imagenes de docker al plstlinux, exportarlas, copiarlas al dlstlinux1 y finalmente importarlas. Este fue el procedimiento:
Agregar el proxy al servicio docker en plstlinux.
vi /etc/systemd/system/docker.service.d/https-proxy.conf
[Service] Environment="HTTPS_PROXY=https://DOMINIO\usuario:Mipassword2019@proxy:8080"
Reiniciar la confi de sysctl y el demonio de docker y chequear la configuracion recien editada.
systemctl daemon-reload systemctl restart docker systemctl show --property=Environment docker
Bajar las imagenes de docker y exportarlas a archivo.
docker pull mariadb:latest docker pull wordpress:latest docker save -o mariadb.docker mariadb docker save -o wordpress.docker wordpress
Ahora las copio a dlstlinux1 las importo y sigo el procedimiento de instalacion que haya sacado de internet.
docker load -i mariadb.docker
docker load -i wordpress.docker docker run -e MYSQL_ROOT_PASSWORD=coneja -e MYSQL_DATABASE=wordpress --name wordpressdb \
-v "/docker/madb":/var/lib/mysql -d mariadb docker run -e WORDPRESS_DB_PASSWORD=coneja --name wordpress --link wordpressdb:mysql \
-p 8001:80 -v "/docker/wp":/var/www/html -d wordpress
Listo ya tengo instalado un mysql con un wordpress en el puerto 8001 del equipo.
Ahora borra la confi del proxy asi no te bloquea la pass y stopeo el docker del plstlinux que solo lo uso para bajar las imagenes.
rm -f /etc/systemd/system/docker.service.d/https-proxy.conf
systemctl daemon-reload systemctl stop docker
Suscribirse a:
Entradas (Atom)