viernes, 23 de agosto de 2019

Archivos


Buscar archivos mayores a 500 mb

find . -type f -size +500M -exec ls -lh {} \;| awk '{ print $5 "\t" $9}' |sort -k 3





jueves, 22 de agosto de 2019

Agregar area de Swap a una existente

Estos son los comandos, resumidos:

lvcreate -n lv_swap2 -L50g /dev/VolGroup00 mkswap /dev/VolGroup00/lv_swap2 agregar esta linea al /etc/fstab : /dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0 swapon -va free -m
Aca esta el paso a paso detallado
[root@plana]# lvcreate -n lv_swap2 -L50g /dev/VolGroup00
Logical volume "lv_swap2" created.

[root@plana]# mkswap /dev/VolGroup00/lv_swap2
mkswap: /dev/VolGroup00/lv_swap2: warning: don't erase bootbits sectors on whole disk.
Use -f to force. Setting up swapspace version 1, size = 52428796 KiB
[root@plana]# vi /etc/fstab (agregar la linea a continuacion descripta)
/dev/mapper/VolGroup00-lv_swap2 swap    swap    defaults        0       0
[root@plan]# swapon -va swapon on /dev/mapper/VolGroup00-lv_swap2
swapon: /dev/mapper/VolGroup00-lv_swap2: found swap signature: version 1, page-size 4, same byte order swapon: /dev/mapper/VolGroup00-lv_swap2: pagesize=4096, swapsize=53687091200, devsize=53687091200
[root@plan]# free -m              total       used       free     shared    buffers     cached
Mem:        258208     169225      88982          0       1642     128652 -/+ buffers/cache:      38931     219277 Swap:        67583       2197      65386
 [root@plan]#

jueves, 15 de agosto de 2019

Errores de Mail


Aca demostramos que el mail esta configurado en el linux y pero lo rebota el smtp

# echo hola | sendmail -v -Am nicolas@dominio.com.ar
nicolas@dominio.com.ar... Connecting to smtp.dominio.com.ar. via relay...
220 X3.dominio.dominio.com.ar Microsoft ESMTP MAIL Service ready at Thu,13:12:14
>>> EHLO linux.dominio.com.ar
250-mailbox.dominio.arg.dominio.com.ar Hello [10.10.10.108]
250-SIZE
250-PIPELINING
250-DSN
250-ENHANCEDSTATUSCODES
250-STARTTLS
250-X-ANONYMOUSTLS
250-AUTH NTLM
250-X-EXPS GSSAPI NTLM
250-8BITMIME
250-BINARYMIME
250-CHUNKING
250-XEXCH50
250-XRDST
250 XSHADOWREQUEST
>>> STARTTLS
220 2.0.0 SMTP server ready
>>> EHLO linux.dominio.com.ar
250-mailbox.dominio.arg.dominio.com.ar Hello [10.10.10.108]
250-SIZE
250-PIPELINING
250-DSN
250-ENHANCEDSTATUSCODES
250-AUTH NTLM LOGIN
250-X-EXPS GSSAPI NTLM
250-8BITMIME
250-BINARYMIME
250-CHUNKING
250-XEXCH50
250-XRDST
250 XSHADOWREQUEST
>>> MAIL From:<root@linux.dominio.com.ar> SIZE=5
530 5.7.1 Client was not authenticated
/root/dead.letter... Saved message in /root/dead.letter
Closing connection to smtp.dominio.com.ar.
>>> QUIT

lunes, 5 de agosto de 2019

Habilitacion de repo con error


Pidieron habilitar un repositorio rhel-server-rhscl-7-rpms , lo hicimos de la siguiente manera;

subscription-manager repos --enable rhel-7-server-extras-rpms
subscription-manager repos --enable rhel-server-rhscl-7-rpms
subscription-manager repos --list-enabled
 Al intentar usarlo, nos tira error

yum install php

https://sat1.dominio.com.ar/pulp/repos/telecom/Library/content/dist/rhel/server/7/7.5/x86_64/rhscl/1/os/repodata/repomd.xml: [Errno 14] HTTPS Error 404 - Not Found
Trying other mirror.

Cuando pasa que nos muestra la version(resaltada en el parrafo anterior) en lugar de esto rhel/server/7/7Server/x86_64 significa que es porque tiene seteado el release (que lo usamos para llevar a una version especifica en este caso 7.5 al momento de instalar el so) simplemente le sacamos el release y limpiamos los repos asi:


subscription-manager release --unset
yum clean all
yum list

viernes, 5 de julio de 2019

Agregar raw device al oracle rac


En el siguiente ejemplo nos piden agregar 2 luns


 ora1]# rescan-scsi-bus.sh
Scanning SCSI subsystem for new devices
Scanning host 0 for  SCSI target IDs  0 1 2 3 4 5 6 7, all LUNs
 Scanning for device 0 0 0 0 ... 0 ...
OLD: Host: scsi0 Channel: 00 Id: 00 Lun: 00
      Vendor: HP       Model: LOGICAL VOLUME   Rev: 4.52
      Type:   Direct-Access                    ANSI SCSI revision: 05
 Scanning for device 0 3 0 0 ... 0 ...
OLD: Host: scsi0 Channel: 03 Id: 00 Lun: 00
      Vendor: HP       Model: P440ar           Rev: 4.52
      Type:   RAID                             ANSI SCSI revision: 05
Scanning host 1 for  all SCSI target IDs, all LUNs
 Scanning for device 1 0 0 0 ...
OLD: Host: scsi1 Channel: 00 Id: 00 Lun: 00
      Vendor: EMC      Model: Invista          Rev: 5520
      Type:   Direct-Access                    ANSI SCSI revision: 04
 Scanning for device 1 0 0 1 ...

ACA CORTO LA SALIDA PORQUE ES MUY LARGA

8 new or changed device(s) found.
        [1:0:0:31]
        [1:0:0:32]
        [1:0:1:31]
        [1:0:1:32]
        [2:0:0:31]
        [2:0:0:32]
        [2:0:1:31]
        [2:0:1:32]
0 remapped or resized device(s) found.
0 device(s) removed.

Si el procedimiento de arriba no funciona o no esta instalado el rescan-scsi-bus.sh , copiar y pegar el script siguiente :

for s in $(ls /sys/class/scsi_host)
        do
        FILE="/sys/class/fc_host/$s/issue_lip"
        if [ -f $FILE ];
        then
                        echo $s "lip"
                        echo "1" > /sys/class/fc_host/$s/issue_lip
        #else
                        #echo "File $FILE no existe"
        fi
        FILE="/sys/class/scsi_host/$s/scan"
        if [ -f $FILE ];
        then
                        echo $s "scan"
                        echo "- - -" > /sys/class/scsi_host/$s/scan
        #else
           #echo "File $FILE does not exist."
        fi
        sleep 3
        done

Ahora chequeo en Ambos Nodos, si en la salida del multipath -ll veo las luns que me asigno storage

[ ora1 ]# multipath -F; multipath -v2
Jul 05 14:19:09 | mp_fra02: map in use
Jul 05 14:19:09 | mp_redo01: map in use
Jul 05 14:19:09 | mp_fra01: map in use
Jul 05 14:19:09 | mp_scannetfs: map in use
Jul 05 14:19:09 | mp_data12: map in use
Jul 05 14:19:09 | mp_data09: map in use
Jul 05 14:19:09 | mp_data11: map in use
Jul 05 14:19:09 | mp_data08: map in use
Jul 05 14:19:09 | mp_data10: map in use
Jul 05 14:19:09 | mp_data07: map in use
Jul 05 14:19:09 | mp_data06: map in use
Jul 05 14:19:09 | mp_data05: map in use
Jul 05 14:19:09 | mp_data04: map in use
Jul 05 14:19:09 | mp_u01: map in use
Jul 05 14:19:09 | mp_ocr03: map in use
Jul 05 14:19:09 | mp_data03: map in use
Jul 05 14:19:09 | mp_u00: map in use
Jul 05 14:19:09 | mp_fra04: map in use
Jul 05 14:19:09 | mp_data02: map in use
Jul 05 14:19:09 | mp_ocr02: map in use
Jul 05 14:19:09 | mp_fra03: map in use
Jul 05 14:19:09 | mp_redo02: map in use
Jul 05 14:19:09 | mp_data01: map in use
Jul 05 14:19:09 | mp_ocr01: map in use
Jul 05 14:19:09 | mpatha: ignoring map
create: mp_data13 (36000144000000010601ec9b99d38f9ec) undef EMC,Invista
size=310G features='0' hwhandler='0' wp=undef
`-+- policy='round-robin 0' prio=1 status=undef
  |- 1:0:0:31 sdct 70:16  undef ready running
  |- 2:0:0:31 sdcx 70:80  undef ready running
  |- 1:0:1:31 sdcv 70:48  undef ready running
  `- 2:0:1:31 sdcz 70:112 undef ready running
create: mp_data14 (36000144000000010601ec9b99d38f9f0) undef EMC,Invista
size=310G features='0' hwhandler='0' wp=undef
`-+- policy='round-robin 0' prio=1 status=undef
  |- 1:0:0:32 sdcu 70:32  undef ready running
  |- 2:0:0:32 sdcy 70:96  undef ready running
  |- 1:0:1:32 sdcw 70:64  undef ready running
  `- 2:0:1:32 sdda 70:128 undef ready running
[ora1]#

[ora1]# multipath -F; multipath -v2
Jul 05 14:20:57 | mp_fra02: map in use
Jul 05 14:20:57 | mp_redo01: map in use
Jul 05 14:20:57 | mp_fra01: map in use
Jul 05 14:20:57 | mp_scannetfs: map in use
Jul 05 14:20:57 | mp_data12: map in use
Jul 05 14:20:57 | mp_data09: map in use
Jul 05 14:20:57 | mp_data11: map in use
Jul 05 14:20:57 | mp_data08: map in use
Jul 05 14:20:57 | mp_data10: map in use
Jul 05 14:20:57 | mp_data07: map in use
Jul 05 14:20:57 | mp_data06: map in use
Jul 05 14:20:57 | mp_data05: map in use
Jul 05 14:20:57 | mp_data04: map in use
Jul 05 14:20:57 | mp_u01: map in use
Jul 05 14:20:57 | mp_data03: map in use
Jul 05 14:20:57 | mp_ocr03: map in use
Jul 05 14:20:57 | mp_u00: map in use
Jul 05 14:20:57 | mp_fra04: map in use
Jul 05 14:20:57 | mp_data02: map in use
Jul 05 14:20:57 | mp_ocr02: map in use
Jul 05 14:20:57 | mp_fra03: map in use
Jul 05 14:20:57 | mp_redo02: map in use
Jul 05 14:20:57 | mp_data01: map in use
Jul 05 14:20:57 | mp_ocr01: map in use
Jul 05 14:20:57 | mpatha: ignoring map
create: mp_data13 (36000144000000010601ec9b99d38f9ec) undef EMC,Invista
size=310G features='0' hwhandler='0' wp=undef
`-+- policy='round-robin 0' prio=1 status=undef
  |- 1:0:0:31 sdct 70:16  undef ready running
  |- 2:0:0:31 sdcx 70:80  undef ready running
  |- 1:0:1:31 sdcv 70:48  undef ready running
  `- 2:0:1:31 sdcz 70:112 undef ready running
create: mp_data14 (36000144000000010601ec9b99d38f9f0) undef EMC,Invista
size=310G features='0' hwhandler='0' wp=undef
`-+- policy='round-robin 0' prio=1 status=undef
  |- 1:0:0:32 sdcu 70:32  undef ready running
  |- 2:0:0:32 sdcy 70:96  undef ready running
  |- 1:0:1:32 sdcw 70:64  undef ready running
  `- 2:0:1:32 sdda 70:128 undef ready running
[ora1]#

[~]# multipath -ll|grep -i 00010601ec9b99d38f9ec
mpathz (36000144000000010601ec9b99d38f9ec) dm-57 EMC,Invista
[root@plscannetora1 ~]# multipath -ll|grep -i 00010601ec9b99d38f9f0
mpathaa (36000144000000010601ec9b99d38f9f0) dm-58 EMC,Invista
[ora1]#

Chequeo lo mismo en el otro nodo del rac

[ora2 ~]# multipath -ll|grep -i 00010601ec9b99d38f9ec
mpathz (36000144000000010601ec9b99d38f9ec) dm-57 EMC,Invista
[root@plscannetora2 ~]# multipath -ll|grep -i 00010601ec9b99d38f9f0
mpathaa (36000144000000010601ec9b99d38f9f0) dm-58 EMC,Invista
[ora2 ~]#

En ambos nodos del rac, hago un bkp del multipath.conf

[ora1]# cp multipath.conf multipath.conf.ant

[ora2 ]# ls -l multipath.conf
-rw-r--r-- 1 root root 6433 May 22  2018 multipath.conf
[ora2 ]# cp multipath.conf multipath.conf.ant


En AMBOS nodos del rac ,edito el multipath.conf , y agrego la lun con el nombre que me indico base de datos, en este ejemplo el nombre que pidieron fue mp_data13 y mp_data14

multipath {
                wwid                    36000144000000010601ec9b99d38f9ec
                alias                   mp_data13
        }
        multipath {
                wwid                    36000144000000010601ec9b99d38f9f0
                alias                   mp_data14
        }


Luego en uno de los nodos ejecuto el fdisk pero con la opcion -u para poder generar :

[ora1 ~]# fdisk -u /dev/mapper/mp_data13

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c').

Command (m for help): d
Selected partition 1

Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 1
First sector (63-650119679, default 63): 128
Last sector, +sectors or +size{K,M,G} (128-650119679, default 650119679):
Using default value 650119679

Command (m for help): t
Selected partition 1
Hex code (type L to list codes): 83

Command (m for help): w
The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 22: Invalid argument.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.
[ora1 ~]#

[ora1 ~]# fdisk -u /dev/mapper/mp_data14

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c').

Command (m for help): d
Selected partition 1

Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 1
First sector (63-650119679, default 63): 128
Last sector, +sectors or +size{K,M,G} (128-650119679, default 650119679):
Using default value 650119679

Command (m for help): t
Selected partition 1
Hex code (type L to list codes): 83

Command (m for help): w
The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 22: Invalid argument.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.
[ora1 ~]#

Solo en uno de los nodos , por ultimo ejecutar

[ora1 ~]# partprobe /dev/mapper/mp_data13
[ora1 ~]# partprobe /dev/mapper/mp_data14

chequeamos en el /dev/mapper/ como quedaron o si tienen reglas udev ( si las tienen aparece como owner oracle:grid , en ese caso hay que agregar en el /etc/udev...)

[ora1 ~]# ls -ltr /dev/mapper/mp_data1*
lrwxrwxrwx 1 root root 8 Jan  8 08:14 /dev/mapper/mp_data10 -> ../dm-11
lrwxrwxrwx 1 root root 8 Jan  8 08:14 /dev/mapper/mp_data11 -> ../dm-13
lrwxrwxrwx 1 root root 8 Jan  8 08:14 /dev/mapper/mp_data12 -> ../dm-28
lrwxrwxrwx 1 root root 8 Jan  8 08:15 /dev/mapper/mp_data10p1 -> ../dm-30
lrwxrwxrwx 1 root root 8 Jan  8 08:15 /dev/mapper/mp_data11p1 -> ../dm-36
lrwxrwxrwx 1 root root 8 Jan  8 08:15 /dev/mapper/mp_data12p1 -> ../dm-43
lrwxrwxrwx 1 root root 8 Jul  5 14:46 /dev/mapper/mp_data13p1 -> ../dm-59
lrwxrwxrwx 1 root root 8 Jul  5 14:46 /dev/mapper/mp_data13 -> ../dm-57
lrwxrwxrwx 1 root root 8 Jul  5 14:46 /dev/mapper/mp_data14p1 -> ../dm-60
lrwxrwxrwx 1 root root 8 Jul  5 14:46 /dev/mapper/mp_data14 -> ../dm-58
[ora1 ~]# 

En el otro nodo del rac, ejecutar un multipath -F ; multipath -v2 para que tome lo que ejecute en el otro nodo cuando hice el partprobe

[ora2 ~]# multipath -F; multipath -v2
Jul 05 15:25:38 | mp_fra02: map in use
Jul 05 15:25:38 | mp_redo01: map in use
Jul 05 15:25:38 | mp_fra01: map in use
Jul 05 15:25:38 | mp_scannetfs: map in use
Jul 05 15:25:38 | mp_data12: map in use
Jul 05 15:25:38 | mp_data09: map in use
Jul 05 15:25:38 | mp_data11: map in use
Jul 05 15:25:38 | mp_data08: map in use
Jul 05 15:25:38 | mp_data10: map in use
Jul 05 15:25:38 | mp_data07: map in use
Jul 05 15:25:38 | mp_data06: map in use
Jul 05 15:25:38 | mp_data05: map in use
Jul 05 15:25:38 | mp_data04: map in use
Jul 05 15:25:38 | mp_u01: map in use
Jul 05 15:25:38 | mp_data03: map in use
Jul 05 15:25:38 | mp_ocr03: map in use
Jul 05 15:25:38 | mp_u00: map in use
Jul 05 15:25:38 | mp_fra04: map in use
Jul 05 15:25:38 | mp_data02: map in use
Jul 05 15:25:38 | mp_ocr02: map in use
Jul 05 15:25:38 | mp_fra03: map in use
Jul 05 15:25:38 | mp_redo02: map in use
Jul 05 15:25:38 | mp_data01: map in use
Jul 05 15:25:38 | mp_ocr01: map in use
Jul 05 15:25:38 | mpatha: ignoring map
create: mp_data13 (36000144000000010601ec9b99d38f9ec) undef EMC,Invista
size=310G features='0' hwhandler='0' wp=undef
`-+- policy='round-robin 0' prio=1 status=undef
  |- 1:0:0:31 sdct 70:16  undef ready running
  |- 2:0:0:31 sdcx 70:80  undef ready running
  |- 1:0:1:31 sdcv 70:48  undef ready running
  `- 2:0:1:31 sdcz 70:112 undef ready running
create: mp_data14 (36000144000000010601ec9b99d38f9f0) undef EMC,Invista
size=310G features='0' hwhandler='0' wp=undef
`-+- policy='round-robin 0' prio=1 status=undef
  |- 1:0:0:32 sdcu 70:32  undef ready running
  |- 2:0:0:32 sdcy 70:96  undef ready running
  |- 1:0:1:32 sdcw 70:64  undef ready running
  `- 2:0:1:32 sdda 70:128 undef ready running
[ora2 ~]# 

Instalar docker-compose


Para instalar docker-compose, primero se debe instalar docker


[app5 ~]# yum install docker
Loaded plugins: langpacks, product-id, search-disabled-repos, subscription-manager
rhel-7-server-extras-rpms                                                                          | 2.0 kB  00:00:00
rhel-7-server-optional-rpms                                                                        | 2.0 kB  00:00:00
rhel-7-server-rpms                                                                                 | 2.0 kB  00:00:00
rhel-7-server-supplementary-rpms                                                                   | 2.0 kB  00:00:00
Dependencies Resolved

==========================================================================================================================
 Package                        Arch          Version                              Repository                        Size
==========================================================================================================================
Installing:
 docker                         x86_64        2:1.13.1-88.git07f3374.el7           rhel-7-server-extras-rpms         17 M
Installing for dependencies:
 PyYAML                         x86_64        3.10-11.el7                          rhel-7-server-rpms               153 k
 atomic-registries              x86_64        1:1.22.1-26.gitb507039.el7           rhel-7-server-extras-rpms         35 k
 audit-libs-python              x86_64        2.8.4-4.el7                          rhel-7-server-rpms                76 k
 checkpolicy                    x86_64        2.5-8.el7                            rhel-7-server-rpms               295 k
 container-selinux              noarch        2:2.74-1.el7                         rhel-7-server-extras-rpms         37 k
 container-storage-setup        noarch        0.11.0-2.git5eaf76c.el7              rhel-7-server-extras-rpms         35 k
 containers-common              x86_64        1:0.1.31-7.gitb0b750d.el7            rhel-7-server-extras-rpms         18 k
 docker-client                  x86_64        2:1.13.1-88.git07f3374.el7           rhel-7-server-extras-rpms        3.8 M
 docker-common                  x86_64        2:1.13.1-88.git07f3374.el7           rhel-7-server-extras-rpms         95 k
 docker-rhel-push-plugin        x86_64        2:1.13.1-88.git07f3374.el7           rhel-7-server-extras-rpms        1.9 M
 libsemanage-python             x86_64        2.5-14.el7                           rhel-7-server-rpms               113 k
 libyaml                        x86_64        0.1.4-11.el7_0                       rhel-7-server-rpms                55 k
 oci-register-machine           x86_64        1:0-6.git2b44233.el7                 rhel-7-server-extras-rpms        1.1 M
 oci-systemd-hook               x86_64        1:0.1.18-2.git3efe246.el7            rhel-7-server-extras-rpms         34 k
 oci-umount                     x86_64        2:2.3.4-2.git87f9237.el7             rhel-7-server-extras-rpms         32 k
 policycoreutils-python         x86_64        2.5-29.el7                           rhel-7-server-rpms               456 k
 python-IPy                     noarch        0.75-6.el7                           rhel-7-server-rpms                32 k
 python-pytoml                  noarch        0.1.14-1.git7dea353.el7              rhel-7-server-extras-rpms         18 k
 setools-libs                   x86_64        3.3.8-4.el7                          rhel-7-server-rpms               620 k
Updating for dependencies:
 audit                          x86_64        2.8.4-4.el7                          rhel-7-server-rpms               250 k
 audit-libs                     i686          2.8.4-4.el7                          rhel-7-server-rpms               101 k
 audit-libs                     x86_64        2.8.4-4.el7                          rhel-7-server-rpms               100 k

Transaction Summary
==========================================================================================================================
Install  1 Package  (+19 Dependent packages)
Upgrade             (  3 Dependent packages)

Total download size: 27 M
Is this ok [y/d/N]: y
Downloading packages:


El paso siguiente es bajar de internet, el docker compose, se puede bajar de esta web :

https://github.com/docker/compose/releases

Al ingresar al link mencionado arriba, me baja el archivo docker-compose-Linux-x86_64 , el cual lo debo poner en /usr/local/bin/ con el nombre docker-compose tal como muestro a continuacion:

mv docker-compose-Linux-x86_64 /usr/local/bin/docker-compose

Eso es todo

miércoles, 3 de julio de 2019

Restore de Sistema Operativo de una maquina virtual


Con el equipo prendido, ir a cd/dvd drive 1 y seleccionar
Connect to ISO image on local disk
















Elegir la imagen para bootear


 Abrir una consola, ir a VM, Guest, y enviar un Crl +Alt + Del


















En este paso, hay que darle para entar al Setup del equipo y seleccionar la secuencia de booteo
como CD-rom














Grabar los cambios y salir


















Cuando bootea de CD, tipear linux rescue






















Cuando bootea de Cd, hay que setear la red ( tener a mano, la ip , y mascara de red del equipo a restorear)





















En este paso CAMBIAR a MANUAL, para ponerle la direccion ip y la mascara de red
















setearle el gateway




























Aparece un cartel de que vamos a montar la instalacion Linux como read/write en el /mnt/sysimage
darle ( Continue )



OJO ACA
Mucho cuidado, tipear < NO > porque caso contrario intentara crear una nueva particion en el disco, borrando la existente























OJO Aca tambien, porque volvera a intentar crear una nueva particion, asi que tipear < NO >

nos muestra un carte del finalizacion


















nos muestra un carte del finalizacion
























Ahora si, chequeo la conectividad contra el equipo linux234
ping 10.1.2.3
Si funciona la red, lo que debo hacer es :

df -h
umount -l /mnt/sysimage/dev
umount /mnt/sysimage/boot
umount /mnt/sysimage
mkfs.ext3 /dev/VolGroup00/LogVol00 *** o LV_root como o se llame donde monta el /
mount /dev/VolGroup00/LogVol00 /mnt/sysimage
cd /mnt/sysimage
ssh root@10.1.2.3 gzip -dc /backupsos/lnx0038/lnx0038.root.*gz | restore -xvolf -

En este ejemplo el restore tardaba muchisimo debido a que tenia mas de 3 millones de archivos en el /var/spool/clientmqueue/* , y lo solucionamos , agregando un disco, creando un fs nuevo /restore , copiando el archivo.dump.gz a dicho fs y descomprimiendolo despues. Y Ademas, el restore lo hicimos selectivo, es decir de todo menos del /var/spool/clientmqueue


la sintaxis usada fue :

cd /mnt/sysimage; restore -ivf /mnt/sysimage/restore/lnx0038.root.dump


**con los parametros ivf lo abre en modo interactivo, te move, con cd , ls, seleccionas con add y lo extraes con ex



miércoles, 5 de junio de 2019

Agregar area de Swap a uno existente


Estos son los comandos, resumidos:


lvcreate -n lv_swap2 -L50g /dev/VolGroup00
mkswap /dev/VolGroup00/lv_swap2
agregar esta linea al /etc/fstab :
/dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0
swapon -va
free -m

Aca esta el paso a paso detallado :

[root@app2 ~]# lvcreate -n lv_swap2 -L50g /dev/VolGroup00
Logical volume "lv_swap2" created.
[root@app2 ~]# mkswap /dev/VolGroup00/lv_swap2
mkswap: /dev/VolGroup00/lv_swap2: warning: don't erase bootbits sectors
on whole disk. Use -f to force.
Setting up swapspace version 1, size = 52428796 KiB
no label, UUID=68d25033-5db8-4fe5-a53a-c50cfcf9f3e7
[root@app2 ~]# vi /etc/fstab (agregar la linea a continuacion descripta)
/dev/mapper/VolGroup00-lv_swap2 swap swap defaults 0 0
[root@app2 ~]# swapon -va
swapon on /dev/mapper/VolGroup00-lv_swap2
swapon: /dev/mapper/VolGroup00-lv_swap2: found swap signature: version 1, page-size 4, same byte order
swapon: /dev/mapper/VolGroup00-lv_swap2: pagesize=4096, swapsize=53687091200, devsize=53687091200
[root@app2 ~]# free -m
 total used free shared buffers cached
Mem: 258208 169225 88982 0 1642 128652
-/+ buffers/cache: 38931 219277
Swap: 67583 2197 65386
[root@app2 ~]#

jueves, 9 de mayo de 2019

Error en rpmdb, solucion

rpmdb: Thread/process 32254/47320016639680 failed: Thread died in Berkeley DB library
error: db3 error(-30974) from dbenv->failchk: DB_RUNRECOVERY: Fatal error,
run database recovery
error: cannot open Packages index using db3 - (-30974)
error: cannot open Packages database in /var/lib/rpm
CRITICAL:yum.main:
Error: rpmdb open failed

La solucion es reconstruir la base de rpm, de esta manera:


[root@webdb1]# mkdir /var/lib/rpm/backup
[root@webdb1]# cp -a /var/lib/rpm/__db* /var/lib/rpm/backup/
[root@webdb1]# rm -f /var/lib/rpm/__db.[0-9][0-9]*
[root@webdb1]# rpm --quiet -qa
[root@webdb1]# rpm --rebuilddb
[root@webdb1]# yum clean all
Loaded plugins: enabled_repos_upload, package_upload, product-id, search-disabled-repos, security, subscription-manager This system is registered with an entitlement server, but is not receiving updates. You can use subscription-manager to assign subscriptions.
Cleaning repos:
Cleaning up Everything
Uploading Enabled Repositories Report Loaded plugins: product-id
[root@webdb1]#

sábado, 4 de mayo de 2019

Semaphore ! - cannot create semaphore No space left on device


Me conecto al equipo, y chequeo los valores actuales

[root@lnx157 ~]# ipcs -sl

------ Semaphore Limits --------
max number of arrays = 128
max semaphores per array = 250
max semaphores system wide = 32000
max ops per semop call = 32
semaphore max value = 32767

[root@lnx0157 ~]# sysctl kernel.sem
kernel.sem = 250 32000 32 128
[root@lnx0157 ~]#

Dependiendo si es red hat 6 o menor, hacer :

[root@lnx0157 ~]# echo kernel.sem = 250 64000 32 256 >>/etc/sysctl.conf
[root@lnx0157 ~]# sysctl -p
[root@lnx0157 ~]# sysctl kernel.sem
kernel.sem = 250 64000 32 256
[root@lnx0157 ~]#


Con el sysctl -p, relee el sysctlconf y toma los cambios, pero lo mejor es un reboot.

En el caso que sea un redhat 7, hay que hacer

echo kernel.sem = 250 64000 32 256 >/etc/sysctl.d/99-kernelsem.conf
sysctl --system
chequeo los valores con
sysctl kernel.sem ipcs -sl


A continuacion dejo unos valores de ejemplo para usar

kernel.sem = 250 64000 32 256
kernel.sem = 250 320000 32 1280
kernel.sem = 500 640000 32 1280
kernel.sem = 500 4096000 32 8192

jueves, 25 de abril de 2019

Single user y falta el /bin


Primero describimos como llegar a single user en red hat 7 y luego como hacerlo bootear si nos falta el /bin , con un ejemplo de cuando el discagnt te borra el /bin
Elegir la primer linea del grub, la que NO dice rescue. y editarla con la tecla "e"














Buscar la linea que empieza con linux16 , ir al final y agregarle rd.break












Luego presionar las teclas CTRL + X , esto bootea y te deja en el prompt del initramfs con un shell de root, donde luego debo montar como RW el /sysroot















luego ahi puedo cambiar el /sysroot como el / , haciendo un chroot /sysroot













llegado a este punto, ya podria hacer un passwd root y cambiarle la password tranquilamente, y luego darle un reboot.
OJO, en el caso de tener problemas como el siguiente









Llegado a este punto, vemos que no tiene nada en el /bin/sh , asi que tengo que bootear con init=/usr/bin/bash














En este caso, ahi es donde vemos que el /bin esta vacio, solo con el discagnt















Esto es lo que hay que hacer para arreglarlo













Luego darle un RESET , porque no tomo el reboot

listo

jueves, 4 de abril de 2019

Update con redhat-upgrade tool de rhel 6.x a 7.x


cat /etc/redhat-release
yum update
subscription-manager repos --enable rhel-6-server-extras-rpms
yum update

yum -y install preupgrade-assistant preupgrade-assistant-el6toel7 preupgrade-assistant-tools
preupg -v

yum -y install redhat-upgrade-tool
yum -y install yum-utils

yum-config-manager --disable *

DESDE LA CONSOLA SI O SI!!!!!!

[root@app1 ~]

# redhat-upgrade-tool --network 7.6 --instrepo http://10.76.40.120/7.6/7Server/x86_64/

Configurar la red especialmente los archivos de route-ethXX

reiniciar y cuando todo funcione reinstalar grub

yum remove grub
yum install grub2
grub2-install --grub-setup=/bin/true /dev/sda
grub2-mkconfig -o /boot/grub2/grub.cfg
vi /boot/grub/grub.conf
agregar
title GRUB 2 Test
root (hd0,0)
kernel /grub2/i386-pc/core.img
boot

reboot #####y seleccionar la opcion grub2 test


si funca ya esta casi listo solo corremos lo siguiente

grub2-install /dev/sda

miércoles, 27 de marzo de 2019

Habilitar creacion core files

### Edito el limits.conf me deslogeo y me logeo.
[root@app1 ~]# ulimit -c
0
[root@app1 ~]# vi /etc/security/limits.conf
* soft core unlimited
* hard core unlimited
[root@app1 ~]# logout
[root@app1 ~]# ulimit -c
unlimited

viernes, 1 de marzo de 2019

Maxima Tamaño Filesystem soportado













https://access.redhat.com/solutions/1532

Repositorio Local desde una imagen .iso


# mount -o loop RHEL7.1.iso /mnt
# mount -o loop RHEL7.1.iso /mnt
# mount -o loop /dev/sr0  /mnt

cp /mnt/media.repo /etc/yum.repos.d/rhel7dvd.repo
chmod 644 /etc/yum.repos.d/rhel7dvd.repo

enabled=1
baseurl=file:///mnt/
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[InstallMedia]
name=DVD for Red Hat Enterprise Linux 7.1 Server
mediaid=1359576196.686790
metadata_expire=-1
gpgcheck=1
cost=500
enabled=1
baseurl=file:///mnt/
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

yum clean all
subscription-manager clean
yum  --noplugins install gcc-* libstdc++* glibc-devel

RPM

# Fecha de paquetes instalados

 for PACKAGE in $(rpm -aq | grep kernel);
 do
echo "$PACKAGE was intalled on $(date -d @$(rpm -q --qf "%{INSTALLTIME}\n" $PACKAGE))";
done

ssh remoto

# SSH copiado remoto
tar cpf - /some/important/data | ssh user@destination-machine "tar xpf - -C /some/directory/"
tar cvpf - /mediation/proc | ssh root@10.7.24.98 "tar xpf - -C /mediation/proc/"
tar cvpf - /mediation/input | ssh root@10.7.24.98 "tar xpf - -C /mediation/input/"
tar cvpf - /mediation/backup2 | ssh root@10.7.24.98 "tar xpf - -C /mediation/backup2/"

Configurar Sendmail

#--smtp
#echo "DAEMON=yes" > /etc/sysconfig/sendmail
#echo "QUEUE=1h" >> /etc/sysconfig/sendmail

#yum reinstall sendmail sendmail-cf
## Editar la linea de smarthost en /etc/mail/sendmail.mc para que quede asi:
#define(`SMART_HOST', `[smtpappl.dominio.com.ar]')'
#m4 /etc/mail/sendmail.mc > /etc/mail/sendmail.cf
#service sendmail restart
#NOW=$(date +"%H:%M:%S %d/%m/%Y");echo "${HOSTNAME} ${NOW} " | mail -vvv -s "${HOSTNAME} mail relay test" st_linux@dominio.com.ar


#NOW=$(date +"%H:%M:%S %d/%m/%Y");echo "${HOSTNAME} ${NOW} " | mail -vvv -s "${HOSTNAME} mail relay test" st_linux@dominio.com.ar
#echo $HOSTNAME prueba de mail |mail -vvv -s test st_linux@dominio.com.ar
#echo "${HOSTNAME} prueba de mail relay" | mail -vvv -s "${HOSTNAME} test" st_linux@dominio.com.ar


#probar mail con telnet:
#telnet smtpappl.dominio.com.ar 25
#HELO dominio.com.ar
#MAIL FROM: st_linux@dominio.com.ar
#RCPT TO: st_linux@dominio.com.ar
#DATA
#prueba
#.
#QUIT


#----Disable mails in cron:
#MAILTO=""

Procesos

#----Top 10 consumo de memoria
#ps -auxf | sort -nr -k 4 | head -10
#---Top 10 consumo de CPU
#ps -auxf | sort -nr -k 3 | head -10
#----Borrar mails :
#cd /var/spool/clientmqueue/ ; find . | xargs rm -v {}
# hacer mierda los procesos de un fs cuando fuser no funciona
FS='/u00' ; for i in $(lsof ${FS} | awk '{print $2}' | uniq | grep -v "PID") ; do kill -9 $i ; done
# hacer mierda los proceso de los fs de un vg en ro (read only )
VG='vg_store' ; for fs in $(cat /etc/fstab | grep ${VG} | awk '{print $2}'); do for i in $(lsof ${fs} | awk '{print $2}' | uniq | grep -v "PID") ; do kill -9 $i ; done ; done



Algo de Redes


#----Conexiones no exitosas.
#nc -zv 172.168.1.1 80

#----Visualizar por que interfaz de red sale el trafico
#/sbin/ip route get 10.11.34.1

#Borrar ip vieja:
#ip addr del 10.75.255.15/22 dev eth2.150

#Desactivar ZEROCONF 
#En la salida del comando route se ve algo como esto:
#169.254.0.0     0.0.0.0         255.255.0.0     U     0      0        0
#add the following NOZEROCONF value to the end of the file:
#NETWORKING=YES
#HOSTNAME=localhost.localdomain
#NOZEROCONF=yes

# Rutas en rhel7
ip route
ip route get 10.0.0.1
cat > /etc/sysconfig/network-scripts/route-{$ifname} << EOF
10.0.0.0 via 10.0.2.1 dev ${ifname}
EOF
systemctl restart network

# Netcat para puerto en escucha local
nc -l 8080 

# Netcat para test tcp
nc -z -n -v ip_servidor port
nc -z -n -v 10.0.0.2 8888

# Netcat Conexion TCP
Server A
nc -l 8888 > output_file

Server B, client.
nc server_a_ip 8888 < send_file

Web Server
while true ; do nc -l -p 8443 -c 'echo -e "HTTP/1.1 200 OK\n
\n $(date) $(hostname)"'; done

martes, 26 de febrero de 2019

Reglas Udev Oracle


cd /etc/udev/rules.d


vi 96-dm-oracle-permissions.rules

##### SE AGREGA LINEA POR CADA DISCO ######

ENV{DM_NAME}=="mpdata01", OWNER:="oracle", GROUP:="oinstall", MODE:="660"
ENV{DM_NAME}=="mpdata01p1", OWNER:="oracle", GROUP:="oinstall", MODE:="660"

ENV{DM_NAME}=="mpdata02", OWNER:="oracle", GROUP:="oinstall", MODE:="660"
ENV{DM_NAME}=="mpdata02p1", OWNER:="oracle", GROUP:="oinstall", MODE:="660"

#################################################

luego ejecutar:

[root@linux]# udevadm control --reload-rules
[root@linux]# udevadm trigger --type=devices --action=change

Esto te muestra las propiedades y te puede ayudar:
udevadm info –query=property –name /dev/xxxxxx








lunes, 25 de febrero de 2019

LVM (cortitos)


#pvcreate /dev/mapper/mp_u00p1
#vgcreate vg_u00 /dev/mapper/mp_u00p1
#lvcreate -n lv_u00 -l 100%FREE vg_u00
#mkdir /u00
#mkfs.ext4 /dev/vg_u00/lv_u00
#tune2fs -c -1 /dev/vg_u00/lv_u00

RESIZE FS  
#RHEL 5 y 6
#lvresize -L +8G /dev/<volumegroup>/<logicalvolume>
#resize2fs -p /dev/<volumegroup>/<logicalvolume>10G

#RHEL4
#ext2online /dev/<volumegroup>/<logicalvolume>

jueves, 21 de febrero de 2019

Falla en la desinstalacion de Access Control


Si al intentar desisntalar el access control, nos tira un error del tipo:

[root@app4 lbin]# /opt/CA/eTrustAccessControl/lbin/Uninstall
ERROR: Another CA ControlMinder process is currently running.
Wait until the process completes and run uninstallation again,
or remove /tmp/pre_install.
[root@app4 lbin]#

La solucion es borrar el /tmp/pre-install

[root@app4 lbin]# rm -fr /tmp/pre_install
[root@app4 lbin]# /opt/CA/eTrustAccessControl/lbin/Uninstall
Removing CA ControlMinder service from /etc/services
Removing CA ControlMinder system call loader.
Trying to remove references to CA ControlMinder from the system init files.
Removing CA ControlMinder PAM module from your system.
Restoring /etc/pam.d/login by removing last changes made to file
Removing CA ControlMinder Admin tools binaries and directories.
Removing CA ControlMinder Admin tools X-resource files.
The CA ControlMinder Admin tools files have now
been removed from your system.
Removing seos.ini from /etc
The token global.AC_Version, now set to 'none', (was '12.xx.0.2919')
Removing ControlMinder from AccessControl Shared dependency list
Removing AccessControl Shared
Removing CAPKI.
Removing CA ControlMinder binaries and directories.

UnInstall complete.

The CA ControlMinder files have now been removed.

Warning: If you have replaced /bin/passwd with sepass,
         You must restore the original /bin/passwd.

         You may edit your /etc/passwd and /etc/group
         files, in order to remove unnecessary users.

[root@app4 lbin]#

Upgrade version de SO desde el satellite


subscription-manager register --org="miOrga" --activationkey="ak_miOrga"
subscription-manager release --set=6.9
subscription-manager release --show
yum --releasever=6.9 update

miércoles, 20 de febrero de 2019

Agregar VIP al cluster 6.6


Editar el archivo /etc/cluster/cluster.conf y agregar la ip como servicio y como recurso

[root@cluster01]# vim cluster.conf
<resources>
      <ip address="10.5.254.3" monitor_link="1"/>
</resources>

<service autostart="1" domain="fd-mbdvdes" name="svc-mbd" recovery="relocate">
              <ip ref="10.5.254.3"/>
</service>

Verificar la version actual del archivo de configuracion del cluster, con el siguiente comando

[root@cluster01]# cman_tool version
6.2.0 config 24
[root@cluster01]#

Ahora con ese dato, editar el archivo de configuracion del cluster ( en ambos nodos del cluster ) y en la primera linea modificarle al version ( sumaremos 1 a la actual, en este caso sera 25 )

[root@cluster01]# vim cluster.conf
<?xml version="1.0"?>
<cluster config_version="25" name="cl-cluster">

Ahora si, replicar la configuracion con el siguiente comando ( ejecutarlo solo en uno de los nodos ) :

cman_tool version -r -S

Ahora chequeo si levanto la ip VIP del cluster

[root@cluster01]# ip ad sh |grep glo |grep bond0
    inet 10.5.252.2/22 brd 10.5.255.255 scope global bond0.150
    inet 10.5.254.3/22 scope global secondary bond0.150
[root@cluster01]#

martes, 19 de febrero de 2019

Habilitar core dumps (crash dumps)


cat /etc/kdump.conf |grep -v "#"
path /var/crash
core_collector  makedumpfile -c --message-level 1 -d 31

[root@prod5 ]# service kdump restart
Stopping kdump:                                            [  OK  ]
Detected change(s) the following file(s):

  /etc/kdump.conf
Rebuilding /boot/initrd-2.6.32-358.el6.x86_64kdump.img
No module seos found for kernel 2.6.32-358.el6.x86_64, aborting.
Failed to run mkdumprd
Starting kdump:                                            [FAILED]
Solucion
secons -sk
SEOS_load -u
y reintentar
si no funciona bootearlo sin ac
chkconfig seos off
reboot
service kdump restart

Probar kdump
#probar kdump
#Then type the following commands at a shell prompt:
#echo 1 > /proc/sys/kernel/sysrq
#echo c > /proc/sysrq-trigger

Sacar EMC powerpath ** lleva reboot del server**


Chequeo los valores actuales del multiapth y luego de los physical volume
# multipath -ll
Pseudo name=emcpowera
Symmetrix ID=000295700059
Logical device ID=1D4E
state=alive; policy=BasicFailover; queued-IOs=0
==============================================================================
--------------- Host ---------------   - Stor -  -- I/O Path --   -- Stats ---
###  HW Path               I/O Paths    Interf.  Mode     State   Q-IOs Errors
==============================================================================
   6 lpfc                   sdu         FA  6eB  unlic    alive      0      0
   4 lpfc                   sdk         FA 11eA  active   alive      0      0

Pseudo name=emcpowerb
Symmetrix ID=000295700059
Logical device ID=1D4D
state=alive; policy=BasicFailover; queued-IOs=0
==============================================================================
--------------- Host ---------------   - Stor -  -- I/O Path --   -- Stats ---
###  HW Path               I/O Paths    Interf.  Mode     State   Q-IOs Errors
==============================================================================
   6 lpfc                   sdt         FA  6eB  unlic    alive      0      0
   4 lpfc                   sdj         FA 11eA  active   alive      0      0

Pseudo name=emcpowerc
Symmetrix ID=000295700059
Logical device ID=1D4C
state=alive; policy=BasicFailover; queued-IOs=0
==============================================================================
--------------- Host ---------------   - Stor -  -- I/O Path --   -- Stats ---
###  HW Path               I/O Paths    Interf.  Mode     State   Q-IOs Errors
==============================================================================
   6 lpfc                   sds         FA  6eB  unlic    alive      0      0
   4 lpfc                   sdi         FA 11eA  active   alive      0      0

 FA  6eB  unlic    alive      0      0
   4 lpfc                   sdf         FA 11eA  active   alive      0      0

#

Chequeo los physical volume actuales

# pvs
  PV              VG           Fmt  Attr PSize   PFree
  /dev/emcpoweri1 vg_u01       lvm2 a--   60.00g      0
  /dev/sda2       vg_omidbsrv2 lvm2 a--  278.88g 224.07g
#

Ahora hago la magia

# /etc/init.d/PowerPath stop
Stopping PowerPath: Following LVM volume groups are in use:
      Volume Group: vg_u01 (/dev/emcpoweri1)

These open logical volume devices use LUNs from PowerPath managed devices,
Please reissue the command after closing these volumes.
 failed

# mv /etc/init.d/PowerPath   /root/PowerPath
# 
# reboot -f


Luego del Reboot hacer

# powermt display dev=all
ERROR: Cannot open PowerPath. Initialization error

# pvs
  Found duplicate PV BKQDRy80KHl3e8ZDuJM4rws21cgjTlU0: using /dev/sdc1 not /dev/sdq1
  PV         VG           Fmt  Attr PSize   PFree  
  /dev/sda2  vg_omidbsrv2 lvm2 a--  278.88g 224.07g
  /dev/sdc1  vg_u01       lvm2 a--   60.00g      0 

# rpm -qa |grep -i emc
EMCpower.LINUX-5.7.1.00.00-029.el6.x86_64
# rpm -e EMCpower.LINUX-5.7.1.00.00-029.el6.x86_64

# yum install device-mapper-multipath

# cd /
# cp ./usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc/multipath.conf

# service multipathd start
Starting multipathd daemon: [  OK  ]
# multipath -ll

# chkconfig multipathd on
# 

martes, 12 de febrero de 2019

Actualizar Version de Sistema Operativo


En el equipo stlinux1, ejecutar :

stlinux1 ~]# cd /SOFT/repos
stlinux1 repos]# ls -ltr
total 4
drwxr-xr-x 3 root root   21 Dec 14 15:29 7.3
drwxr-xr-x 3 root root   21 Dec 14 15:31 6.3
drwxr-xr-x 3 root root   21 Dec 14 15:32 5.8
drwxr-xr-x 3 root root   21 Dec 14 15:33 5.4
drwxr-xr-x 3 root root   21 Dec 14 15:34 6.8
drwxr-xr-x 3 root root   21 Dec 14 15:36 6.6
-rwxr--r-- 1 root root 3159 Dec 17 16:22 crea_repo_con_menu.sh
drwxr-xr-x 3 root root   21 Dec 19 10:58 7.6
drwxr-xr-x 3 root root   21 Dec 19 11:17 7.4
drwxr-xr-x 3 root root   21 Jan  9 03:45 6.4
drwxr-xr-x 3 root root   21 Feb  4 09:48 6.9
stlinux1 repos]# 

Ejecutar sh crea_repo_con_menu.sh y seleccionar la version a la cual queremos actualizar el SO

sh crea_repo_con_menu.sh


Me genera esta salida, de la cual voy a extraer los datos para modificar
 luego el cliente a actualizar.


El iso elegido es : rhel-server-6.9-x86_64-dvd.iso
Release : 6.9
Arch : x86_64
Releasever : 6Server

Verficando/Updateando repo localmente
El repo ya existe existe
/SOFT/repos/6.9/6Server/x86_64

###################################################################
##### Crear en el cliente /etc/yum.repos.d/stlinux.repo con lo #####
##### siguiente:                                              #####
###################################################################

[stlinux-Server]
name=Red Hat Enterprise Linux $releasever - $basearch - stlinux
baseurl=http://10.1.3.37/6.9/$releasever/$basearch/Server/
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release


En el cliente a actualizar tengo que ejecutar
subscription-manager clean
copiar y pegar desde [stlinux-Server] hasta gpgkey incluido, dentro del archivo /etc/yum.repos.d/stlinux.repo


[stlinux-Server]
name=Red Hat Enterprise Linux $releasever - $basearch - stlinux
baseurl=http://10.1.3.37/6.9/$releasever/$basearch/Server/
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release


yum clean all
yum update #Yes
luego reboot

lunes, 11 de febrero de 2019

rpm colgado


El sintoma es que el rpm -qa se queda colgado. La manera de solucionarlo fue matar los procesos asociados al rpm y reconstruir la base de rpm borrandola previamente.

# ps -ef | grep rpm
root      7729  5539  0 15:45 ?        00:00:00 /bin/sh /etc/cron.daily/rpm
root      7730  5539  0 15:45 ?        00:00:00 awk -v progname=/etc/cron.daily/rpm progname {?????   print progname ":\n"?????   progname="";????       }????       { print; }
root      7733  7729  0 15:45 ?        00:00:00 /usr/lib/rpm/rpmq -q --all --qf %{name}-%{version}-%{release}.%{arch}.rpm\n
root      7737  7461  0 15:45 pts/2    00:00:00 /usr/lib/rpm/rpmq -q --all
root      7882  7601  0 15:47 pts/7    00:00:00 grep rpm
# kill -9 7729 7730 7733 7737
#  ps -ef | grep rpm         
root      7963  7601  0 15:48 pts/7    00:00:00 grep rpm
# rm /var/lib/rpm/__db*
rm: remove regular file `/var/lib/rpm/__db.001'? y
rm: remove regular file `/var/lib/rpm/__db.002'? y
rm: remove regular file `/var/lib/rpm/__db.003'? y
# rpm --rebuilddb





jueves, 7 de febrero de 2019

Network error, unable to connect to server. Please /var/log/rhsm/rhsm.log for more information.


Al intentar registrar un equipo al satellite, que no habia sido registrado anteriormente, arrojo el error mencioando en el titulo de este post.

# subscription-manager register --org=”Orga” --activationkey=”ak_Orga”
Network error, unable to connect to server. Please see /var/log/rhsm/rhsm.log for more information.
#
curl -O https://sat1.dominio.com.ar/pub/katello-ca-consumer-latest.noarch.rpm --insecure
# rpm -ivh katello-ca-consumer-latest.noarch.rpm
Preparing...                ########################################### [100%]
   1:katello-ca-consumer-plr########################################### [100%]
#
# subscription-manager register --org="Orga" --activationkey="ak_Orga"
The system has been registered with ID: 5c29ba6f-83a6-4a9e-aa18-62c60xaafe71
Installed Product Current Status:
Product Name: Red Hat Enterprise Linux Server
Status:       Subscribed

# yum clean all
Loaded plugins: product-id, security, subscription-manager
Cleaning repos: InstallMedia rhel-6-server-optional-rpms rhel-6-server-rpms
Cleaning up Everything
# yum install net-snmp net-snmp-utils







error Can't open /dev/mapper/mp_u01 exclusively. Mounted filesystem?


Este error se produjo al intentar agregar o remover un disco

La solucion fue borrarlo con el dm-setup y volverlo a crear como se muestra a continuacion

# pvcreate /dev/mapper/mp_u01
  Can't open /dev/mapper/mp_u01 exclusively.  Mounted filesystem?

# dmsetup info -C
Name               Maj Min Stat Open Targ Event  UUID
mpathak            253  70 L--w    0    1      1 mpath-36000144000000010f0058d828093e679
mpdata07           253  42 L--w    1    1      1 mpath-360000970000292603946533030334646
mpdata09p1         253  38 L--w  105    1      0 part1-mpath-360000970000292603946533030334533
mpfra_01           253  47 L--w    1    1      1 mpath-360000970000292603946533030343033
mpathap2           253   3 L--w    3    1      0 part2-mpath-3600508b1001c33eca8bffe940a55d328
mpathaj            253  64 L--w    0    1      1 mpath-36000144000000010f0058d828093e65f
VolGroup00-lv_swap 253  52 L--w    1    1      0 LVM-e16sRDsZfUWb1Tet4ezit8hAzJtMQjrVjOrQlG97MssYdlXrPzHCcqQJlutRiWcM
mpdata06           253  32 L--w    1    1      1 mpath-360000970000292603946533030334537
VG_app-lv_app      253  56 L--w    1    1      0 LVM-2kHoNZKFTh4zbnOZvsMRd9wuhyrcLdMebmg73Aut8Zw6molkBjC6vL99MU6aToGs
VolGroup00-lv_root 253  51 L--w    1    1      0 LVM-e16sRDsZfUWb1Tet4ezit8hAzJtMQjrVsQKPdVwFz4U5UKamzS7Zzz8DU1cIA0Si
mpocr03            253  16 L--w    1    1      1 mpath-360000970000292603946533030344143
mpathap1           253   2 L--w    1    1      0 part1-mpath-3600508b1001c33eca8bffe940a55d328
mpu00p1            253  14 L--w    1    1      0 part1-mpath-360000970000292603946533030343244
mpathai            253  63 L--w    0    1      1 mpath-36000144000000010f0058d828093e655
mpdata05           253  33 L--w    1    1      3 mpath-360000970000292603946533030334542
mpathc             253   4 L--r    0    1      1 mpath-360000970000292603946533030303530
mpocr02            253  22 L--w    1    1      1 mpath-360000970000292603946533030344144
mpocr01p1          253  19 L--w    8    1      0 part1-mpath-360000970000292603946533030344145
mpu01p1            253  11 L--w    1    1      0 part1-mpath-360000970000292603946533030343245
mpocr02p1          253  28 L--w    4    1      0 part1-mpath-360000970000292603946533030344144
mpathah            253  61 L--w    0    1      1 mpath-36000144000000010f0058d828093e650
mpdata04           253  35 L--w    1    1      1 mpath-360000970000292603946533030334546
mpathb             253   1 L--w    0    1      1 mpath-3600508b1001cdc8279ddb944060d80dd
mpocr01            253  12 L--w    1    1      3 mpath-360000970000292603946533030344145
mpocr03p1          253  23 L--w    5    1      0 part1-mpath-360000970000292603946533030344143
VG_u01-lv_u01      253  54 L--w    1    1      0 LVM-TCKdgDIRBA0gtx8HpGXam20xk0p97uwCQu7qLu7R077NgxmwymnY6Y3l8t2aWIE0
mpathag            253  62 L--w    0    1      1 mpath-36000144000000010f0058d828093e65a
mpdata03           253  36 L--w    1    1      1 mpath-360000970000292603946533030334633
mpatha             253   0 L--w    2    1      0 mpath-3600508b1001c33eca8bffe940a55d328
mpdata10p1         253  37 L--w  106    1      0 part1-mpath-360000970000292603946533030334446
mp_logsp1          253  68 L--w    1    1      0 part1-mpath-36000144000000010f0058d828093e649
mpathaf            253  65 L--w    0    1      1 mpath-36000144000000010f0058d828093e664
mpdata02           253  39 L--w    1    1      1 mpath-360000970000292603946533030334637
mpdata11p1         253  34 L--w  107    1      0 part1-mpath-360000970000292603946533030334442
mpappsp1           253   9 L--w    1    1      0 part1-mpath-360000970000292603946533030343231
mpdata12p1         253  31 L--w  108    1      0 part1-mpath-360000970000292603946533030334437
mpdata01           253  45 L--w    1    1      1 mpath-360000970000292603946533030334642
VG_logs-pvmove0    253  73 L--w    1    1      0 LVM-rnGCrs5MGQMsHW6Ec9PWN0L9sYQ1ceKwSnRphlJfL8GCuiwYOEPmhavL24wLeoad
mpdata13p1         253  25 L--w  105    1      0 part1-mpath-360000970000292603946533030334433
mpdata14p1         253  27 L--w  105    1      0 part1-mpath-360000970000292603946533030334346
mpdata15           253  13 L--w    1    1      1 mpath-360000970000292603946533030334342
mp_logs            253  60 L--w    1    1      1 mpath-36000144000000010f0058d828093e649
mpdata15p1         253  20 L--w  107    1      0 part1-mpath-360000970000292603946533030334342
mpathac            253  59 L--w    0    1      1 mpath-36000144000000010f0058d828093e644
mpdata14           253  18 L--w    1    1      3 mpath-360000970000292603946533030334346
mpdata01p1         253  49 L--w  108    1      0 part1-mpath-360000970000292603946533030334642
mpathao            253  71 L--w    0    1      1 mpath-36000144000000010f0058d828093e67e
mpdata02p1         253  46 L--w  107    1      0 part1-mpath-360000970000292603946533030334637
mpfra_01p1         253  50 L--w   17    1      0 part1-mpath-360000970000292603946533030343033
mpdata13           253  17 L--w    1    1      1 mpath-360000970000292603946533030334433
mp_u01             253  58 L--w    1    1      1 mpath-36000144000000010f0058d828093e63f
mplogs             253   6 L--w    1    1      1 mpath-360000970000292603946533030343236
mpdata03p1         253  44 L--w  111    1      0 part1-mpath-360000970000292603946533030334633
mpathan            253  66 L--w    0    1      1 mpath-36000144000000010f0058d828093e669
mpdata04p1         253  43 L--w  107    1      0 part1-mpath-360000970000292603946533030334546
mpdata12           253  24 L--w    1    1      1 mpath-360000970000292603946533030334437
mp_u00             253  72 L--w    1    1      1 mpath-36000144000000010f0058d828093e63a
VG_logs-lv_logs    253  55 L--w    1    1      0 LVM-rnGCrs5MGQMsHW6Ec9PWN0L9sYQ1ceKweTWBIajB0zDGXuD0BUNiDdN2GYbRaKnX
VolGroup00-lv_home 253  57 L--w    1    1      0 LVM-e16sRDsZfUWb1Tet4ezit8hAzJtMQjrVjVNtDyy4HR2PDYKdq8XWD3He0DACFTe5
mpdata05p1         253  41 L--w  110    1      0 part1-mpath-360000970000292603946533030334542
mp_u00p1           253  74 L--w    0    1      0 part1-mpath-36000144000000010f0058d828093e63a
mpatham            253  67 L--w    0    1      1 mpath-36000144000000010f0058d828093e66e
VG_u00-lv_u00      253  53 L--w    1    1      0 LVM-niGBoMDkV3y8BFKMWfRMwbxT3h2gePlw30jEiPqpIJZGPXMskKSnY2oJdegLlzPm
mpdata09           253  30 L--w    1    1      1 mpath-360000970000292603946533030334533
mpdata11           253  26 L--w    1    1      1 mpath-360000970000292603946533030334442
mpapps             253   5 L--w    1    1      1 mpath-360000970000292603946533030343231
mpdata06p1         253  40 L--w  114    1      0 part1-mpath-360000970000292603946533030334537
mp_u01p1           253  75 L--w    0    1      0
mplogsp1           253  10 L--w    1    1      0 part1-mpath-360000970000292603946533030343236
mpu01              253   7 L--w    1    1      1 mpath-360000970000292603946533030343245
mpathal            253  69 L--w    0    1      1 mpath-36000144000000010f0058d828093e673
mpdata07p1         253  48 L--w  106    1      0 part1-mpath-360000970000292603946533030334646
mpdata08           253  15 L--w    1    1      1 mpath-360000970000292603946533030334337
mpdata10           253  29 L--w    1    1      3 mpath-360000970000292603946533030334446
mpdata08p1         253  21 L--w  107    1      0 part1-mpath-360000970000292603946533030334337
mpu00              253   8 L--w    1    1      1 mpath-360000970000292603946533030343244

# dmsetup remove mp_u01p1
# pvcreate /dev/mapper/mp_u01
  Writing physical volume data to disk "/dev/mapper/mp_u01"
  Physical volume "/dev/mapper/mp_u01" successfully created
#

lunes, 4 de febrero de 2019

Cambiar parametros STACK oracle db


Cambiar parametro STACK para la instalacion de base de datos oracle:

# ulimit -Ss
8192

vi /etc/security/limits.conf

oracle soft stack 10240   <----agregar esta linea!

Verificacion del parametro:

# su - oracle
DBCOREP:/u00/app/oracle> ulimit -Ss
10240  <---- Parametro ok!


















jueves, 10 de enero de 2019

Orden Subida Cluster redhat 6


# service cman start
Starting cluster:
Checking if cluster has been disabled at boot… [ OK ]
Checking Network Manager… [ OK ]
Global setup… [ OK ]
Loading kernel modules… [ OK ]
Mounting configfs… [ OK ]
Starting cman… [ OK ]
Waiting for quorum… [ OK ]
Starting fenced… [ OK ]
Starting dlm_controld… [ OK ]
Starting gfs_controld… [ OK ]
Unfencing self… [ OK ]
Joining fence domain… [ OK ]

# service clvmd start
Starting clvmd:
Activating VG(s): Found duplicate PV v3CdfCX2DsI7NZSYVX0X0YnR6Rz4qyGH: using /dev/sdai1 not /dev/sdq1
Found duplicate PV LAZIG4x4eoZbh5ezYWcoNtBqM9DtS6Wf: using /dev/sdbo1 not /dev/sdaw1
1 logical volume(s) in volume group "VolGroup_tsm_PR2" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR5" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR1" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR1" now active
1 logical volume(s) in volume group "VolGroup_arpr1" now active
1 logical volume(s) in volume group "VolGroup_z01" now active
1 logical volume(s) in volume group "VolGroup_x01" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR2" now active
1 logical volume(s) in volume group "VolGroup_arpr5" now active
1 logical volume(s) in volume group "VolGroup_u01" now active
1 logical volume(s) in volume group "VolGroup_arpr2" now active
1 logical volume(s) in volume group "VolGroup_v00" now active
1 logical volume(s) in volume group "VolGroup_arpr1" now active
1 logical volume(s) in volume group "VolGroup_w00" now active
1 logical volume(s) in volume group "VolGroup_w01" now active
1 logical volume(s) in volume group "VolGroup_v01" now active
1 logical volume(s) in volume group "VolGroup_z00" now active
1 logical volume(s) in volume group "VolGroup_x00" now active
1 logical volume(s) in volume group "VolGroup_u00" now active
1 logical volume(s) in volume group "VolGroup_arposipr2" now active
3 logical volume(s) in volume group "VolGroup00" now active
[ OK ]

# service gfs2 start
GFS2: no entries found in /etc/fstab

# service rgmanager start
Starting Cluster Service Manager: [ OK ]

#

lunes, 7 de enero de 2019

Sacar /boot del multipath


# mkdir /boot.old
# umount /boot
# mount /dev/mapper/mpathap1 /boot.old/
# mount --bind /boot.old/ /boot    (menos menos bind)

# df -h (no se ve el bind aca pero si en el mount)

Filesystem           Size  Used  Avail  Use% Mounted on
/dev/mapper/VolGroup00-lv_root   30G  5.8G   23G  21% /
tmpfs                 16G     0   16G   0% /dev/shm
/dev/mapper/VolGroup00-lv_home 7.9G  2.6G  5.0G  35% /home
/dev/mapper/mpathap1 388M   65M  304M  18% /boot.old

# mount
/dev/mapper/VolGroup00-lv_root  on / type ext4 (rw)
proc on  /proc type proc (rw)
sysfs on  /sys type sysfs (rw)
devpts on  /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on  /dev/shm type tmpfs (rw)
/dev/mapper/mpathap1  on /boot.old type ext4 (rw)
/boot.old  on /boot type none (rw,bind)

Agregar lun a rhel cluster 5


Verificamos las wwn online y pedimos la lun.

#   cat /sys/class/fc_host/*/port_name
0x21000024ff219f38
0x21000024ff219f39
0x21000024ff2194ac
0x21000024ff2194ad
#   cat /sys/class/fc_host/*/port_state
Online
Online
Linkdown
Linkdown

Una vez que nos asignaron las luns rescaneamos, identificamos la lun y la editamos el /etc/multipath.conf para modificarle el nombre. (TODO ESTO EN LOS DOS NODOS)

# rescan-scsi-bus.sh
# multipath -F; multipath -v2
create: mpath27 (360050768018285d270000000000005b5)  IBM,2145
[size=200G][features=0][hwhandler=0][n/a]
\_ round-robin 0 [prio=50][undef]
 \_ 1:0:1:26 sdcm 69:160 [undef][ready]
 \_ 2:0:1:26 sdco 69:192 [undef][ready]
\_ round-robin 0 [prio=10][undef]
 \_ 1:0:0:26 sdcl 69:144 [undef][ready]
 \_ 2:0:0:26 sdcn 69:176 [undef][ready]
 
# vi /etc/multipath.conf
 ### Agregamos algo como esto
         multipath {
               wwid                    360050768018285d270000000000005b5
               alias                   mp_storage_u11
        }
        
# multipath -F; multipath -v2       

Con el disco reconocido por el sistema operativo procedemos a formatearlo, agregarlo a lvm.
# fdisk /dev/mapper/mp_storage_u11
[ ponemos todas las opciones que van  n - p - 1 - enter - enter 
  t 8e w ]
  
# pvcreate /dev/mapper/mp_storage_u11p1
# vgcreate vgstorage_u11 /dev/mapper/mp_storage_u11p1
# lvcreate -n lv_u11 -l 100%FREE vgstorage_u11 
Aca faltaria crear el fs y agregarlo al cluster el tema es que el tipo de fs es gfs2 asi que hay que darle un vueltita de rosca mas.

Con gfs2.tool buscamos la etiquieta de locktable que tienen los fs montados y la cantidad de journals (deberia ser un journal por nodo que lo monta)

# gfs2_tool list
253:52 gatclu:u10
253:58 gatclu:utsm
253:57 gatclu:uarchive
253:60 gatclu:gfs2
253:53 gatclu:u08
253:51 gatclu:u07
253:50 gatclu:u06
253:48 gatclu:gfs2-u05
253:61 gatclu:u04
253:59 gatclu:u03
253:56 gatclu:u02
253:55 gatclu:u01
253:54 gatclu:u00

# gfs2_tool journals /u09
journal1 - 128MB
journal0 - 128MB
2 journal(s) found.

Creamos entonces los fs y los agregamos al cluster.

mkfs.gfs2  -p lock_dlm -t gatclu:u11 -j2 /dev/vgstorage_u11/lv_u11
mount -t gfs2 /dev/vgstorage_u11/lv_u11 /u11

vi /etc/cluster/cluster.conf 
### Cambiar la config_version en la seccion cluster
<cluster config_version="48" name="gatclu">
### Agrego en la seccion resources TENER en cuenta el fsid que no se repita
<clusterfs device="/dev/vgstorage_u11/lv_u11" force_unmount="1" fsid="58377" 
fstype="gfs2" mountpoint="/u11" name="gfs2-u11" options="noatime,defaults"/>
### Agrego en la seccion service
<clusterfs ref="gfs2-u11">
</clusterfs>
Una vez revisado todo updateo la configuracion del cluster:

ccs_tool update /etc/cluster/cluster.conf

viernes, 4 de enero de 2019

Instalando wordpress en rhel con docker


Partimos de dos servidores con rhel 7, con docker instalado.
El servidor stlinux tiene salida a internet a traves de proxy y el dlstlinux1 no sale a ningun lado pero se publica el blog ahi y todos pueden acceder.

Los pasos a seguir eran bajar las imagenes de docker al plstlinux, exportarlas, copiarlas al dlstlinux1 y finalmente importarlas. Este fue el procedimiento:

Agregar el proxy al servicio docker en plstlinux.

vi /etc/systemd/system/docker.service.d/https-proxy.conf
 [Service]
 Environment="HTTPS_PROXY=https://DOMINIO\usuario:Mipassword2019@proxy:8080"

Reiniciar la confi de sysctl y el demonio de docker y chequear la configuracion recien editada.

systemctl daemon-reload
systemctl restart docker
systemctl show --property=Environment docker

Bajar las imagenes de docker y exportarlas a archivo.

docker pull mariadb:latest
docker pull wordpress:latest
docker save -o mariadb.docker mariadb
docker save -o wordpress.docker wordpress

Ahora las copio a dlstlinux1 las importo y sigo el procedimiento de instalacion que haya sacado de internet.

docker load -i mariadb.docker
docker load -i wordpress.docker 

docker run -e MYSQL_ROOT_PASSWORD=coneja -e MYSQL_DATABASE=wordpress --name wordpressdb \
-v "/docker/madb":/var/lib/mysql -d mariadb
docker run -e WORDPRESS_DB_PASSWORD=coneja --name wordpress --link wordpressdb:mysql \
 -p 8001:80 -v "/docker/wp":/var/www/html -d wordpress

Listo ya tengo instalado un mysql con un wordpress en el puerto 8001 del equipo.

Ahora borra la confi del proxy asi no te bloquea la pass y stopeo el docker del plstlinux que solo lo uso para bajar las imagenes.

rm -f /etc/systemd/system/docker.service.d/https-proxy.conf
systemctl daemon-reload
systemctl stop docker