jueves, 10 de enero de 2019

Orden Subida Cluster redhat 6


# service cman start
Starting cluster:
Checking if cluster has been disabled at boot… [ OK ]
Checking Network Manager… [ OK ]
Global setup… [ OK ]
Loading kernel modules… [ OK ]
Mounting configfs… [ OK ]
Starting cman… [ OK ]
Waiting for quorum… [ OK ]
Starting fenced… [ OK ]
Starting dlm_controld… [ OK ]
Starting gfs_controld… [ OK ]
Unfencing self… [ OK ]
Joining fence domain… [ OK ]

# service clvmd start
Starting clvmd:
Activating VG(s): Found duplicate PV v3CdfCX2DsI7NZSYVX0X0YnR6Rz4qyGH: using /dev/sdai1 not /dev/sdq1
Found duplicate PV LAZIG4x4eoZbh5ezYWcoNtBqM9DtS6Wf: using /dev/sdbo1 not /dev/sdaw1
1 logical volume(s) in volume group "VolGroup_tsm_PR2" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR5" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR1" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR1" now active
1 logical volume(s) in volume group "VolGroup_arpr1" now active
1 logical volume(s) in volume group "VolGroup_z01" now active
1 logical volume(s) in volume group "VolGroup_x01" now active
1 logical volume(s) in volume group "VolGroup_tsm_PR2" now active
1 logical volume(s) in volume group "VolGroup_arpr5" now active
1 logical volume(s) in volume group "VolGroup_u01" now active
1 logical volume(s) in volume group "VolGroup_arpr2" now active
1 logical volume(s) in volume group "VolGroup_v00" now active
1 logical volume(s) in volume group "VolGroup_arpr1" now active
1 logical volume(s) in volume group "VolGroup_w00" now active
1 logical volume(s) in volume group "VolGroup_w01" now active
1 logical volume(s) in volume group "VolGroup_v01" now active
1 logical volume(s) in volume group "VolGroup_z00" now active
1 logical volume(s) in volume group "VolGroup_x00" now active
1 logical volume(s) in volume group "VolGroup_u00" now active
1 logical volume(s) in volume group "VolGroup_arposipr2" now active
3 logical volume(s) in volume group "VolGroup00" now active
[ OK ]

# service gfs2 start
GFS2: no entries found in /etc/fstab

# service rgmanager start
Starting Cluster Service Manager: [ OK ]

#

lunes, 7 de enero de 2019

Sacar /boot del multipath


# mkdir /boot.old
# umount /boot
# mount /dev/mapper/mpathap1 /boot.old/
# mount --bind /boot.old/ /boot    (menos menos bind)

# df -h (no se ve el bind aca pero si en el mount)

Filesystem           Size  Used  Avail  Use% Mounted on
/dev/mapper/VolGroup00-lv_root   30G  5.8G   23G  21% /
tmpfs                 16G     0   16G   0% /dev/shm
/dev/mapper/VolGroup00-lv_home 7.9G  2.6G  5.0G  35% /home
/dev/mapper/mpathap1 388M   65M  304M  18% /boot.old

# mount
/dev/mapper/VolGroup00-lv_root  on / type ext4 (rw)
proc on  /proc type proc (rw)
sysfs on  /sys type sysfs (rw)
devpts on  /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs on  /dev/shm type tmpfs (rw)
/dev/mapper/mpathap1  on /boot.old type ext4 (rw)
/boot.old  on /boot type none (rw,bind)

Agregar lun a rhel cluster 5


Verificamos las wwn online y pedimos la lun.

#   cat /sys/class/fc_host/*/port_name
0x21000024ff219f38
0x21000024ff219f39
0x21000024ff2194ac
0x21000024ff2194ad
#   cat /sys/class/fc_host/*/port_state
Online
Online
Linkdown
Linkdown

Una vez que nos asignaron las luns rescaneamos, identificamos la lun y la editamos el /etc/multipath.conf para modificarle el nombre. (TODO ESTO EN LOS DOS NODOS)

# rescan-scsi-bus.sh
# multipath -F; multipath -v2
create: mpath27 (360050768018285d270000000000005b5)  IBM,2145
[size=200G][features=0][hwhandler=0][n/a]
\_ round-robin 0 [prio=50][undef]
 \_ 1:0:1:26 sdcm 69:160 [undef][ready]
 \_ 2:0:1:26 sdco 69:192 [undef][ready]
\_ round-robin 0 [prio=10][undef]
 \_ 1:0:0:26 sdcl 69:144 [undef][ready]
 \_ 2:0:0:26 sdcn 69:176 [undef][ready]
 
# vi /etc/multipath.conf
 ### Agregamos algo como esto
         multipath {
               wwid                    360050768018285d270000000000005b5
               alias                   mp_storage_u11
        }
        
# multipath -F; multipath -v2       

Con el disco reconocido por el sistema operativo procedemos a formatearlo, agregarlo a lvm.
# fdisk /dev/mapper/mp_storage_u11
[ ponemos todas las opciones que van  n - p - 1 - enter - enter 
  t 8e w ]
  
# pvcreate /dev/mapper/mp_storage_u11p1
# vgcreate vgstorage_u11 /dev/mapper/mp_storage_u11p1
# lvcreate -n lv_u11 -l 100%FREE vgstorage_u11 
Aca faltaria crear el fs y agregarlo al cluster el tema es que el tipo de fs es gfs2 asi que hay que darle un vueltita de rosca mas.

Con gfs2.tool buscamos la etiquieta de locktable que tienen los fs montados y la cantidad de journals (deberia ser un journal por nodo que lo monta)

# gfs2_tool list
253:52 gatclu:u10
253:58 gatclu:utsm
253:57 gatclu:uarchive
253:60 gatclu:gfs2
253:53 gatclu:u08
253:51 gatclu:u07
253:50 gatclu:u06
253:48 gatclu:gfs2-u05
253:61 gatclu:u04
253:59 gatclu:u03
253:56 gatclu:u02
253:55 gatclu:u01
253:54 gatclu:u00

# gfs2_tool journals /u09
journal1 - 128MB
journal0 - 128MB
2 journal(s) found.

Creamos entonces los fs y los agregamos al cluster.

mkfs.gfs2  -p lock_dlm -t gatclu:u11 -j2 /dev/vgstorage_u11/lv_u11
mount -t gfs2 /dev/vgstorage_u11/lv_u11 /u11

vi /etc/cluster/cluster.conf 
### Cambiar la config_version en la seccion cluster
<cluster config_version="48" name="gatclu">
### Agrego en la seccion resources TENER en cuenta el fsid que no se repita
<clusterfs device="/dev/vgstorage_u11/lv_u11" force_unmount="1" fsid="58377" 
fstype="gfs2" mountpoint="/u11" name="gfs2-u11" options="noatime,defaults"/>
### Agrego en la seccion service
<clusterfs ref="gfs2-u11">
</clusterfs>
Una vez revisado todo updateo la configuracion del cluster:

ccs_tool update /etc/cluster/cluster.conf

viernes, 4 de enero de 2019

Instalando wordpress en rhel con docker


Partimos de dos servidores con rhel 7, con docker instalado.
El servidor stlinux tiene salida a internet a traves de proxy y el dlstlinux1 no sale a ningun lado pero se publica el blog ahi y todos pueden acceder.

Los pasos a seguir eran bajar las imagenes de docker al plstlinux, exportarlas, copiarlas al dlstlinux1 y finalmente importarlas. Este fue el procedimiento:

Agregar el proxy al servicio docker en plstlinux.

vi /etc/systemd/system/docker.service.d/https-proxy.conf
 [Service]
 Environment="HTTPS_PROXY=https://DOMINIO\usuario:Mipassword2019@proxy:8080"

Reiniciar la confi de sysctl y el demonio de docker y chequear la configuracion recien editada.

systemctl daemon-reload
systemctl restart docker
systemctl show --property=Environment docker

Bajar las imagenes de docker y exportarlas a archivo.

docker pull mariadb:latest
docker pull wordpress:latest
docker save -o mariadb.docker mariadb
docker save -o wordpress.docker wordpress

Ahora las copio a dlstlinux1 las importo y sigo el procedimiento de instalacion que haya sacado de internet.

docker load -i mariadb.docker
docker load -i wordpress.docker 

docker run -e MYSQL_ROOT_PASSWORD=coneja -e MYSQL_DATABASE=wordpress --name wordpressdb \
-v "/docker/madb":/var/lib/mysql -d mariadb
docker run -e WORDPRESS_DB_PASSWORD=coneja --name wordpress --link wordpressdb:mysql \
 -p 8001:80 -v "/docker/wp":/var/www/html -d wordpress

Listo ya tengo instalado un mysql con un wordpress en el puerto 8001 del equipo.

Ahora borra la confi del proxy asi no te bloquea la pass y stopeo el docker del plstlinux que solo lo uso para bajar las imagenes.

rm -f /etc/systemd/system/docker.service.d/https-proxy.conf
systemctl daemon-reload
systemctl stop docker