Bienvenidos

Todos estos pasos descriptos fueron probados en ambientes productivos

lunes, 10 de julio de 2017

Arreglar un DiskGroup cuando falla porque tiene discos con udid_mismatch


root@sun5004-ldm #   vxdg import VARIOS
VxVM vxdg ERROR V-5-1-10978 Disk group VARIOS: import failed:
No valid log copies in disk group

root@sun5004-ldm #  vxdisk -o alldgs list
DEVICE       TYPE            DISK         GROUP        STATUS
emc0_0       auto:cdsdisk    ZONASdg01    ZONASdg      online thinrclm
emc0_1       auto:ZFS        -            -            ZFS
emc0_2       auto:none       -            -            online invalid
emc0_3       auto:none       -            -            online invalid
emc0_4       auto:cdsdisk    MOTOR01      MOTOR        online thinrclm
emc0_26      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_27      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_28      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_29      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_30      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_31      auto:cdsdisk    PRUEBA01     PRUEBA       online thinrclm
emc0_67      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_68      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_69      auto:ZFS        -            -            ZFS
emc0_70      auto:cdsdisk    -            (VARIOS)     online
emc0_71      auto:cdsdisk    -            (VARIOS)     online
emc0_72      auto:cdsdisk    -            (VARIOS)     online
emc0_73      auto:cdsdisk    -            (VARIOS)     online
emc0_74      auto:cdsdisk    -            (VARIOS)     online
emc0_75      auto:cdsdisk    -            (VARIOS)     online
emc0_76      auto:cdsdisk    -            (VARIOS)     online
emc0_77      auto:cdsdisk    -            (VARIOS)     online
emc0_78      auto:cdsdisk    -            (VARIOS)     online

root@sun5004-ldm #


Esto con cada uno de los discos con udid mismatch
-------------------------------
root@sun5004-ldm #  vxdisk updateudid emc0_26

root@sun5004-ldm # vxdisk -e list
.
emc0_26      auto:cdsdisk   -            -           online clone_disk thinrclm c5t60000970000295700635533030433136d0s2 -
.
root@sun5004-ldm #  vxdisk set emc0_26 clone=off

root@sun5004-ldm # vxdisk -o alldgs list | grep VARIOS
emc0_26      auto:cdsdisk    -            (VARIOS)     online thinrclm

root@sun5004-ldm #  vxdg -Cf import VARIOS
root@sun5004-ldm # vxdg list
NAME         STATE           ID
ZONASdg      enabled,cds          1488805372.11.sun5004-ldm
MOTOR        enabled,cds          1489175938.98.sun5004-ldm
PRUEBA       enabled,cds          1415799954.92.sun5004
VARIOS       enabled,cds          1350498026.360.sun5004



NOTAS: Esto nos paso con Veritas version 5.0 MP3

Documento realizado por mi colega @nicomorono

miércoles, 7 de junio de 2017

Oracle Linux Server 6.7 sobre un LDOM en Ultra Sparc T5


En este Articulo, se detalla un paso a paso , para la creacion de un ldom sobre un T5 , y posteriormente la instalacion de Oracle Linux Server 6.7, partiendo de la base que ya tenemos un PDOM con otros LDOMS creados, si tiene que crear un ldom paso a paso lea Este Articulo

El nombre que voy a usar de aqui en adelante para el zpool,hostname y todo lo relacionado a este ldom con oracle linux es "dorclx01" el nombre es por   d=desarrollo, orc=oracle lx=linux 01=Primer Ldom con linux

Primero creo un ZPOOL para el disco del SO
root@t5-2 # zpool create dorclx01_so c0t60050768018107A79000000000000CF3d0
root@t5-2 # zpool list
NAME          SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT

dorclx01_so  79.5G   126K  79.5G   0%  1.00x  ONLINE  -
laboratorio   199G  10.7G   188G   5%  1.00x  ONLINE  -
rpool         278G   102G   176G  36%  1.00x  ONLINE  -
root@t5-2 #
Le agrego el valor "none" al mountpoint para que No monte el zfs en el PDOM
root@t5-2 # zfs set mountpoint=none dorclx01_so
Creo un Volumen vol01, dentro del Zpool dorclx01 el cual luego lo usare para pasarselo al ldom y este sera visto como un disco, en el cual instalare el Sistema Operativo
root@t5-2 # zfs create -V 75g dorclx01_so/vol01

Ahora creo el LDOM
root@t5-2 # ldm add-domain dorclx01
root@t5-2 # ldm set-vcpu 8 dorclx01
root@t5-2 # ldm set-mem 8g dorclx01
root@t5-2 # ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    8     16G      0.4%  0.4%  274d 1h
net1002         active     -n----  5002    8     8G       1.1%  1.1%  271d 1h
sunlab1          bound      ------  5000    8     8G
dorclx01         inactive   ------          8     8G
root@t5-2 #
Agrego la placa de red y el switch al ldom
root@t5-2 # ldm add-vnet vnet1 vsw4 dorclx01
root@t5-2 # ldm add-vds dorclx01-vds0 primary
Agrego el virtual device ( el volumen que cree unas lineas mas arriba )
root@t5-2 #  ldm add-vdsdev /dev/zvol/dsk/dorclx01_so/vol01 vol01@dorclx01-vds0
Agrego los Virtual disk al ldom
root@t5-2 #  ldm add-vdisk vdisk1 vol01@dorclx01-vds0 dorclx01
Agrego la imagen ISO al primary
root@t5-2 # ldm add-vdsdev /sun/OL-201705232017-R6-U7-sparc-dvd.iso oracle-linux@primary-vds0
Agrego la imagen ISO al ldom
root@t5-2 # ldm add-vdisk oracle-linux oracle-linux@primary-vds0 dorclx01
Agrego el autoboot en False para que quede en OBP cuando bootee
root@t5-2 # ldm add-variable auto-boot?=false dorclx01
Le doy start al LDOM
root@t5-2 # ldm start dorclx01
LDom dorclx01 started
root@t5-2 #
Me conecto a la Consola del nuevo LDOM ,
root@t5-2 # telnet 0 5001
Trying 0.0.0.0...
Connected to 0.
Escape character is '^]'.

Connecting to console "dorclx01" in group "dorclx01" ....
Press ~? for control options ..

{0} ok  boot

A partir de aqui, se muestra la salida de lo que va mostrando en el booteo, la recorto y modifico porque es muy larga y no aporta mucho a este documento"


PROMLIB: Sun IEEE Boot Prom 'OBP 4.38.3 2015/11/11 10:38'
PROMLIB: Root node compatible: sun4v
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing cgroup subsys cpuacct
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16.0.6) (GCC) ) #1 SMP Mon May 15 1
3:52:26 PDT 2017
bootconsole [earlyprom0] enabled
ARCH: SUN4V
...........................
Initializing cgroup subsys cpu
Initializing cgroup subsys cpuacct
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc 
.......................
Greetings.
anaconda installer init version 13.21.215 starting
mounting /proc filesystem... done
creating /dev filesystem... done
starting udev...udevd[86]: error setting /sys/class/firmware/timeout: No such file or directory
done
mounting /dev/pts (unix98 pty) filesystem... done
mounting /sys filesystem... done
anaconda installer init version 13.21.215 using a serial console
trying to remount root filesystem read write... done
mounting /tmp as tmpfs... done
running install...
running /sbin/loader
detecting hardware...
waiting for hardware to initialize...
detecting hardware...
waiting for hardware to initialize...
Welcome to Oracle Linux Server for sparc64




Luego, por ultimo, al darle a la opcion Reboot, queda en el OBP ( porque lo configuramos asi en el boot?=false ) 
terminating anaconda...done
sending termination signals...done
sending kill signals...done
disabling swap...
        /dev/dm-1
unmounting filesystems...
        /mnt/runtime done
        disabling /dev/loop0
        /dev/pts done
        /selinux done
        /mnt/sysimage/boot done
        /mnt/sysimage/dev/pts done
        /mnt/sysimage/dev/shm done
        /mnt/sysimage/dev done
        /mnt/sysimage/proc done
        /mnt/sysimage/sys done
        /mnt/sysimage/selinux done
        /mnt/sysimage done
waiting for mdraid sets to become clean...
rebooting system
reboot: Restarting system
NOTICE: Entering OpenBoot.
NOTICE: Fetching Guest MD from HV.
NOTICE: Starting additional cpus.
NOTICE: Initializing LDC services.
NOTICE: Probing PCI devices.
NOTICE: Finished PCI probing.

SPARC T5-2, No Keyboard
Copyright (c) 1998, 2015, Oracle and/or its affiliates. All rights reserved.
OpenBoot 4.38.3, 8.0000 GB memory available, Serial #83429474.
Ethernet address 0:14:4f:f9:8:62, Host ID: 84f90862.



{0} ok
 Para finalizar, le damos boot , y queda bootedo con Oracle linux sobre SPARC 
 ****** Corto la salida, dejo lo que me parece mas  importante para mostrar ****

                          GNU GRUB  version 2.02~beta3

 +----------------------------------------------------------------------------+
 |*Oracle Linux Server GNU/Linux                                |
 | Advanced options for Oracle Linux Server GNU/Linux           
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 +----------------------------------------------------------------------------+

      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, `e' to edit the commands
      before booting or `c' for a command-line.
   The highlighted entry will be executed automatically in 0s.
  Booting `Oracle Linux Server GNU/Linux'

Loading Linux 4.1.12-94.3.4.el6uek.sparc64 ...
Loading initial ramdisk ...

PROMLIB: Sun IEEE Boot Prom 'OBP 4.38.3 2015/11/11 10:38'
PROMLIB: Root node compatible: sun4v
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing cgroup subsys cpuacct
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16.0.6) (GCC) ) #1 SMP Mon May 15 13:52:26 PDT 2017
bootconsole [earlyprom0] enabled
ARCH: SUN4V
Ethernet address: 00:14:4f:f9:08:62
MM: PAGE_OFFSET is 0xfff8000000000000 (max_phys_bits == 47)
MM: VMALLOC [0x0000000100000000 --> 0x0006000000000000]
MM: VMEMMAP [0x0006000000000000 --> 0x000c000000000000]
Kernel: Using 4 locked TLB entries for main kernel image.
Remapping the kernel... done.
OF stdout device is: /virtual-devices@100/console@1
PROM: Built device tree with 46376 bytes of memory.
MDESC: Size is 14704 bytes.
PLATFORM: banner-name [SPARC T5-2]
PLATFORM: name [ORCL,SPARC-T5-2]
PLATFORM: hostid [84f90862]
PLATFORM: serial# [0099f9b8]
PLATFORM: stick-frequency [3b9aca00]
PLATFORM: mac-address [144ff90862]
PLATFORM: watchdog-resolution [1000 ms]
PLATFORM: watchdog-max-timeout [31536000000 ms]
PLATFORM: max-cpus [1024]
Top of RAM: 0x22ffee000, Total RAM: 0x1ffa62000
Memory hole size: 773MB
Allocated 24576 bytes for kernel page tables.
Zone ranges:
  Normal   [mem 0x0000000030400000-0x000000022ffedfff]
Movable zone start for each node
Early memory node ranges
  node   0: [mem 0x0000000030400000-0x000000006fefffff]
  node   0: [mem 0x000000006ff80000-0x000000006ff8bfff]
  node   0: [mem 0x0000000070000000-0x000000022ff3ffff]
  node   0: [mem 0x000000022ffc0000-0x000000022ffcdfff]
  node   0: [mem 0x000000022ffe6000-0x000000022ffedfff]
Initmem setup node 0 [mem 0x0000000030400000-0x000000022ffedfff]
Booting Linux...
CPU CAPS: [flush,stbar,swap,muldiv,v9,blkinit,n2,mul32]
CPU CAPS: [div32,v8plus,popc,vis,vis2,ASIBlkInit,fmaf,vis3]
CPU CAPS: [hpc,ima,pause,cbcond,aes,des,kasumi,camellia]
CPU CAPS: [md5,sha1,sha256,sha512,mpmul,montmul,montsqr,crc32c]
PERCPU: Embedded 10 pages/cpu @fff800021e000000 s38080 r8192 d35648 u131072
SUN4V: Mondo queue sizes [cpu(131072) dev(16384) r(8192) nr(256)]
Built 1 zonelists in Node order, mobility grouping on.  Total pages: 1038645
Policy zone: Normal
Kernel command line: BOOT_IMAGE=/vmlinuz-4.1.12-94.3.4.el6uek.sparc64 root=/dev/mapper/VolGroup-lv_root ro
log_buf_len individual max cpu contribution: 4096 bytes
log_buf_len total cpu_extra contributions: 4190208 bytes
log_buf_len min size: 1048576 bytes
log_buf_len: 8388608 bytes
early log buf free: 1038696(99%)
PID hash table entries: 4096 (order: 2, 32768 bytes)
Sorting __ex_table...
Memory: 8092632K/8382856K available (6226K kernel code, 2345K rwdata, 2856K rodata, 624K init, 2489K bss, 290224K reserved, 0K cma-reserved)
Hierarchical RCU implementation.
        RCU restricting CPUs from NR_CPUS=2048 to nr_cpu_ids=1024.
RCU: Adjusting geometry for rcu_fanout_leaf=16, nr_cpu_ids=1024
NR_IRQS:2048 nr_irqs:2048 1
SUN4V: Using IRQ API major 3, cookie only virqs enabled
clocksource stick: mask: 0xffffffffffffffff max_cycles: 0x1cd42e4dffb, max_idle_ns: 881590591483 ns
Console: colour dummy device 80x25
bootconsole [earlyprom0] disabled
PROMLIB: Sun IEEE Boot Prom 'OBP 4.38.3 2015/11/11 10:38'
PROMLIB: Root node compatible: sun4v
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16.0.6) (GCC) ) #1 SMP Mon May 15 13:52:26 PDT 2017
bootconsole [earlyprom0] enabled
ARCH: SUN4V
Ethernet address: 00:14:4f:f9:08:62
Kernel: Using 4 locked TLB entries for main kernel image.
Remapping the kernel... done.
OF stdout device is: /virtual-devices@100/console@1
PROM: Built device tree with 46376 bytes of memory.
MDESC: Size is 14704 bytes.
PLATFORM: banner-name [SPARC T5-2]
PLATFORM: name [ORCL,SPARC-T5-2]
PLATFORM: hostid [84f99862]
PLATFORM: serial# [099f9b8]
Memory hole size: 773MB
Allocated 24576 bytes for kernel page tables.
Zone ranges:
Early memory node ranges
Booting Linux...
PERCPU: Embedded 10 pages/cpu @fff800021e000000 s38080 r8192 d35648 u131072
SUN4V: Mondo queue sizes [cpu(131072) dev(16384) r(8192) nr(256)]
Built 1 zonelists in Node order, mobility grouping on.  Total pages: 1038645
Policy zone: Normal
Kernel command line: BOOT_IMAGE=/vmlinuz-4.1.12-94.3.4.el6uek.sparc64 root=/dev/mapper/VolGroup-lv_root ro
log_buf_len min size: 1048576 bytes
log_buf_len: 8388608 bytes
early log buf free: 1038696(99%)
PID hash table entries: 4096 (order: 2, 32768 bytes)
Memory: 8092632K/8382856K available (6226K kernel code, 2345K rwdata, 2856K rodata, 624K init, 2489K bss, 290224K reserved, 0K cma-reserved)
Hierarchical RCU implementation.
 SUN4V: Using IRQ API major 3, cookie only virqs enabled
Brought up 8 CPUs
devtmpfs: initialized
Performance events:
Testing NMI watchdog ... OK.
Supported PMU type is 'niagara5'
VIO: Adding device channel-devices (tx_ino = ffffffffffffffff, rx_ino = ffffffffffffffff)
VIO: Adding device vnet-port-0-0 (tx_ino = 0, rx_ino = 1)
VIO: Adding device vnet-port-0-1 (tx_ino = 2, rx_ino = 3)
VIO: Adding device vnet-port-0-2 (tx_ino = 4, rx_ino = 5)
VIO: Adding device vdc-port-0-0 (tx_ino = 6, rx_ino = 7)
VIO: Adding device vdc-port-1-0 (tx_ino = 8, rx_ino = 9)
SCSI subsystem initialized
TCP established hash table entries: 65536 (order: 6, 524288 bytes)
TCP bind hash table entries: 65536 (order: 7, 1048576 bytes)
TCP: Hash tables configured (established 65536 bind 65536)
NET: Registered protocol family 1
Trying to unpack rootfs image as initramfs...
Freeing initrd memory: 29416K (fff8000071000000 - fff8000072cba000)
futex hash table entries: 262144 (order: 11, 16777216 bytes)
console [ttyHV0] enabled
Serial: 8250/16550 driver, 4 ports, IRQ sharing enabled
NET: Registered protocol family 17
rtc-sun4v rtc-sun4v: setting system clock to 2017-06-07 18:15:07 UTC (1496859307)
device-mapper: ioctl: 4.31.0-ioctl (2015-3-12) initialised: dm-devel@redhat.com
sunvdc: vdiska: 157286400 sectors (76800 MB) protocol 1.3
 vdiska: vdiska1 vdiska2 vdiska3
sunvdc: Virtual CDROM vdiskb
sunvdc: vdiskb: 1413328 sectors (690 MB) protocol 1.3
 vdiskb: vdiskb1
sunvnet.c:v1.0 (June 25, 2007)
vnet_port vnet-port-0-0 eth0: Sun LDOM vnet 00:14:4f:fb:b9:68
sunvnet: eth0: PORT ( remote-mac 00:14:4f:f8:53:33 switch-port )
sunvnet: eth0: PORT ( remote-mac 00:14:4f:f9:68:7c )
sunvnet: eth0: PORT ( remote-mac 00:14:4f:fa:75:19 )
udev: starting version 147
dracut: Starting plymouth daemon
aes_sparc64: Using sparc64 aes opcodes optimized AES implementation
sha256_sparc64: Using sparc64 sha256 opcode optimized SHA-256/SHA-224 implementation
dracut: Scanning devices vdiska3  for LVM volume groups
random: lvm urandom read with 6 bits of entropy available
dracut: Found volume group "VolGroup" using metadata type lvm2
dracut: 2 logical volume(s) in volume group "VolGroup" now active
EXT4-fs (dm-0): mounted filesystem with ordered data mode. Opts: (null)
dracut: Mounted root filesystem /dev/mapper/VolGroup-lv_root
dracut: Loading SELinux policy
audit: type=1404 audit(1496859308.368:2): enforcing=1 old_enforcing=0 auid=4294967295 ses=4294967295
SELinux:  Permission execmod in class dir not defined in policy.
SELinux:  Permission execmod in class lnk_file not defined in policy.
SELinux:  Permission attach_queue in class tun_socket not defined in policy.
SELinux:  Class binder not defined in policy.
SELinux: the above unknown classes and permissions will be allowed
audit: type=1403 audit(1496859308.740:3): policy loaded auid=4294967295 ses=4294967295
EXT4-fs (dm-0): re-mounted. Opts: (null)
kjournald starting.  Commit interval 5 seconds
EXT3-fs (vdiska1): using internal journal
EXT3-fs (vdiska1): mounted filesystem with ordered data mode
Adding 7864312k swap on /dev/mapper/VolGroup-lv_swap.  Priority:-1 extents:1 across:7864312k FS
NET: Registered protocol family 10
ip6_tables: (C) 2000-2006 Netfilter Core Team
nf_conntrack version 0.5.0 (65536 buckets, 262144 max)
ip_tables: (C) 2000-2006 Netfilter Core Team
audit: type=1305 audit(1496859318.384:4): audit_pid=988 old=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:auditd_t:s0 res=1
vldc.c:v1.0

Oracle Linux Server release 6.7
Kernel 4.1.12-94.3.4.el6uek.sparc64 on a sparc64

localhost.localdomain login:

Para terminar de configurar, lo basico, como ser  el nombre del host, la ip , netmask , consultar el documento Configuracion Basica de Oracle Linux, Post instalación.

*********** LISTO, tenemos instalado un Oracle Linux sobre SPARC T5  ******* 

Luego desde el PDOM, si quiero conectarme hago
root@t5-2 # telnet 0 5001
Trying 0.0.0.0...
Connected to 0.
Escape character is '^]'.

Connecting to console "dorclx01" in group "dorclx01" ....
Press ~? for control options ..

{0} ok


NOTA: Esta instalacion la realizamos con mi colega Nicolas Morono @nicomorono

lunes, 5 de junio de 2017

Error para levantar procesos de OVO

El error aparece al intentar uno de los procesos de OVO
A continuacion se muestra el error que aparece en el messages, y debajo, los comandos aplicados y la solucion final

Errores del agente de monitoreo
 HP OpenView Operations  opcacta   (Action Agent)  counter for critical events exceeded limit (counter value = 1) (OpC30-526)
ERR: Thu Sep  5 22:50:03 2013: opcacta (19419/1): [uxproc.c:406]: semget(2) failed; cannot create semaphore
No space left on device (OpC20-415)
ERR: Thu Sep  5 22:50:03 2013: opcacta (19419/1): [uxacta.c:468]: counter for critical events exceeded limit (counter value = 1) (OpC30-526)
ERR: Thu Sep  5 22:50:08 2013: opcacta (20229/1): [uxproc.c:406]: semget(2) failed; cannot create semaphore
No space left on device (OpC20-415)
ERR: Thu Sep  5 22:50:08 2013: opcacta (20229/1): [uxacta.c:468]: counter for critical events exceeded limit (counter value = 1) (OpC30-526)
WRN: Thu Sep  5 22:50:38 2013: opcmona (19417/1): [genmona.c:5020]: Can't execute script for monitor OS-SOL-inetdproc. (OpC30-606)
semget(2) failed; cannot create semaphore

Procesos que no puede levantar.
# /opt/OV/bin/ovc
ovcd        OV Control                          CORE         (7047)   Running
ovbbccb     OV Communication Broker             CORE         (7048)   Running
ovconfd     OV Config and Deploy                COREXT       (16051)  Running
coda        OV Performance Core                 COREXT       (16119)  Running
opcle       OVO Logfile Encapsulator            AGENT,EA     (16120)  Running
opcmona     OVO Monitor Agent                   AGENT,EA     (16121)  Running
opcmsga     OVO Message Agent                   AGENT,EA     (16122)  Running
opcacta     OVO Action Agent                    AGENT,EA              Aborted
opcmsgi     OVO Message Interceptor             AGENT,EA     (16127)  Running
#

Hice los siguiente pasos, levanto todo ,lo controlamos y al rato vuelve a dar aborted
/opt/OV/bin/OpC/opcagt -kill
rm /var/opt/OV/tmp/OpC/*
/opt/OV/bin/OpC/opcagt -start
El equipo esta funcionando y sin errores en el messages.

Pero la solucion es borrar los semaforos que esten generando problemas, es decir que hayan quedado colgados.
Los veo con
ipcs -a
y los borro con
ipcrm -m


viernes, 2 de junio de 2017

Procedimiento para cambio de horario

En Argentina, fue normal años atras, que para "aprovechar mas la  luz del sol" se adelantara la hora.

Los pasos que vine haciendo son los siguientes :

Para todo los servidores que tengan como TIMEZONE America/Buenos aires
No es necesario bootear los equipos ni los containers.

Básicamente corremos un script que modifica y compila el nuevo uso horario. Trabaja con un archivo que se llama newbsas que tiene el siguiente formato.
Zone    America/Buenos_Aires    -3:00   -       ART     2016    Oct     18      00:00
                                -2:00   -       ART

Eso le indica que el dia Domingo 18 de octubre a las 00.00 hs cambie el timezone por -2 , es decir, se adelanta 1 hora a la actual, que es gmt +3 .

Abajo estan los nombres de los scripts y su funcion, para poder verlos clickear sobre ellos
el zscp ( que es para copiar de la global a los containers )
el chequear.fechas.ksh  ( hace lo que su nombre indica )
el newbsas ( que contiene el formato que describi mas arriba en este documento )
el compila.TZ.ksh  ( este script compila con el comando zic, lo que contiene el archivo newbsas, lo hace en la zona global y si tiene containers lo hace en cada uno de ellos )
el Orden de ejecucion de estos 5 pasos

Los equipos tienen TZ=GMT+3 ó alguno TZ=Argentina+3 , en estos casos hay que cambiar el TZ a GMT+2 y TZ=Argentina+2 y bootear los equipos.-

Los equipos que tenemos que bootear, los podemos bajar 1 hora antes y levantarlos despues de las 24.

Este procedimiento tambien funciona para Solaris 10 x86 .

Aclaracion. Si no se bootea el equipo, hay que bajar y subir el demonio del cron Porque sino queda con el horario viejo.

Orden de ejecucion

Este es el orden de ejecucion para el cambio de horario

En los Solaris tanto Sparc como x86 que tengan en su /etc/TIMEZONE  America/BuenosAires

En la zona global del equipo, lo que se debe hacer es 
1) Crear el directorio  /usr/scripts/TT
  mkdir –p /usr/scripts/TT
2) chequear las fechas y hora actuales
3)  Crear el archivo newbsas
 vi /var/tmp/newbsas
4) Copiar el archivo newbsas en todas las zonas 
5) Compilar el nuevo Time zone
usar el Compila TZ
ejecutandolo asi  /usr/scripts/TT/./compila.TZ.ksh


***** Este articulo viene del documento principal de procedimiento de cambio de horario
***** llamado  Procedimiento de cambio de horario

Compila TimeZone

Este script debe crearse en /usr/scripts/TT/
Copiar y Pegar

DESDE Aqui -----
#Script Parte 1
BASE=/usr/scripts/TT
SALIDA=$BASE/fechas.zonas.out
DATE=`date '+%m%d%H%M'`
echo " Script Parte 1 relevando los dates del equipo ............" >>$SALIDA.$DATE
zoneadm list -cv|grep zona|awk '{ print $2 }' >$BASE/LISTA
echo "          zona global         " >>$SALIDA.$DATE
echo " date original: ` date`  " >>$SALIDA.$DATE
echo " date universal: ` date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : ` cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo " Estado demonio ntp : ` svcs -a |grep ntp` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE

for  Z in `cat $BASE/LISTA`
do
echo "             $Z               ">>$SALIDA.$DATE
echo " date original: `zlogin $Z date`  " >>$SALIDA.$DATE
echo " date universal: `zlogin $Z date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : `zlogin $Z cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo " Estado demonio ntp : `zlogin $Z  svcs -a |grep ntp` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE
done
#Script Parte 2
echo " Script Parte 2 Actualizando fechas............." >>$SALIDA.$DATE
echo " Actualizando TIMEZONE en  zona global ......................" >>$SALIDA.$DATE
echo " resguardando  el archivo /var/tmp/newbsas como  /var/tmp/newbsas.old" >>$SALIDA.$DATE
 cp -p  /var/tmp/newbsas /var/tmp/newbsas.old
cp /usr/scripts/TT/newbsas /var/tmp >>$SALIDA.$DATE
echo "  Observando salida del /var/tmp ...` ls -ltr /var/tmp`" >>$SALIDA.$DATE
echo " Compilando Zona Global con  la nueva configuracion" >>$SALIDA.$DATE
/usr/sbin/zic /var/tmp/newbsas
echo " Observando archivo generado por la compilacion :  ` ls -ltr /usr/share/lib/zoneinfo/America|grep Buen `" >>$SALIDA.$DATE

for  Z in `cat $BASE/LISTA`
do
echo "             $Z               ">>$SALIDA.$DATE
echo " Actualizando TIMEZONE en $Z ......... ......................" >>$SALIDA.$DATE
echo " resguardando  el archivo /var/tmp/newbsas como  /var/tmp/newbsas.old" >>$SALIDA.$DATE
zlogin $Z cp /var/tmp/newbsas /var/tmp/newbsas.old
/usr/scripts/TT/zcp /usr/scripts/TT/newbsas $Z:/var/tmp >>$SALIDA.$DATE
echo "  Observando salida del /var/tmp ...`zlogin $Z ls -ltr /var/tmp`" >>$SALIDA.$DATE
echo " Compilando $Z con  la nueva configuracion" >>$SALIDA.$DATE
zlogin $Z /usr/sbin/zic /var/tmp/newbsas
echo " Observando archivo generado por la compilacion en $Z :  `zlogin $Z ls -ltr /usr/share/lib/zoneinfo/America|grep Buen `" >>$SALIDA.$DATE
echo " date original: `zlogin $Z date`  " >>$SALIDA.$DATE
echo " date universal: `zlogin $Z date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : `zlogin $Z cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE
done
#Script Parte 3
echo " Script Parte 3 relevando  fechas post actualizacion TIMEZONE ............" >>$SALIDA.$DATE
echo "          zona global         " >>$SALIDA.$DATE
echo " date original: ` date`  " >>$SALIDA.$DATE
echo " date universal: ` date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : ` cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo " Estado demonio ntp : ` svcs -a |grep ntp` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE

for  Z in `cat $BASE/LISTA`
do
echo "             $Z               ">>$SALIDA.$DATE
echo " date original: `zlogin $Z date`  " >>$SALIDA.$DATE
echo " date universal: `zlogin $Z date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : `zlogin $Z cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo " Estado demonio ntp : `zlogin $Z  svcs -a |grep ntp` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE
done
*****Hasta Aqui

****** Este articulo viene del documento principal de procedimiento de cambio de horario

Formato de archivo newbsas

Este es el formato que debe tener el archivo newbsas, indica que :
El dia Domingo 18 de Octubre a las 00.00 hs pasamos a estar en GMT -2 , es decir 1 hora adelantada a la hora habitual ( Argetina es GMT +3 )
Copiar y pegar en un archivo nuevo, los datos que estan entre lineas ------ , respetando espacios  en blanco y tabuladores

---------------------------------------------------------------------------------------------------------------------
Zone    America/Buenos_Aires    -3:00   -       ART     2009    Oct     18      00:00
                                -2:00   -       ART
---------------------------------------------------------------------------------------------------------------------





****** Este articulo viene del documento principal de cambio horario 
***** llamado Procedimiento de cambio horario

Chequea Fechas

El script descripto aqui abajo, chequea la fecha y hora de la zona global y de sus zonas no globales

#Script Parte 1
BASE=/usr/scripts/TT
SALIDA=$BASE/chequeando_fechas.zonas.out
DATE=`date '+%m%d%H%M'`
echo " Chequeando fechas del equipo ............" >>$SALIDA.$DATE
zoneadm list -cv|grep zona|awk '{ print $2 }' >$BASE/LISTA
echo "          zona global         " >>$SALIDA.$DATE
echo " date original: ` date`  " >>$SALIDA.$DATE
echo " date universal: ` date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : ` cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo " Estado demonio ntp : `  svcs -a |grep ntp` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE

for  Z in `cat $BASE/LISTA`
do
echo "             $Z               ">>$SALIDA.$DATE
echo " date original: `zlogin $Z date`  " >>$SALIDA.$DATE
echo " date universal: `zlogin $Z date -u`" >>$SALIDA.$DATE
echo " TIMEZONE : `zlogin $Z cat /etc/TIMEZONE|grep TZ=` " >>$SALIDA.$DATE
echo " Estado demonio ntp : `zlogin $Z  svcs -a |grep ntp` " >>$SALIDA.$DATE
echo "**************************************************" >>$SALIDA.$DATE
done

FIN del script

***** Este articulo viene del documento principal del cambio de horario

Zscp o procedimiento manual

El script zscp, no es de mi autoria, es de un genio llamado Brendan Gregg, y lo que hace es copiar archivos de  una zona global, a todos sus containers. Pero como no le pedi autorizacion para publicar su  script, lo que voy a hacer es describir el procedimiento manual que debemos hacer ( si gustan , lo pueden googlear ) , para replicar el archivo newbsas en todas las zonas.

Debo copiar el archivo newbsas a cada zona , para poder luego compilar el nuevo huso horario.
la forma manual seria asi ;
suponiendo que tenemos un total de 3 zonas no globales
Parados desde la zona global ejecutamos:
cp /usr/scripts/TT/newbsas /export/zona1/root/var/tmp/
cp /usr/scripts/TT/newbsas /export/zona2/root/var/tmp/
cp /usr/scripts/TT/newbsas /export/zona3/root/var/tmp/

**** Este articulo viene del documento principal de cambio horario
***  llamado Procedimiento para cambio de horario

miércoles, 31 de mayo de 2017

Desinstalar y upgradear el agente de monitoreo de HP, OVO

Para poder hacer un upgrade del agente de monitoreo OVO, se necesita tener solo una instancia corriendo a la vez,asi que primero, necesitamos desinstalar los siguientes paquetes , en el orden descripto a continuacion :
pkgrm HPOvEaAgt
 pkgrm HPOvPetc
pkgrm HPOvPCO
pkgrm HPOvPacc
pkgrm HPOvPerlA
pkgrm HPOvSecCC
pkgrm HPOvConf                        
pkgrm HPOvDepl
pkgrm HPOvCtrl
pkgrm HPOvBbc
pkgrm HPOvSecCo                       
pkgrm HPmwa
pkgrm HParm
pkgrm  HPOvPacc
pkgrm HPOvXpl

Luego , podemos ejecutar la instalacion dela siguiente manera :
./oasetup.sh -install -minprecheck  -management_server  -certificate_server –f

Error ANS1051I Invalid password en job de TSM

Cuando me dio este error en tsm ,
En los logs dice que no levanta por Invalid password
ANS1051I Invalid password
Please enter your user id :
Please enter password for user id "CTRL_PARK_COLD":
ANS1025E Session rejected: Authentication failure

Me conecto al servidor de tsm, en este caso al equipo aix05 y correr

aix05:/home/root>dsmadmc -se=corpov7 -id=cone -pass=password
IBM Tivoli Storage Manager
Command Line Administrative Interface - Version 6, Release 2, Level 1.0
(c) Copyright by IBM Corporation and other(s) 1990, 2010. All Rights Reserved.

Session established with server CORPO: AIX
  Server Version 7, Release 1, Level 5.0
  Server date/time: 08/31/16   22:22:49  Last access: 08/23/16   16:26:04


tsm: CORPO>q n centr*

Node Name                     Platform     Policy Domain      Days Since     Days Since     Locked?
                                           Name               Last Acce-       Password
                                                                      ss            Set
-------------------------     --------     --------------     ----------     ----------     -------
CTRL_PARK_COLD             SUN SOL-     UNIX                       <1 54="" nbsp="" no="" p="">                               ARIS
CTRL_PARK_RMAN             TDP Ora-     ORACLE                     <1 nbsp="" no="" p="">                               cle SUN

tsm: CORPO>upd n CTRL_PARK_COLD empresa
ANR2063I Node CTRL_PARK_COLD updated.

tsm: CORPO>

luego conectarme al solaris sun5002  y  correr un

root@sun5002 # dsmc q sched -se=CTRL_PARK_COLD
IBM Tivoli Storage Manager
Command Line Backup-Archive Client Interface
  Client Version 7, Release 1, Level 4.0
  Client date/time: 08/31/16   10:24:56 PM
(c) Copyright by IBM Corporation and other(s) 1990, 2015. All Rights Reserved.
Node Name: CTRL_PARK_COLD
Session established with server CORPO: AIX
  Server Version 7, Release 1, Level 5.0
  Server date/time: 08/31/16   10:24:52 PM  Last access: 08/31/16   09:35:32 PM

    Schedule Name: SELECTIVE_CTRL_PARK
      Description: selective.Semanal CTRL_PARK
   Schedule Style: Classic
           Action: Selective
          Options: -su=yes
          Objects: /app/parque/batch/ /export/home/x302168/ /interfaz/parque/ /TSM_Backup_CPARK/BIN/ /x00/ /x01/ /x02/ /x03/ /x04/ /x05/ /x06/
         Priority: 5
   Next Execution: 79 Hours and 45 Minutes
         Duration: 10 Hours
           Period: 1 Day
      Day of Week: Sunday
            Month:
     Day of Month:
    Week of Month:
           Expire: Never

root@sun5002 #

entonces lo que hice fue correr el comando  tal como lo ejecuta en el script del cluster /TSM_Backup_CPARK/ tsm_CTRL_PARK_COLD.scr
root@sun5002 # ulimit unlimited
root@sun5002 # nohup dsmc sched -se=CTRL_PARK_COLD -optfile=/TSM_Backup_CPARK/dsm.opt < /dev/null >> /dev/null 2>&1 &
[1]     12286
root@sun5002 # ps -ef|grep dsm
    root  1037     1   0   Aug 30 ?           0:05 dsmc sched -se=CT_COLD -optfile=/TSM_Backup_CT/dsm.opt
    root 12286  3256   0 22:32:36 pts/12      0:00 dsmc sched -se=CTRL_PARK_COLD -optfile=/TSM_Backup_CPARK/dsm.opt
    root 29922     1   0   Aug 30 ?          16:44 dsmc sched -se=CT -optfile=/TSM_Backup_CT/dsm.opt
    root 12425  3256   0 22:32:49 pts/12      0:00 grep dsm
root@sun5002 #

Agregar discos a un zpool

Me asignaron 2 discos ( c0t60050768018086DC3800000000000303d0 y c0t60050768018086DC3800000000000304d0 ) e hice esto

root@sunips1:~# zpool add BACKUPS c0t60050768018086DC3800000000000303d0
root@sunips1:~# zpool status -v BACKUPS
  pool: BACKUPS
state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        BACKUPS                                  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F5d0  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F4d0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Cd0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Bd0  ONLINE       0     0     0
          c0t60050768018086DC3800000000000303d0  ONLINE       0     0     0

errors: No known data errors
root@sunips1:~# zpool status -v | grep c0t60050768018086DC3800000000000304
root@sunips1:~# zpool add BACKUPS c0t60050768018086DC3800000000000304d0
root@sunips1:~# zpool status -v BACKUPS
  pool: BACKUPS
state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        BACKUPS                                  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F5d0  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F4d0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Cd0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Bd0  ONLINE       0     0     0
          c0t60050768018086DC3800000000000303d0  ONLINE       0     0     0
          c0t60050768018086DC3800000000000304d0  ONLINE       0     0     0

errors: No known data errors
root@sunips1:~#
luego hice  un df -h /BACKUPS y lo agrando solo
~

Poco frecuente, pero nos paso, error fisico de Fibra

En un t5-2 , con 1 pci, con dos FC, nos asignaron luns.
En el messages del equipo nos arrojaba estos errores de timeout
May 12 13:12:49 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442a01f6201,2
May 12 13:13:21 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:14:05 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442a01f6201,2
May 12 13:14:27 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:16:17 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:16:34 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442a01f6201,2
May 12 13:17:29 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:17:46 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442b01f7a01,2
May 12 13:18:46 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442b01f7a01,2

< Corto la salida de error porque es muy extensa >

El comando format quedaba colgado

Cualquier operacion que se quiera hacer sobre los discos del ldom del t5-2, tardan muchisimo.
Lo primero que hice fue hacer un format, se quedaba colgado.
Googlee ese caso y coincide con https://support.symantec.com/en_US/article.TECH225180.html que basicamente dice que
Para que no se cuelgue el format previamente tenes que hacer esto ( lo hice y funciono ) dice que esta solucion aplica si tenes el parche  118833-36 (or
higher)  o superior y en nuestro caso SI lo tenenmos
# NOINUSE_CHECK=1
# export NOINUSE_CHECK
# format

Pero cuando quiero hacer un newfs al d100 ( disco c0d2s0 )
Tarda casi 4 minutos para un newfs de un disco de 30gb
[sunt100] / # time newfs /dev/md/rdsk/d100
newfs: construct a new file system /dev/md/rdsk/d100: (y/n)? y
Warning: 2048 sector(s) in last cylinder unallocated
/dev/md/rdsk/d100:      62906368 sectors in 10239 cylinders of 48 tracks, 128 sectors
        30716.0MB in 640 cyl groups (16 c/g, 48.00MB/g, 5824 i/g)
super-block backups (for fsck -F ufs -o b=#) at:
32, 98464, 196896, 295328, 393760, 492192, 590624, 689056, 787488, 885920,
Initializing cylinder groups:
............
super-block backups for last 10 cylinder groups at:
61938464, 62036896, 62135328, 62233760, 62332192, 62430624, 62529056,
62627488, 62725920, 62824352

real    3m38.99s
user    0m0.74s
sys     0m0.20s
[sunt100] / #

Por otro lado, vi que se solucionaba con un FAST REBOOT, lo hicimos y se soluciono el tema del format.

Despues de encontrar el error de timeout, trate de buscar donde estaba.
Asi que revise los errores en los hba y me encontre con esto. El primer port estaba OK el segundo con errores de tx y de crc.

root@t5-2-coneja # fcinfo hba-port -l 2100000e1e2871f0
HBA Port WWN: 2100000e1e2871f0
        Port Mode: Initiator
        Port ID: 700300
        OS Device Name: /dev/cfg/c6
        Manufacturer: QLogic Corp.
        Model: 7023303
        Firmware Version: 7.05.01
        FCode/BIOS Version:  BIOS: 3.19; fcode: 4.02; EFI: 5.36;
        Serial Number: 463916R+1525264578
        Driver Name: qlc
        Driver Version: 150505-5.03b
        Type: N-port
        State: online
        Supported Speeds: 4Gb 8Gb 16Gb
        Current Speed: 16Gb
        Node WWN: 2000000e1e2871f0
        Link Error Statistics:
                Link Failure Count: 1
                Loss of Sync Count: 0
                Loss of Signal Count: 0
                Primitive Seq Protocol Error Count: 0
                Invalid Tx Word Count: 0
                Invalid CRC Count: 0
        Max NPIV Ports: 254
        NPIV port list:
root@t5-2-coneja # fcinfo hba-port -l 2100000e1e2871f1
HBA Port WWN: 2100000e1e2871f1
        Port Mode: Initiator
        Port ID: 710300
        OS Device Name: /dev/cfg/c7
        Manufacturer: QLogic Corp.
        Model: 7023303
        Firmware Version: 7.05.01
        FCode/BIOS Version:  BIOS: 3.19; fcode: 4.02; EFI: 5.36;
        Serial Number: 463916R+1525264578
        Driver Name: qlc
        Driver Version: 150505-5.03b
        Type: N-port
        State: online
        Supported Speeds: 4Gb 8Gb 16Gb
        Current Speed: 16Gb
        Node WWN: 2000000e1e2871f1
        Link Error Statistics:
                Link Failure Count: 1
                Loss of Sync Count: 0
                Loss of Signal Count: 0
                Primitive Seq Protocol Error Count: 0
                Invalid Tx Word Count: 189
                Invalid CRC Count: 5988
        Max NPIV Ports: 254
        NPIV port list:

Conclusion  hasta ese momento, es el gbic o el cable de fibra o el gbic del lado del switch.
Solucion temporaria para que no explote todo. desconfigure la /dev/cfg/c7

cfgadm -f -c unconfigure c7

Habiendo cambiado el gbic para descartar que ese sea el problema , la solucion temporaria , pero nos quedamos sin multipath, es quedar funcionando con so
lo una fibra conectada al port c6 y pedir el recableado de fibras.
******La solucion definitiva, fue cambiar el cable fisico de Fibra

martes, 30 de mayo de 2017

Para cambiar ip o setear la ip e un t5220 o t71/2


Primero configurar al SP ( Service Processor ) para que la Ip sea estatica
-> set /SP/network pendingdiscovery=static

Seteo la direccion IP para la SP
-> set /SP/network pendingipaddress=10.67.33.115

Setear la direccion IP del gateway
-> set /SP/network pendingipgateway=10.67.33.1

Setear el netmask para la SP
-> set /SP/network pendingipnetmask=255.255.255.0

*** las ip son a modo de ejemplo, tanto la de gateway como la del SP y netmask

Instalacion del Agente de Control M , Version 9.0.00 y su Fix Pack

Para la instalacion vamos a crear previamente el usuario que definimos con anterioridad, x300168 y el grupo controlm
El directorio de instalacion sera el mismo del usuario, para el caso que definimos es el /export/home/x300168
Los servidores de ControlM  tienen como hostname controlm .

-rwxr-xr-x   1 root     root         99M Jul 12  2016 PAKAI.9.0.00.200_Solaris_INSTALL.BIN

[sun5004] NUEVO /export/home/x300168 # ls -ltr
total 152
-rwxr-xr-x   1 root     root        6656 Jun  9  2014 setup.sh
-rwxrwxrwx   1 root     root       66064 Jun  8  2015 setup.exe
drwxr-xr-x  10 root     root         512 Jun  9  2015 UNIX
drwxr-xr-x   4 root     root         512 Jun  9  2015 Windows
drwxr-xr-x   5 root     root         512 Jun  9  2015 FORMS
drwxr-xr-x   6 root     root         512 Mar 17 10:33 OLD
[sun5004] NUEVO /export/home/x300168 # sh setup.sh
Starting graphical user interface...

The $DISPLAY environment variable is not defined.

Install will continue in non graphical mode.
Are you sure you want to continue?
== No   Yes ==

Enter command:

=== Control-M/Agent 9.0.00 Installation ===


=== License Agreement ===


END USER LICENSE AGREEMENT
BY OPENING THE PACKAGE, INSTALLING, PRESSING "AGREE" OR "YES" OR USING THE PRODUCT, THE ENTITY OR INDIVIDUAL ENTERING INTO THIS AGREEMENT AGREES TO B
E BOUND BY THE FOLLOWING TERMS. IF YOU DO NOT AGREE WITH ANY OF THESE TERMS, DO NOT INSTALL OR USE THE PRODUCT, PROMPTLY RETURN THE PRODUCT TO BMC OR
 YOUR BMC RESELLER, AND IF YOU RETURNED THE LICENSE WITHIN 15 DAYS OF THE DATE OF YOUR ORDER, CONTACT BMC OR YOUR BMC RESELLER FOR A REFUND OF LICENS
E FEES PAID. IF YOU REJECT THIS AGREEMENT, YOU WILL NOT ACQUIRE ANY LICENSE TO USE THE PRODUCT.
This Agreement ("Agreement") is between the entity or individual entering into this Agreement ("Customer") and the BMC Entity for the applicable Regi
on where Customer acquired the License as described in Section 18 ("BMC").

Press to continue or to skip:
Press to continue or to skip:   S

Do you accept and agree to the terms of this Software License Agreement (Y/N)?Y
=== Control-M/Agent 9.0.00 Installation ===


=== Product Settings : Control-M/Agent parameters ===


1 : Primary Control-M/Server host:

2 : Authorized Control-M/Server hosts:

3 : Agent-to-Server port number: 7005

4 : Server-to-Agent port number: 7006


== Cancel Previous Panel / Next Panel ==

Enter command or item number you wish to change: 1

Enter a new value for Primary Control-M/Server host: controlm
=== Control-M/Agent 9.0.00 Installation ===


=== Product Settings : Control-M/Agent parameters ===


1 : Primary Control-M/Server host: controlm
2 : Authorized Control-M/Server hosts:

3 : Agent-to-Server port number: 7005

4 : Server-to-Agent port number: 7006


== Cancel Previous Panel / Next Panel ==

Enter command or item number you wish to change: 2

Enter a new value for Authorized Control-M/Server hosts: controlm
=== Control-M/Agent 9.0.00 Installation ===


=== Summary ===


  You are about to install Control-M/Agent version 9.0.00

Destination Folder: /export/home/x300168

Primary Control-M/Server Host: controlm

Control-M/Server Hosts: controlm

Agent To Server Port: 7005

Server To Agent Port: 7006

Agent will be started as: Root

== Cancel Previous Panel / Install Generate an automatic installation configuration file ==

Enter command:
=== Control-M/Agent 9.0.00 Installation ===


=== Installation ===


[ Starting to unpack ]
[ Processing package: Check pre-requirements for Control-M/Agent ]
[ Processing package: Control-M/Agent files ]
\
[ Processing package: Configure Control-M/Agent ]
[ Processing package: Create softlinks for Control-M/Agent ]
[ Processing package: Start and enable Control-M Agent ]
[ Processing package: The installed-versions.txt update. ]
[ Processing package: Write uninstaller ]


=== Control-M/Agent 9.0.00 Installation ===


=== Installation Result - Success ===


Installation has completed successfully.

Note:

1. To start working with Control-M/Agent 9.0.00, you must close
the current session and open a new one.

2. If you want the agent to start automatically when the host is restarted,
implement the '/export/home/x300168/ctm/scripts/rc.agent_user' script
or replace any existing startup script with it.
For more information, refer to the Installation Guide.

Debo exportar la variableCONTROLM con el directorio donde se instalara el producto
[sun5004] NUEVO /export/home/x300168 # export CONTROLM=/export/home/x300168/ctm
Ahora si, ejecuto el script de instalacion del FixPack
[sun5004] NUEVO /export/home/x300168 # ./PAKAI.9.0.00.200_Solaris_INSTALL.BIN
Extracting files...
Succeeded in extracting files to /tmp/PAKAI.9.0.00.200_Solaris_INSTALL.BIN_root.

Initiating installer, please wait...

Starting installation of Control-M/Agent 9.0.00 Fix Pack 2
Are you sure you want to install Control-M/Agent 9.0.00 Fix Pack 2? [y/n]: y
Copy WinInstallHelper
Updating settings...
Updating configurations...
Copying files...
Create exe_900fp2 directory
Copy exe directory
Updating settings...
Moving files...
Updating settings...
Copying files...
Updating configurations...
Moving files...
Change binaries ownership
Sending ping to the server
Update Symbolic Link
Creating Job Snapshot file
Chown Job Snapshot file
Renaming Folder name...
Deleting files...
Updating configurations...
Create ctmaggetcm Symbolic Link
Change backup folder ownership
Copy WinInstallHelper To Data
Updating configurations...

Control-M/Agent 9.0.00 Fix Pack 2 installation completed successfully.

Log file:
/export/home/x300168/ctm/install/PAKAI.9.0.00.200/trace.log
[sun5004] NUEVO /export/home/x300168 #

Agregar Filesystem al Sun Cluster 3.3


La finalidad es agregar el filesystem /u27 al Cluster ( conviene hacerlo con la BD baja)
1) Descubro los discos en Solaris
cfgadm -f -c configure c(nro de controladora)
devfsadm -C ( -C significa modo Clean Up )
devfsadm ( crea special files en el /devices y logical links en /dev )
scdidadm -C ( remueve todas las referencias DID de todos los dispositivos Detachados )
scdidadm -r ( reconfiguro los DID ) (en ambos nodos )
scgdevs ( updatea el /globaldevices )
scdpm -p all:all ( chequea que este bien el did en ambos nodos del cluster, suele demorar un rato , no menos de 5 minutos dependiendo la cantidad de discos que tenga)

OJO: Los comandos arriba mencionados,Deben ser ejecutados en AMBOS nodos del cluster

vxdctl enable
agrego los discos en el Veritas ( uso por ejemplo el vxdiskadm menu opcion 1 )


# vxdisk list
# vxassist -g CCtdg make vol27 51687m layout=stripe CCtdg26 CCtdg27 CCtdg28

cldevicegroup sync CCtdg

newfs /dev/vx/rdsk/CCtdg/vol27
Poner el NUEVO FILESYSTEM en el /etc/vfstab de AMBOS NODOS
Conviene poner el cluster en modo mantenimiento, para poder bajar y subir la base de datos, las veces que se necesite y que no se migre el cluster.

clrg suspend cct-rg

Ahora puedo agregar el nuevo filesystem al control del cluster

clrs set -g cct-rg -p FileSystemMountPoints+="/u27"  cct-hastp-rs
clrs show -v   cct-hastp-rs

Luego , poner el cluster en modo normal
clrg resume cct-rg

Capturando paquetes en un puerto en particular, con el comando snoop

El equipo en cuestion, tiene una zona global y 6 zonas no globales. 
Quiero saber si alguno de los containers recibe paquetes por el puerto 4175
La zona global se llama sunp008 y las no globales, sunpc18,sunpc28,sunpc38,sunpc48 y sunpc58

Desde la zona global
root@sunp008-ldm # snoop -o /usr/scripts/snoop4175.txt -vd vnet150000 port 4175
Using device vnet150000 (promiscuous mode)
0
10 ^C


Y se lee con el comando  snoop –i

root@sunp008-ldm # snoop -i snoop4175.txt
  1   0.00000   10.24.2.94 -> sunpc48.coneja.com.ar UDP D=4175 S=51980 LEN=422
  2 378.84111 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  3   0.00375 sunpc58.conneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  4  50.00006 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  5   0.00394 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  6  49.98555 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  7   0.00401 sunpc58.coneja.com.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  8  50.37636 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  9   0.00396 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
10   0.70132   10.24.2.94 -> sunpc48.coneja.com.ar UDP D=4175 S=56099 LEN=279
root@sunp008-ldm #