Bienvenidos

Todos estos pasos descriptos fueron probados en ambientes productivos

jueves, 11 de agosto de 2011

NFS LOCO

Problema del NFS
Tenia que hacer un servidor centralizadode backups, en el cual compartiera por NFS, un FS /BACKUP , y ahi alojar los ufsdump de distintos equipos.
La idea era que por cron una vez por semana, desde los solaris que no tenian unidad de cinta, hiciera un ufsdump del fs barra ( / )  a este
servidor que exportaba el NFS.
Pero... cuando queria sobreescribir el archivo me daba un error, abajo lo describo en detalle y como lo solucione.
Equipo Anfitrion:  ( Solaris 10 rel 8/07 )
Desde este equipo, exporto un fs /BACKUP por nfs
share -F nfs -o anon=0 -d "Fs Backups" /BACKUPS

Desde otros solaris, con distintos releases, incluso con distintas versiones, monto el fs /BACKUP en /mnt

Hago el ufsdump 0uf /BACKUP/”nombredelequipoclienteNFS”/BARRA.DMP

Esto lo hace perfecto. Graba el archivo sin inconvenientes.
El problema es cuando, a la semana siguiente se ejecuta de nuevo el script, y este va a sobreescribir el archivo BARRA.DMP, me dice que
No puede sobreescribirlo porque el usuario no es uid 0 or 0 .
Este error solo me lo da con el release 1/06 de Solaris 10.

Me fije, en unos de los que si funcionaba, y tenia comentada esa variable (NFSMAPID_DOMAIN=domain ).

Lo que hice fue lo siguiente :

En los equipos que serian los clientes de nfs  con Solaris 10, comente esa variable en /etc/default/nfs y ahora funcionan ok.

miércoles, 10 de agosto de 2011

prstat : not enough memory : Not enough space ( encontre la solucion al problema de la resaca)

prstat not enough memory ??? si hay un monton de memoria libre, swap  libre, que raro, bueno, el problema eran los fucking file descriptors
coneja] / # prstat                           
prstat: not enough memory: Not enough space 
Tenia 4096 fd y lo cambie para probar en 1024 ( que es el default)    
[coneja] / # ulimit -a                        
time(seconds)        unlimited                  
file(blocks)         unlimited                  
data(kbytes)         unlimited                  
stack(kbytes)        8192                       
coredump(blocks)     unlimited                  
nofiles(descriptors) 4096                       
vmemory(kbytes)      unlimited                  
[coneja] / # ulimit -n 1024                   
[coneja] / # ulimit -a                        
time(seconds)        unlimited                  
file(blocks)         unlimited                  
data(kbytes)         unlimited                  
stack(kbytes)        8192                       
coredump(blocks)     unlimited                  
nofiles(descriptors) 1024                       
vmemory(kbytes)      unlimited  

Y.... Arranco
               
[coneja] / # prstat                           
   PID USERNAME  SIZE   RSS STATE  PRI NICE      TIME  CPU PROCESS/NLWP
 26465 x300106   651M  613M sleep   60    0   1:17:33 8.0% oracle/11  
 14553 x300106   638M  610M sleep    0    0   0:45:13 7.4% oracle/11
 14549 20443050   51M   45M sleep    0    0   0:29:12 4.7% m_clonacion/1
 14165 sshd      981M  967M cpu33    0    0   0:00:55 3.7% oracle/1
 20669 2046      544M  516M sleep   60    4   0:00:44 3.0% oracle/1
 10331 2046      549M  521M sleep   60    4   0:05:20 1.9% oracle/1
 24179 20443085  621M  176M sleep   59    0   6:10:30 1.5% hedgehog/5
 13536 20443082  817M  368M sleep   59    0  12:43:26 0.9% hedgehog/5
 12723 2015     2003M 1957M sleep   26    0   0:04:28 0.6% oracle/11
  1068 784      1050M  110M sleep   59    0  17:52:57 0.5% hedgehog/5
 22401 784      1081M  247M sleep   59    0   2:28:27 0.5% hedgehog/5
  7764 root       18M 5560K sleep   40    0  33:06:19 0.5% scopeux/1
  1064 784      1049M  185M sleep   59    0  13:47:23 0.4% hedgehog/5
 19111 sshd      983M  957M sleep   40    0   2:07:08 0.4% oracle/1
 20081 2016      942M  320M sleep   59    0  13:44:33 0.4% hedgehog/5
 26495 20443085  657M   88M sleep   59    0   9:01:23 0.3% hedgehog/5
 12870 x300106   647M  565M sleep   59    0   3:09:33 0.2% oracle/14
 26350 2016     1953M  100M sleep   59    0   0:01:26 0.2% hedgehog/5
 12862 x300106   641M  558M sleep   51    0   0:51:01 0.2% oracle/258
 12866 x300106   641M  557M sleep   59    0   0:50:02 0.2% oracle/258
    30 2016      561M   59M sleep   59    0   0:16:58 0.2% hedgehog/5
 12868 x300106   641M  557M sleep   56    0   0:50:06 0.2% oracle/258
  1067 784       569M   94M sleep   59    0   5:57:39 0.2% hedgehog/5
 12860 x300106   641M  570M sleep   59    0   0:50:05 0.2% oracle/258
 18619 2046      545M  474M sleep   42    4   0:02:33 0.1% oracle/258
 21887 sshd      985M  962M sleep   51    0   0:08:52 0.1% oracle/29
 19597 2035      937M  821M sleep   59    0  21:19:20 0.1% oracle/1
 18617 2046      545M  478M sleep   41    4   0:02:38 0.1% oracle/258
 18621 2046      551M  478M sleep   47    4   0:12:33 0.1% oracle/13
  7737 root     1256K  136K sleep   49    0   7:16:29 0.1% perf64/1
 18675 2046      562M  502M sleep   41    4   0:02:21 0.1% oracle/11
 18677 2046      551M  488M sleep   43    4   0:02:00 0.1% oracle/18
  3073 root       15M   11M sleep   59    0   4:44:48 0.1% discusge/1
 12872 x300106   646M  578M sleep   59    0   0:07:04 0.1% oracle/20
 12878 x300106   636M  588M sleep   55    0   0:11:12 0.1% oracle/1
 22683 root     2528K 2128K cpu32   50    0   0:00:00 0.1% prstat/1
   892 sshd      981M  950M sleep   59    0   0:14:33 0.1% oracle/1
 19715 2035      933M  870M sleep   59    0   9:29:46 0.1% oracle/1
 18633 2046      539M  490M sleep   47    4   0:11:06 0.0% oracle/1
 16193 sshd      981M  951M sleep   59    0   0:02:29 0.0% oracle/1
 19571 2035      935M  850M sleep   59    0   5:36:40 0.0% oracle/1
  8075 root       66M 5256K sleep   59    0   1:59:37 0.0% seosd/1
 22644 2015     1877M 1845M sleep   52    0   0:00:00 0.0% oracle/1
  8933 root       66M 5096K sleep   59    0   1:38:38 0.0% seosd/1
 18623 2046      550M  491M sleep   47    4   0:03:50 0.0% oracle/15
 17055 sshd      981M  960M sleep   59    0   0:00:46 0.0% oracle/1
 16185 sshd      982M  952M sleep   59    0   0:01:26 0.0% oracle/1
  2810 root       66M 6696K sleep   59    0   2:13:10 0.0% seosd/1
 17051 sshd      982M  961M sleep   59    0   0:00:27 0.0% oracle/1
 22738 root       48M   17M sleep   43    0   0:13:30 0.0% opcmona/8
  4237 sshd      534M  504M sleep   59    0   0:10:41 0.0% oracle/1
 18831 root       48M   16M sleep   54    0   0:11:36 0.0% opcmona/8
 19665 root      215M   10M sleep   59    0   2:21:47 0.0% coda/9
Total: 767 processes, 6676 lwps, load averages: 3.84, 4.56, 4.67
[coneja] / #

El equipo donde tirana el error era :
[coneja] / # prtdiag -v|more
System Configuration:  Sun Microsystems  sun4u Sun Fire E25K
System clock frequency: 150 MHz
Memory size: 32768 Megabytes



lunes, 8 de agosto de 2011

Prtdiag ( cortito y al pie )


Cuando no refresca el prtdiag -v , se debe restartear el picld
svcadm restart picld
doc id que avala esto es 212205

viernes, 5 de agosto de 2011

Problema instalando una zona

Instalando una zona desde cero , me encontre con este error y  la solucion es artesanal, aca dejo el paso a paso.
[coneja]# zonecfg -z zona1 -f /usr/scripts/creaZONA1.ksh
[coneja]# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP
   0 global           running    /                              native   shared
   - zona1            configured /export/zona1                  native   shared
[coneja]# chmod 700 /export/zona1
[coneja]# zoneadm -z zona1 install
Preparing to install zone .
Creating list of files to copy from the global zone.
Copying <139425> files to the zone.
Initializing zone product registry.
Determining zone package initialization order.
Preparing to initialize <1171> packages on the zone.
Initialized <1171> packages on zone.                                 [[2;5~
Zone is initialized.
Installation of <12> packages was skipped.
The file contains a log of the zone installation.
HASTA ACA VENIA TODO PERFECTO........
[coneja]# zoneadm -z zona1 ready
[coneja] # zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP
   0 global           running    /                              native   shared
   1 zona1            ready      /export/zona1                  native   shared
[coneja] # zoneadm -z zona1 boot
[coneja]# zlogin zona1 ( Cuando Quiero loguearme a la zona, que instale recien, no levantaban servicios)
# svcs -xv
svc:/system/sysidtool:net (sysidtool)
 State: offline since Mon May 18 10:02:53 2009
Reason: Start method is running.
   See: http://sun.com/msg/SMF-8000-C4
   See: man -M /usr/man -s 1M sysidtool
   See: /var/svc/log/system-sysidtool:net.log
Impact: 28 dependent services are not running:
        svc:/network/rpc/bind:default
Recorté la salida de los logs del svcs -xv        
   See: /var/svc/log/application-print-ppd-cache-update:default.log
Impact: This service is not running.
#                                                        
LO UNICO LOCO QUE VEO ES en el /ETC
-rw-r--r--   1 root     other          0 May 18 09:44 .UNCONFIGURED
-rw-r--r--   1 root     other         40 May 18 09:51 .sysidconfig.apps
# more .sysidconfig.apps
/usr/sbin/sysidkbd
/lib/svc/method/sshd
LUEGO APLICO la SOLUCION  de la Ing SCIARRILLO
# rm .UNCONFIGURED
# rm .sysidconfig.apps
# reboot    ( reboot de la zona)
[Connection to zone 'zona1' pts/2 closed]
[coneja]# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP
   0 global           running    /                              native   shared
   2 zona1            running    /export/zona1                  native   shared
[coneja] /usr/scripts #                    
Ejecuto esto
    /usr/sbin/sysidnet
     /usr/sbin/sysidns
     /usr/sbin/sysidsys
     /usr/sbin/sysidroot
     /usr/sbin/sysidpm
     /usr/sbin/sysidnfs4
     /usr/sbin/sysidkbd

y Salio Andando 10 PuntoS