Migración de Sistema Operativo, Software Aplicativo y Base de Datos Instalados en un Servidor Sun Fire V440 con Solaris 8 a un Servidor Sun Sparc T4-1 con Solaris 10 sin reinstalación.
El objetivo es llevar todo lo instalado en el servidor Sun Fire V440, Sistema Operativo Solaris 8 y aplicativos Oracle sin tener que reinstalar el software.
El Sistema Operativo Solaris 8 no puede ser instalado en el Servidor Sun Sparc T4-1, la version mínima soportada en este servidor es Solaris 10 10/09(u8), No podemos cambiar la version del software aplicativo y bases de datos ni se cuenta con los medios para una reinstalación.
Para lograr esto sin perder la información se instaló primero el Sistema Operativo Solaris 10 u13 en el servidor Sun Sparc T4-1 con el ultimo set de parches disponible.
Luego procedí a tomar una imagen flar completa del Sistema Operativo Solaris 8 2/04 en el servidor Sun Fire V440:
La imagen flar fue creada en los discos internos del servidor Sun Fire V440 y posteriormente copiado al Servidor T4-1
Para crear la imagen flar me conecté al Servidor Sun Fire V440 con usuario root y ejecuté el comando flarcreate de la siguiente manera:
**La ejecución de este comando requiere usuario root y debemos estar posicionados en el directorio raiz /
root@roatan # cd /
root@roatan # flarcreate -S -n s8-roatan /flar/s8-roatan.flar
Determining which filesystems will be included in the archive...
Creating the archive...
cpio: File size of "etc/mnttab" has
increased by 463
2756850 blocks
1 error(s)
Archive creation complete.
Una vez con la imagen flar creada en el servidor Sun Fire V440, copié el archivo flar a uno de los discos internos del servidor Sparc T4-1.
Me conecté al servidor T4-1 que tiene nombre de host guanaja y procedí con la creación de la zona para albergar el sistema operativo y aplicativos del servidor V440.
Cree la Zona para solaris 8 (branded zone) de la siguiente manera:
#el nombre de la zona se definió como s8-roatan, s8 versión de sistema operativo y roatan el nombre original del host
root@guanaja # zonecfg -z s8-roatan
#se creo una nueva configuración de zona de solaris8 usando el template SUNWsolaris8.
create -t SUNWsolaris8
# se definió el path de instalación de la zona
set zonepath=/zonas/roatan
set autoboot=true
#se seteó la dirección ip para la zona como interface de red virtual heredada de la zona global. aqui se cambió la ip original
add net
set address=172.16.1.18
set physical=bge0
set defrouter=172.16.1.1
end
#debido a que hay aplicativos en el Sistema operativo Solaris 8 instalado cuya licencia esta amarrada al hostid del equipo se definió el parametro hostid en la zona y se seteo con el mismo valor del servidor físico v440
add attr
set name=hostid
set type=string
set value=83123e3e
end
# se definió el parametro machine type para que quedará con la especificación del hardware original Sun Fire V440(sun4u)
add attr
set name=machine
set type=string
set value=sun4u
end
verify
#se salvó la configuración de la zona
commit
exit
#validé la información de definición de la zona
root@guanaja # zonecfg -z s8-roatan info
zonename: s8-roatan
zonepath: /zonas/roatan
brand: solaris8
autoboot: true
bootargs:
pool:
limitpriv:
scheduling-class:
ip-type: shared
hostid:
net:
address: 172.16.1.18
physical: igb0
defrouter: 172.16.1.1
attr:
name: hostid
type: string
value: 83123e3e
attr:
name: machine
type: string
value: sun4u
#exportamos la configuración de la zona para tener un respaldo de la misma
root@guanaja # zonecfg -z s8-roatan export > s8-roatan.config
#Una vez con la zona creada y el archivo imagen flar en el servidor procedimos a instalar la zona utilizando la imagen original del servidor Sun Fire v440, este procedimiento tomó al rededor de 2 horas
#Esta instalación se ejecutó de la siguiente manera:
root@guanaja # zoneadm -z s8-roatan install -p -a /flar/s8_roatan.flar
#despues de instalar la zona se procedió con el boot de la misma con el comando zoneadm boot
root@guanaja # zoneadm -z s8-roatan boot
#validamos que la zona hiso boot
root@guanaja # zoneadm list -icv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
1 s8-roatan running /zonas/roatan solaris8 shared
#Despues de esto procedimos a hacer login a la zona para validar la instalación y configuración de la misma con el comando zlogin:
root@guanaja # zlogin s8-roatan
[Connected to zone 's8-roatan' pts/1]
Your password will expire in 5 days.
Last login: Wed Jan 30 23:54:08 from 172.16.1.3
Sourcing //.profile-EIS.....
root@roatan # netstat -rn
Routing Table: IPv4
Destination Gateway Flags Ref Use Interface
-------------------- -------------------- ----- ----- ---------- ---------
default 172.16.1.1 UG 1 429
172.16.1.0 172.16.1.18 U 1 51 igb0:1
224.0.0.0 172.16.1.18 U 1 0 igb0:1
127.0.0.1 127.0.0.1 UH 3 9 lo0:1
root@roatan # uname -X
System = SunOS
Node = roatan
Release = 5.8
KernelID = Generic_Virtual
Machine = sun4u
BusType = <unknown>
Serial = <unknown>
Users = <unknown>
OEM# = 0
Origin# = 1
NumCPU = 64
La zona fue instalada y todos los aplicativos iniciaron sin problemas, la ventana para esta actividad tomó 12 horas desde el inició de la creación de la imagen flar hasta las pruebas finales de los usuarios.
Despues de esto y un periodó de validación de una semana el servidor Sun Fire V440 fue reconfigurado para ambiente de desarrollo y test del aplicativo y base de datos.
El Objetivo de este blog es mostrar ejemplos de configuraciones y procedimientos en la administración de Sistemas Operativos Unix(Solaris y Linux) y Bases de Datos Oracle. Los ejemplos ya han sido probados y utilizados en la implementacion de muchos ambientes.
miércoles, 31 de agosto de 2016
Migrar de Servidor Sun Fire V440 y Sistema Operativo Solaris 8 a Servidor Sun Sparc T4-1(Solaris10) sin Reinstalación.
Etiquetas:
migration,
oracle,
Solaris,
Solaris 10,
Solaris 8,
solaris containers,
solaris zones,
Sun Fire V440,
Sun Sparc T4-1,
SUNWsolaris8,
zones
martes, 23 de agosto de 2016
Revisar el estado general de Nuestro Cluster Oracle RAC
#Una buena practica es tener un monitoreo constante de nuestros clusters y bases de datos
#Despues de cualquier actividad de mantenimiento o cambio en la infraestructura de hardware en
#la que corre nuestro rac es critico hacer una revisión completa del estado del cluster y las bases
#de datos para garantizar que todo sigue funcionando con normalidad.
#Aqui presento el procedimiento y secuencia que he utilizado para completar esto:
# Primero, consultar el estado de los recursos del cluster, la idea es encontrar que todos los recursos que hemos habilitado en el cluster rac esten online:
[oracle@testnode02 bin]$ crs_stat -t
Name Type Target State Host
------------------------------------------------------------
ora.testdbrac.db application ONLINE ONLINE testnode02
ora....c1.inst application ONLINE ONLINE testnode01
ora....c2.inst application ONLINE ONLINE testnode02
ora....serv.cs application ONLINE ONLINE testnode02
ora....ac1.srv application ONLINE ONLINE testnode01
ora....ac2.srv application ONLINE ONLINE testnode02
ora....SM1.asm application ONLINE ONLINE testnode01
ora....01.lsnr application ONLINE ONLINE testnode01
ora.testnode01.gsd application ONLINE ONLINE testnode01
ora.testnode01.ons application ONLINE ONLINE testnode01
ora.testnode01.vip application ONLINE ONLINE testnode01
ora....SM2.asm application ONLINE ONLINE testnode02
ora....02.lsnr application ONLINE ONLINE testnode02
ora.testnode02.gsd application ONLINE ONLINE testnode02
ora.testnode02.ons application ONLINE ONLINE testnode02
ora.testnode02.vip application ONLINE ONLINE testnode02
# Segundo, revisar el estado de todas las aplicaciones necesarias en los nodos, esto debe hacerse individualmente en cada nodo, la idea es ver que los procesos VIP,GSD, Listenes y ONS esten online en todos los nodos:
[oracle@testnode02 bin]$ srvctl status nodeapps -n testnode01
VIP is running on node: testnode01
GSD is running on node: testnode01
Listener is running on node: testnode01
ONS daemon is running on node: testnode01
[oracle@testnode02 bin]$ srvctl status nodeapps -n testnode02
VIP is running on node: testnode02
GSD is running on node: testnode02
Listener is running on node: testnode02
ONS daemon is running on node: testnode02
# Tercero, revisamos el estado de un servicio critico para el Rac, el ASM en ambos nodos...
[oracle@testnode02 bin]$ srvctl status asm -n testnode01
ASM instance +ASM1 is running on node testnode01.
[oracle@testnode02 bin]$ srvctl status asm -n testnode02
ASM instance +ASM2 is running on node testnode02.
# Cuarto, revisar el estado de las instancias de nuestra Base de Datos.....
[oracle@testnode02 bin]$ srvctl status database -d testdbrac
Instance testdbrac1 is running on node testnode01
Instance testdbrac2 is running on node testnode02
# Quinto, si tenemos servicios creados en nuestro rac debemos tambien validar su estado....
[oracle@testnode02 bin]$ srvctl status service -d testdbrac
Service appwsserv is running on instance(s) testdbrac2, testdbrac1
# Sexto, validar el estado del cluster en ambos nodos con el siguiente comando:
[oracle@testnode02 bin]$ crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
[oracle@testnode01 ~]$ crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
###
# Si toda la revisión anterior nos dió un buen estado de nuestros servicios en el rac, podemos hacer
# consultas al mismo para mas validaciones
###
# Validar las instancias, hostname y status de los node apps consultando la vista gv$instance
SQL> select instance_name, host_name, archiver, thread#, status
2 from gv$instance
3 /
INSTANCE_NAME HOST_NAME ARCHIVE THREAD# STATUS
-------------- --------------------- ------- -------- ------
testdbrac1 testnode01.mytest.env STARTED 1 OPEN
testdbrac2 testnode02.mytest.env STARTED 2 OPEN
# Validar la SGA(System Global Area) en cualquiera de los nodos (Ambos nodos tienen configuración identica)
SQL> show sga
Total System Global Area 608174080 bytes
Fixed Size 1220820 bytes
Variable Size 142610220 bytes
Database Buffers 457179136 bytes
Redo Buffers 7163904 bytes
# Listar todos los datafiles
SQL> select file_name, bytes/1024/1024
2 from dba_data_files
3 /
FILE_NAME BYTES/1024/1024
----------------------------------------------- ---------------
+ORADATA/testdbrac/datafile/system.259.620732719 500
+ORADATA/testdbrac/datafile/undotbs1.260.620732753 200
+ORADATA/testdbrac/datafile/sysaux.261.620732767 670
+ORADATA/testdbrac/datafile/example.263.620732791 150
+ORADATA/testdbrac/datafile/undotbs2.264.620732801 200
+ORADATA/testdbrac/datafile/users.265.620732817 5
6 rows selected.
#Obtener el estado de todos los grupos de disco y sus miembros
SQL> select group#, type, member, is_recovery_dest_file
2 from v$logfile
3 order by group#
4 /
GROUP# TYPE MEMBER IS_
------ ------- --------------------------------------------------- ---
1 ONLINE +ORADATA/testdbrac/onlinelog/group_1.257.620732695 NO
1 ONLINE +FLASH_RECO_AREA/testdbrac/onlinelog/group_1.257.620732699 YES
2 ONLINE +ORADATA/testdbrac/onlinelog/group_2.258.620732703 NO
2 ONLINE +FLASH_RECO_AREA/testdbrac/onlinelog/group_2.258.620732707 YES
3 ONLINE +ORADATA/testdbrac/onlinelog/group_3.266.620737527 NO
3 ONLINE +FLASH_RECO_AREA/testdbrac/onlinelog/group_3.259.620737533 YES
4 ONLINE +ORADATA/testdbrac/onlinelog/group_4.267.620737535 NO
4 ONLINE +FLASH_RECO_AREA/testdbrac/onlinelog/group_4.260.620737539 YES
# Consultar la vista v$asm_diskgroup
select group_number, name,allocation_unit_size alloc_unit_size,state,type,total_mb,usable_file_mb
from v$asm_diskgroup;
GROUP_NUMBER NAME ALLOC_UNIT_SIZE STATE TYPE TOTAL_MB USABLE_FILE_MB
------------ ------------------------------ --------------- ----------- ------ ---------- --------------
1 FLASH_RECO_AREA 1048576 CONNECTED EXTERN 10236 2781
2 ORADATA 1048576 CONNECTED NORMAL 20472 8132
# Consultar la vista v$asm_disk para listar los volumenes
select name, path, header_status, total_mb free_mb, trunc(bytes_read/1024/1024) read_mb, trunc(bytes_written/1024/1024) write_mb
from v$asm_disk;
NAME PATH HEADER_STATU FREE_MB READ_MB WRITE_MB
----- ---------- ------------ ---------- ---------- ----------
VOL1 ORCL:VOL1 MEMBER 10236 39617 15816
VOL2 ORCL:VOL2 MEMBER 10236 7424 15816
VOL3 ORCL:VOL3 MEMBER 10236 1123 13059
# Listar todos los datafiles en un solo comando
SQL> select name from v$datafile
2 union
3 select name from v$controlfile
4 union
5 select name from v$tempfile
6 union
7 select member from v$logfile
8 /
NAME
--------------------------------------------------------------------------------
+FLASH_RECO_AREA/testdbrac/controlfile/current.256.620732691
+FLASH_RECO_AREA/testdbrac/onlinelog/group_1.257.620732699
+FLASH_RECO_AREA/testdbrac/onlinelog/group_2.258.620732707
+FLASH_RECO_AREA/testdbrac/onlinelog/group_3.259.620737533
+FLASH_RECO_AREA/testdbrac/onlinelog/group_4.260.620737539
+ORADATA/testdbrac/controlfile/current.256.620732689
+ORADATA/testdbrac/datafile/example.263.620732791
+ORADATA/testdbrac/datafile/sysaux.261.620732767
+ORADATA/testdbrac/datafile/system.259.620732719
+ORADATA/testdbrac/datafile/undotbs1.260.620732753
+ORADATA/testdbrac/datafile/undotbs2.264.620732801
+ORADATA/testdbrac/datafile/users.265.620732817
+ORADATA/testdbrac/onlinelog/group_1.257.620732695
+ORADATA/testdbrac/onlinelog/group_2.258.620732703
+ORADATA/testdbrac/onlinelog/group_3.266.620737527
+ORADATA/testdbrac/onlinelog/group_4.267.620737535
+ORADATA/testdbrac/tempfile/temp.262.620732779
17 rows selected.
# Listar todos los Tablespaces en un solo comando
SQL> select tablespace_name, file_name
2 from dba_data_files
3 union
4 select tablespace_name, file_name
5 from dba_temp_files
6 /
TABLESPACE_NAME FILE_NAME
------------------ --------------------------------------------------------------------------------
EXAMPLE +ORADATA/testdbrac/datafile/example.263.620732791
SYSAUX +ORADATA/testdbrac/datafile/sysaux.261.620732767
SYSTEM +ORADATA/testdbrac/datafile/system.259.620732719
TEMP +ORADATA/testdbrac/tempfile/temp.262.620732779
UNDOTBS1 ` +ORADATA/testdbrac/datafile/undotbs1.260.620732753
UNDOTBS2 +ORADATA/testdbrac/datafile/undotbs2.264.620732801
USERS +ORADATA/testdbrac/datafile/users.265.620732817
7 rows selected.
# Consultar información Sobre los archivos de las instancias de ASM
SQL> select group_number, file_number, bytes/1024/1024/1024 GB, type, striped, modification_date
2 from v$asm_file
3 where TYPE != 'ARCHIVELOG'
4 /
GRP_NUM FILE_NUM GB TYPE STRIPE MODIFICAT
------- -------- -------- --------------- ------ ---------
1 256 .01 CONTROLFILE FINE 04-MAY-07
1 257 .05 ONLINELOG FINE 25-MAY-07
1 258 .05 ONLINELOG FINE 24-MAY-07
1 259 .05 ONLINELOG FINE 24-MAY-07
1 260 .05 ONLINELOG FINE 25-MAY-07
1 261 .00 PARAMETERFILE COARSE 24-MAY-07
2 256 .01 CONTROLFILE FINE 04-MAY-07
2 257 .05 ONLINELOG FINE 25-MAY-07
2 258 .05 ONLINELOG FINE 24-MAY-07
2 259 .49 DATAFILE COARSE 04-MAY-07
2 260 .20 DATAFILE COARSE 04-MAY-07
2 261 .65 DATAFILE COARSE 23-MAY-07
2 262 .03 TEMPFILE COARSE 04-MAY-07
2 263 .15 DATAFILE COARSE 04-MAY-07
2 264 .20 DATAFILE COARSE 04-MAY-07
2 265 .00 DATAFILE COARSE 04-MAY-07
2 266 .05 ONLINELOG FINE 24-MAY-07
2 267 .05 ONLINELOG FINE 25-MAY-07
18 rows selected.
# Consultar información mas detallada sobre los archivos de las instancias ASM
SQL> select group_number, file_number, compound_index, incarnation, block_size, bytes/1024/1024/1024 GB, type, striped,
2 creation_date, modification_date
3 from v$asm_file
4 where TYPE != 'ARCHIVELOG'
5 /
GRP_NUM FILE_NUM COMPOUND_INDEX INCARNATION BLOCK_SIZE GB TYPE STRIPE CREATION_ MODIFICAT
------- -------- -------------- ----------- ---------- -------- --------------- ------ --------- ---------
1 256 16777472 620732691 16384 .01 CONTROLFILE FINE 24-APR-07 04-MAY-07
1 257 16777473 620732699 512 .05 ONLINELOG FINE 24-APR-07 25-MAY-07
1 258 16777474 620732707 512 .05 ONLINELOG FINE 24-APR-07 24-MAY-07
1 259 16777475 620737533 512 .05 ONLINELOG FINE 24-APR-07 24-MAY-07
1 260 16777476 620737539 512 .05 ONLINELOG FINE 24-APR-07 25-MAY-07
1 261 16777477 620737547 512 .00 PARAMETERFILE COARSE 24-APR-07 24-MAY-07
2 256 33554688 620732689 16384 .01 CONTROLFILE FINE 24-APR-07 04-MAY-07
2 257 33554689 620732695 512 .05 ONLINELOG FINE 24-APR-07 25-MAY-07
2 258 33554690 620732703 512 .05 ONLINELOG FINE 24-APR-07 24-MAY-07
2 259 33554691 620732719 8192 .49 DATAFILE COARSE 24-APR-07 04-MAY-07
2 260 33554692 620732753 8192 .20 DATAFILE COARSE 24-APR-07 04-MAY-07
2 261 33554693 620732767 8192 .65 DATAFILE COARSE 24-APR-07 23-MAY-07
2 262 33554694 620732779 8192 .03 TEMPFILE COARSE 24-APR-07 04-MAY-07
2 263 33554695 620732791 8192 .15 DATAFILE COARSE 24-APR-07 04-MAY-07
2 264 33554696 620732801 8192 .20 DATAFILE COARSE 24-APR-07 04-MAY-07
2 265 33554697 620732817 8192 .00 DATAFILE COARSE 24-APR-07 04-MAY-07
2 266 33554698 620737527 512 .05 ONLINELOG FINE 24-APR-07 24-MAY-07
2 267 33554699 620737535 512 .05 ONLINELOG FINE 24-APR-07 25-MAY-07
18 rows selected.
Suscribirse a:
Entradas (Atom)