Diferencia entre revisiones de «Mapuche»
(→Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche) |
(→Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche) |
||
Línea 350: | Línea 350: | ||
*apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre) | *apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre) | ||
+ | |||
+ | *apex_usuarios_perfil_datos: Perfiles de Datos |
Revisión del 17:15 9 oct 2013
Instalación de aplicaciones para Mapuche
Primeras pruebas con el Sistema Mapuche
Contenido
- 1 2013/04
- 2 Migracion Mapuche
- 3 Instalacion Mapuche
- 4 Mapuche escritorio
- 5 Pruebas Mapuche
- 5.1 Procesos PosLiquidacion
- 5.1.1 Sicoss
- 5.1.2 Sicore
- 5.1.3 Generacion Recibos
- 5.1.4 Acreditacion
- 5.1.5 Apoyo banco
- 5.1.6 Salida de terceros (Dasou, Gremios, Seguro de vida, etc)
- 5.1.7 Certificacion de servicios prestados por dependencia (mensualmente)
- 5.1.8 Pilaga
- 5.1.9 O3
- 5.1.10 Rhun
- 5.1.11 Relacion con el sistema (SIFLA) de Andrea
- 5.2 Procesos que van desde la Concentrac. hasta Liquidacion
- 5.1 Procesos PosLiquidacion
- 6 Bugs encontrados en Mapuche
- 7 Trazabilidad Base de Datos Pampa-Mapuche
- 8 Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche
2013/04
Caracteristicas del servidor USO EXCLISVO -Cpu Intel(R) Core(TM) i5 CPU 750 @ 2.67GHz -Memoria 8GB ddr3 ( 1333 MHz) -Disco del sistema operativo de 160GB sata -Discos del raid 1+0 4 discos sata de 640 gb -Datos de la instalacion de mapuche y postgres: -sistema mapche en disco sata (junto con sistem aoperativo) base de postgres en otros discos con con raid 1+0 sata (espejado+velocidad) con log de la base en otro disco (el del sistema mapuche)
Sistema operativo -Debian 5.0.8 -Version de apache 2.2.9 -Version de php 5.2.6-1 -Version de postgres 8.3.13
Version Mapuche -1.18.0 Mes Año Pampa - 201209
Migracion Mapuche
Pasos:
1- Reindexacion archivo cuentas Bancarias
Consiste en reindexar el archivo dh92.dat, desde el modulo utilidades de Pampa ir el menu Procesos-->Restaurar Archivos. Siempre hacer esto antes de generar CVS.
2- Arreglar en Pampa errores de Migracion del Mes anterior
Consiste en tomar los errores de la tabla migracion_borrados del esquema public en postgres en Mapuche del mes anterior y en base al detalle del error entrar a Pervasive en la coneccion con el Pampa central del mes actual y ejecutar consultas sql y update para modificar. Entrar a postgres desde 200.16.30.7/Pg
Consulta1: Para saber en que tablas hubo errores
select distinct tabla from migracion_borrados
Consulta2: Para arreglar los errores de cada tabla que tiro error (siempre escribir el nombre de la tabla en minuscula)
select* from migracion_borrados where tabla='dha1'
3- Revision Errores de Generacion CVS Pampa
Consiste en revisar el archivo exporta.txt (creado al generar CVS) y analizar lor errores que genera.
4- Generacion cvs Pampa
5- Ejecutar scripts de migracion
- Ejecutar Migracion
- Ejecutar Tablas
- Ejecutar Copy
- Ejecutar Funcion de Migracion
- Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
Servidores
- 192.168.10.137 (servidor de computos 2do piso). Datos para entrar a administrar el servidor--> passw: *******
- 200.16.30.7 (servidor de computos en el 6to piso).Datos para entrar a administrar el servidor--> passw: *******
Como ingresar a Mapuche
Mapuche produccion
En un navegador poner http://<ip_servidor>/siu/mapuche/
- Usuario de Mapuche: mapuche
- Passw de Mapuche: *******
Mapuche migracion
En un navegador poner http://<ip_servidor>/siu_migracion/mapuche/
- Usuario de Mapuche: mapuche
- Passw de Mapuche: *******
Generar los CVS
Antes de generar
- Ir al modulo de Utilidades y restaurar el archivo dh92, porque tiene los identificadores unicos en 0, esto los autonumera.
- Crear un archivo dh41.cvs en blanco y pisar el que tiene datos hasta que se eliminen los registros de clave duplicada en dh41.
- Crear un archivo dho01.cvs en blanco y pisar el que esta hasta que se rellene los valores nulos del campo codc_regio(tercera columna), por ejemplo con un valor "000".
Controlar via consulta Pervasive que no existan estos errores:
- dh23: Controlar que no haya valores nulos en el campo codn_conce
SELECT * FROM "DH23" where codn_conce IS NULL
- spu_vnci: Controlar que no exista ningun valor nulo en campo desc_abrev.
SELECT * FROM "spu_vnci" where desc_abrev IS NULL
Generar CVS
Generar los CVS
Proceso de Migracion
Generar y copiar los archivos CVS
- Copiar via explorador de archivos los CVS generados a T:\MAPUCHE\CVS\
Para los archivos que dan error al importar como dh41, borrar el dh41.cvs y crear un nuevo archivo con ese nombre pero vacio en T:\MAPUCHE\CVS\.
- Entrar x ftp al servidor donde trabajamos y de alli copiar los CVS generados a a la carpeta /lmanjarres/mapuche/POSTGRES/
Preparar el entorno y migrar
Crear la Base Crear usuario Crear el esquema siu
Ejecutar scripts
Migracion completa
- Ejecutar Migracion
- Ejecutar Tablas
- Ejecutar Copy
- Ejecutar Funcion de Migracion
- Ejecutar Indices: psql siu –f Pampa_Indices.sql –o Migración_Resultados_paso4.txt –U pampa 2>err_paso4.txt
Errores
Errores al ejecutar Migracion
Errores generados hasta correr el PampaCoy.sql, antes de la funcion de la migracion
- dh23:
linea 36550, nro_liqui=846 tiene valor nulo en el campo codn_conce linea 37352, nro_liqui=869 tiene valor nulo en el campo codn_conce
- dh92: Clave duplicada, regenerar el archivo via modulo de Utilidades para regenerar el campo clave que es un autonumerico.
- do01: Hay valores nulos en el campo codc_regio (tercer campo, reemplazar x "000")
- dh41: Claves duplicadas (legajo, mes ano)
- spu_vnci: Valor nulo en campo desc_abrev, linea 1
- spu_ipco: Valor nulo para campo ano_retro
Errores de tabla migracion_borrados: datos del 09/2012 a la fecha 29/11/2012
- dh16
El error que tira en general es que hay un concepto que esta en dh16 y no esta en dh12
SELECT * FROM "DH16" where codn_conce not in (select codn_conce from dh12)
SOLUCION: borrar de dh16 los conceptos que no estan en dh12
- dh23
El error que tira en general es que hay un concepto que esta en dh23 y no esta en dh12
SELECT * FROM "DH23" where codn_conce not in (select codn_conce from dh12)
SOLUCION: borrar de dh23 los conceptos que no estan en dh12
- dha1
Codigo de provincia+codigo postal+codigo repetidos tiene que estar en DHA4 (dha1::codigo_repetidos codigo_provincia codigo_postal -> dha4::codigo_repetidos codigo_provincia codigo_postal)
SOLUCION Los errores saltan para cuando en dha1 el codigo_provincia='XX',codigo_postal=5000,codigo_repetidos='00', pero estan esos codigos en la tabla dha4. NO PUDIMOS DETECTAR COMO ARREGLAR EL ERROR
- dl15
Error: dl15::nro_licencia -> dh05::nro_licencia (permite nulo: S)
El campo dl15.nro_licencia es un identificador unico. En los campos que tienen error es porque dl15.nro_licencia=0. Son los casos que se hace el calculo de LAO via Pampa, que genera una entrada en DL15 pero no genera bien ese campo.
SELECT * FROM "Dl15" where periodo=2011 and nro_licencia not in (select nro_licencia from dh05)
SELECT max(nro_licencia) FROM "Dl15"
SELECT * FROM "DL15" where nro_legajo=29978
SELECT * FROM "DL15" where tipo_mov='CAL' AND NRO_LICENCIA IN (SELECT NRO_LICENCIA FROM DH05) ORDER BY NRO_LEGAJO
SOLUCION1= Aun no se si es una solucion valida (lo que hice fue poner algun nro_licencia ya existente en dh05)
SELECT fecha_mov,fecha_hasta,periodo,nro_liquidacion,nro_licencia FROM dl15 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
update dl15 set nro_licencia=139457 where nro_licencia=0 and tipo_mov='CAL' and observaciones='AJUSTE'
SOLUCION2=Tengo que probar si con esta solucion no salta el error luego de hecha la migracion. Pareceria ser la solucion mas viable porque en teoria cuando se hace el calculo de LAO se genera un registro en dl15 con el nro_licencia en nulo
update "DL15" set nro_licencia=null where nro_licencia=0
- dh06
ERROR: Hay codigo de titulo que estan en dh06 pero no estan en la tabla maestra de titulo dh33
SOLUCION: Borrar en dh06 los titulos esos invalidos (entrando al Pampa y borrar a mano). Los legajos son:
-28354, codc_titul=TSD -48520, codc_titul=LMAT
SELECT * FROM "DH06" where codc_titul not in (select codc_titul from dh33)
delete FROM "DH06" where codc_titul not in (select codc_titul from dh33)
ERROR: Hay codigo de entidad otorgante que estan en dh06 pero no estan en la tabla maestra de titulo dh34
SELECT * FROM "DH06" where codc_entot not in (select codc_entot from dh34) order by codc_entot
SOLUCION: Borrar via Pervasive:
delete FROM "DH06" where codc_entot not in (select codc_entot from dh34)
- dm02
select * from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
delete from dm02 where nroestudrealizad not in (select nroestudrealizado from dh06)
- ona_ofer
ERROR: Hay titulos (idtitulo) en tabla ona_ofer que no estan en tabla ona_titu
El error salta para cuando idtitulo=167 o idtitulo=175. Son 9 filas en tabla ona_ofer
SOLUCION: -Mandar pedido al SIU para que arregle las tablas (porque no se puede acceder a esta tablas via Pervasive ni via Sistema Pampa) -Solucion provisoria: borrar esos registros en el txt de los cvs generados.
- spu_carc: El cvs de esta tabla borrarlo porque ya no se usa.
EL 03/12/2012 LAS UNICAS TABLAS DEL PAMPA RHUN 10/2012 QUE SE ENCONTRARON CON ERROR Y QUE FUERON ACTUALIZADAS SON: DH06, DM02 Y DH92 QUE SE RESTAURO EL ARCHIVO DESDE MODULO DE UTILIDADES.
Se comienza la generacion de CVS pampa rhun 10/2012 a las 10:27 am. Termina la generacion de CVS pampa rhun 10/2012 a las 13:50 am.
Instalacion Mapuche
Proceso de Instalacion
- Copiar el instalador de mapuche al root del servidor (/var/www) y descomprimirlo o copiar la carpeta ya descomprimida.
- Ejecutar el instalador
- Si la instalacion es completa seguir todos los pasos.
Errores al Instalar
Version Mapuche 1.12.1
- dh05: valores nulos en campo fec_desde
Detectar el error: select nro_licencia,nro_legaj,nro_cargo, fec_desde, fec_hasta FROM pampa.dh05 where fec_desde is NULL
Corregir el error via postgres: delete FROM pampa.dh05 where fec_desde is NULL
Mapuche escritorio
Esta instalado en una Pc de escritorio Para poder entrar con ese usuario o con cualquiera, hacen falta agregar permisos
Pruebas Mapuche
Procesos PosLiquidacion
Necesito generar de nuevo los cvs una vez cerrado el pampa
Sicoss
Generacion de Sicoss
#ingresamos a mapuche LINK #
Configuración tope
#
Archivos Generados
#
Funcionamiento
Prueba en hecha en junio 2011 con version Mapuche 1.12.1
Encontramos que no permite generar Sicoss para un periodo en particular como en el Pampa que te permite poner mes y año (en caso de no poner nada se genera todo). El proceso de generacion Sicoss genera todo (mes actual y retroactivos en el mismo proceso), tira una ventana de previsualizacion de resultados y luego permite exportar los datos (los exporta en un txt para cada mes retroactivo). Al generar los datos de retroactivos, toma los ultimos topes, o sea los que estan en la parte de configuracion de Mapuche: Configuracion-->Impositivos-->Parametros. No tiene para cargar los topes por mes, si se quiere esto hay que cargar los topes del mes que se quiere generar, generar (te genera todos los meses), exportar los archivos (genera un archivo por mes) y quedarme solo con los meses correspondientes al tope cargado. Luego ir a configuracion para cambiar de nuevo los topes al mes que queremos generar y hacer todo el proceso de nuevo. Asi sucesivamente, hasta que genere todos los meses retroactivos que quiera generar.
Pedidos SIU
#Pedimos al siu que mejoren este proceso para que hagan los topes por mes retroactivo. http://comunidad.siu.edu.ar/index.php?topic=3433.msg13226#new
#Pedimos al siu que se fijen porque la generacion de Sicoss para todos los legajos se clava en Mapuche. http://comunidad.siu.edu.ar/index.php?topic=3521.0
#Pedimos al siu que nos que nos expliquen como hacen el calculo de Sicoss, citamos como ejemplo el legajo de Cdor. Font http://comunidad.siu.edu.ar/index.php?topic=3529.0
Datos
No tenemos datos de errores producidos para probar. Juan deberia informarnos esto.
Sicore
Funcionamiento
Datos
Generacion Recibos
Acreditacion
Apoyo banco
Salida de terceros (Dasou, Gremios, Seguro de vida, etc)
Certificacion de servicios prestados por dependencia (mensualmente)
Pilaga
O3
Rhun
Relacion con el sistema (SIFLA) de Andrea
Procesos que van desde la Concentrac. hasta Liquidacion
Liquidacion en Pampa esritorio
Funcionamiento
Datos
Calculo Cuarta Categoria
Funcionamiento
Probar en Pampa escritorio
Importacion de Terceros
Incorporac. de ctas. bancarias y pedido de ctas. nvas.
Listado de Licencias sin goce para el area de licencias
Listado de incompatibilidades
Bugs encontrados en Mapuche
- En Actualización-->Definicion de Liquidacion
El error es un query, en ese query se muestra un nro de liquidac. que tiene descipc. vacia. No anda si hay alguna liquidacion con descripcion vacia (no se si sera solo cuando la liquidacion esta abierta). Lo solucione agregando la descripcion al nro de liquidacion que me salto el error.
- En Servicios-->Acreditacion-->Generar
Cuando termina el proceso, hay un titulo Exportación para bancos, bno ahi el boton Volver no funciona
- Al hacer Generación de Acreditación, me da error en Reportes Remanentes (genera un pdf en otra ventana pero se abre en blanco)
- En Actualizacion-->Legajo al querer hacer una busqueda por CUIL de la persona, no funciona ese filtro ya que no me trae ningun dato.
Trazabilidad Base de Datos Pampa-Mapuche
DH05
PAMPA MAPUCHE nro_licenc ---------------> nro_licencia nro_legaj nro_legaj nro_cargo nro_cargo fec_desde fec_desde fec_hasta fec_hasta nrovarlice ---------------> nrovarlicencia
DL02
PAMPA MAPUCHE nrovalice ---------------> nrovarlicencia codn_tipo_ ---------------> codn_tipo_lic
Tablas de manejo de usuarios y perfiles en Base de Datos Mapuche
- apex_usuarios: Datos proppios de cada usuario
- apex_usuario_grupo_acc: Perfiles Funcionales
- apex_usuario_grupo_acc_item: Permisos por Perfil Funcional
- apex_usuario_grupo_acc_miembros: Perfiles Funcional anidados (perfiles funcionales que pertenecen a un perfil funcional padre)
- apex_usuarios_perfil_datos: Perfiles de Datos