Buenas noders, como me han pedido (bueno solo me lo pidió @Anon xdd) os voy a comentar mi experiencia en la FCT (formación en centro de trabajo) , tambien os contaré las de otro compañeros para que veais que las experiencias son muy variadas.
Yo entré en una multinacional, pero hay otros compañeros que entraron en otros sitios como en una tienda de barrio, por eso depende mucho la experiencia.
Estuvimos unas 2/3 semanas aprendiendo una tecnología llamada Splunk, es como Grafana pero más tocho, de la cual puedo hacer otro post explicando mas sobre ella y algun que otro tutorial desde mi experiencia. Splunk sirve para monitorizar y analizar datos a gran escala, muy gran escala. Cuando ya aprendimos mas o menos sobre ello nos mandaron hacer una infraestructura bastante compleja que constaba con varios servidores, si este post tiene apoyo haré otro explicando todo esto desde cero .
Antes de entrar en materia, el proyecto en el que estaba era de Airbus, lo cual implicaba unas cuantas trabas que contaré más tarde en el post. Después de estas semanas cada uno entró a su proyecto, yo entré a el equipo de SCM (Software Configuration Management), mis funciones allí eran variadas, hacía tickets (por desgracia to el mundo tenia que hacer esa mierda), administración de usuarios, monitorización de servidores, scripting en bash/perl/python, improvisar el tiempo de scripts si era posible, etc. Cada semana recibía un mensaje en el cual veía que tareas tenía asignadas, estas tareas eran más importantes que los tickets, pero los tickets no debajan de ser importante, una tarea que tuve que hacer fue un script que hacía lo siguiente:
- Tenía un directorio con logs diarios, lo que tenía que hacer el script era extraer cierta información de los ficheros logs, consultar una base de datos de otro server, luego esta información formatearla para un .csv y mandarla por correo. En la teoría no parece tan complicado, no? Ahora tocaba pasar a la práctica.
1. Los ficheros logs tenían la siguiente forma "NombreAplicacion_dia_mes_año.log", no todos los meses tienen el mismo número de días, sería fácil controlar eso, pero está el tema de los años bisiestos . Entre uno de mis jefes y yo lo estuvimos sacando
2. Una vez que recorrer el directorio iba bien, tocaba buscar la info dentro de cada log, tenía que buscar la última conexión activa de cada usuario en esos 6 meses (no fue fácil), para mejorar la cosa no todo estaba en el log, tenía que hacer una consulta a una base de datos de otro server, más tiempo de proceso.
3. Cuando ya tenía todo hecho tocaba la parte del correo que no era tan compleja
Ese script se vendió por 3.000€, si, 3.000€. Tuve que hacer otro similar para otra aplicación, pero ya tenía la parte complicada hecha y toda la info estaba en el log, solo tenia que formatear la salida, este tambien se vendió por lo mismo.
6.000€ en una semana hice ganar a la empresa, para ellos es calderilla obvio, de eso no vi ninguna comisión porque no estaba contratado
Yo creo que con esto está bien por ahora, haré una segunda parte si veo que os mola.
Yo entré en una multinacional, pero hay otros compañeros que entraron en otros sitios como en una tienda de barrio, por eso depende mucho la experiencia.
Estuvimos unas 2/3 semanas aprendiendo una tecnología llamada Splunk, es como Grafana pero más tocho, de la cual puedo hacer otro post explicando mas sobre ella y algun que otro tutorial desde mi experiencia. Splunk sirve para monitorizar y analizar datos a gran escala, muy gran escala. Cuando ya aprendimos mas o menos sobre ello nos mandaron hacer una infraestructura bastante compleja que constaba con varios servidores, si este post tiene apoyo haré otro explicando todo esto desde cero .
Antes de entrar en materia, el proyecto en el que estaba era de Airbus, lo cual implicaba unas cuantas trabas que contaré más tarde en el post. Después de estas semanas cada uno entró a su proyecto, yo entré a el equipo de SCM (Software Configuration Management), mis funciones allí eran variadas, hacía tickets (por desgracia to el mundo tenia que hacer esa mierda), administración de usuarios, monitorización de servidores, scripting en bash/perl/python, improvisar el tiempo de scripts si era posible, etc. Cada semana recibía un mensaje en el cual veía que tareas tenía asignadas, estas tareas eran más importantes que los tickets, pero los tickets no debajan de ser importante, una tarea que tuve que hacer fue un script que hacía lo siguiente:
- Tenía un directorio con logs diarios, lo que tenía que hacer el script era extraer cierta información de los ficheros logs, consultar una base de datos de otro server, luego esta información formatearla para un .csv y mandarla por correo. En la teoría no parece tan complicado, no? Ahora tocaba pasar a la práctica.
1. Los ficheros logs tenían la siguiente forma "NombreAplicacion_dia_mes_año.log", no todos los meses tienen el mismo número de días, sería fácil controlar eso, pero está el tema de los años bisiestos . Entre uno de mis jefes y yo lo estuvimos sacando
2. Una vez que recorrer el directorio iba bien, tocaba buscar la info dentro de cada log, tenía que buscar la última conexión activa de cada usuario en esos 6 meses (no fue fácil), para mejorar la cosa no todo estaba en el log, tenía que hacer una consulta a una base de datos de otro server, más tiempo de proceso.
3. Cuando ya tenía todo hecho tocaba la parte del correo que no era tan compleja
Ese script se vendió por 3.000€, si, 3.000€. Tuve que hacer otro similar para otra aplicación, pero ya tenía la parte complicada hecha y toda la info estaba en el log, solo tenia que formatear la salida, este tambien se vendió por lo mismo.
6.000€ en una semana hice ganar a la empresa, para ellos es calderilla obvio, de eso no vi ninguna comisión porque no estaba contratado
Yo creo que con esto está bien por ahora, haré una segunda parte si veo que os mola.