BUSCAMOS TALENTOS

Conscientes de los cambios que están por venir, KEEDIO apuesta por el talento. Uno de los objetivos de la empresa consiste en reclutar y retener a los más brillantes talentos del sector Big Data y Cloud Computing para crear equipos de trabajo de carácter multinacional que tengan una visión abierta y a la vez realista del mundo actual, que sean creativos y que convivan en un ambiente de trabajo colaborativo.

Buscamos Analistas Desarrolladores Spark

Si tienes capacidad analítica y te gustan los retos. Si estás enfocado a las tecnologías Big Data, y tienes experiencia con Spark, en KEEDIO tienes tu sitio para desarrollarte profesionalmente.

 

Habilidades y Experiencia

Actualmente estamos creciendo y buscamos profesionales con al menos 2 años de experiencia de desarrollo y 1 año con Spark en Java y Scala.

 

Se requiere:
· Experiencia en proyectos Big Data
· Lenguajes Java y Scala· Spark
· Control de versiones y calidad (Github, Jenkins, Sonar)
· Bases de datos SQL y NoSQL
· Hibernate
· Spring
· Maven
Deseable/Valorable:
· Otros lenguajes como Python, Javascript
· AngularJS y/or NodeJS
· Big Data: Flink, Storm, Flume, etc…
· Cloud: Amazon, Azure, Openstack, etc…
· Sistemas
· Metodologías ágiles

 

Buscamos Desarrollador senior Java J2EE

Si tienes capacidad analítica y te gustan los retos. Si estás enfocado a las tecnologías Big Data, y tienes experiencia con J2EE, en KEEDIO tienes tu sitio para desarrollarte profesionalmente.

 

Habilidades y experiencia

Estamos buscando ingenieros expertos en el desarrollo de aplicaciones empresariales Java. El candidato, además de tener conocimiento demostrable con Java, tendrá que tener experiencia con el ciclo de vida de las aplicaciones, conocimiento de herramientas de integración continua y pipeline de despliegues automatizados.

 

Se requiere:
  • Grado en Informática o Ingeniería.
  • Mínimo 5 años de experiencia profesional en desarrollo de aplicaciones Java empresariales con J2EE.
  • Mínimo 2 años de experiencia profesional en desarrollo de aplicaciones backend con NodeJS.
  • Sistemas de Control de versiones GIT y buenas prácticas de gestión del ciclo de vida del software.
  • Desarrollo de pipelines de integración continua con Jenkins, Sonar, Artifactory y herramientas de testing automatizado.
  • Experiencia con Spring Framework: o Spring core o Spring MVC o Spring JDBC o Spring Data
  • Frameworks de acceso a datos sobre BBDD relacionales: Hibernate, Spring JDBC
  • Construcción de proyectos con Maven, experiencia con configuraciones complejas de Apache Maven.
  • Despliegue de aplicaciones en entornos conteinerizados con Docker.
  • Experiencia de desarrollo con metodologías ágiles.
Deseable/Valorable:
  • Sistemas de almacenamiento NoSQL: Couchbase, Redis, MongoDB.
  • Experiencia con Red Hat OpenShift Container Platform.
  • Desarrollo con Scala y Python.
  • Construcción de proyectos Scala con SBT.
  • Desarrollo de frontend con AngularJS
  • Certificación OCJP (Oracle Certified Java Professional)

Buscamos desarrolladores Scala

Si estás enfocado a las tecnologías Big Data y eres un desarrollador Scala, en KEEDIO tienes tu sitio para desarrollarte profesionalmente.

 

 

Se requiere:
  • Grado en Informática o Ingeniería.
  • Fuertes habilidades en programación, especialmente en Python, Scala, Java o un lenguaje similar.
  • Experiencia en GIT y github.com. Que esté acostumbrado a revisar código fuente de PRs. Buenas prácticas de integración continua (utilizando Jenkins pipelines).
  • Metodologías Ágiles.
  • Experiencia con Spark para el procesado batch. Conocimientos de diferentes formatos de archivos Big Data (AVRO, parquet, etc.)
  • Experiencia con servicios de almacenamiento en la nube como S3 o Azure Blob Storage.
  • Conocimientos de herramientas tradicionales de Big Data (mapReduce, Hadoop, Pig, Hive, Impala, etc.)
  • Conocimientos de SQL a nivel usuario.
Deseable/Valorable:
  • Conocimiento de herramientas de datos ETL como NiFi o Pentaho.
  • Conocimientos de sistemas en la nube: Windows Azure, Amazon WS.
  • Experiencia con sistemas de streaming, como Kafka.
  • Conocimientos de herramientas DevOps como Ansible, Puppet, etc.
  • Experiencia con bases de datos NoSQL, como Couchbase, HBase, Cassandra o MongoDB.
  • Experiencia con toolkits de Machine Learning como Mahout, SparkML o H2O.

 

Buscamos ingenieros de sistemas Linux

Si eres un ingeniero de sistemas Linux y estás enfocado a tecnologías Big Data, en KEEDIO tienes tu sitio para desarrollarte profesionalmente.

 

Se requiere:
  • Experiencia en Clouds públicos.
  • Experiencia demostrable en tecnologías DevOps de automatización y despliegue (Puppet y Ansible)
  • Experiencia en herramientas de control de versiones.
  • Conocimientos en scripting.
  • Experiencia en sistemas Linux/Unix.
  • Conocimientos de networking.
  • Experiencia en mantenimiento y gestión de entornos productivos y no productivos.
Deseable/Valorable:
  • Conocimientos en tecnologías Red Hat (OpenStack y/o OpenShift)
  • Conocimientos en plataformas y entornos Big Data.
  • Conocimientos en seguridad.

Buscamos ingenieros de sistemas senior cloud Azure

Si eres un apasionado de las tecnologías de nube, KEEDIO es el lugar adecuado para unirse.

Habilidades y experiencia

Estamos buscando ingenieros de sistema Cloud con al menos dos años de experiencia con Microsoft Azure. Este puesto requiere un candidato para interactuar con múltiples equipos técnicos, arquitectos, agentes de seguridad, administradores y usuarios de negocios; Revisar y documentar las cargas de trabajo, dependencias del sistema y los requisitos de negocio; Mapear las cargas de trabajo a las capacidades de Microsoft Azure para Clouds públicos, privados e híbridos.

 

 

Se requiere:
  • Diseñar y configurar Azure Virtual Networks (VNets), subredes, la configuración de redes Azure, bloques de direcciones DHCP, configuraciones DNS, políticas de seguridad y enrutamiento.
  • Diseñar Network Security Groups (NSGs) para controlar el acceso de entrada y salida a las interfaces de red (NICs), máquinas virtuales y subredes.
  • Implementación de máquinas virtuales Azure IaaS (VM IaaS) y servicios en la nube (PaaS role instances) en VNets seguras y subredes.
  • La exposición de máquinas virtuales y servicios en la nube en los VNets a Internet utilizando Azure External Load Balancer y Application Gateway.
  • Implementación de Azure Active Directory para inicio de sesión único, autenticación, autorización y control de acceso basado en roles Azure (RBAC).
  • Implementación de arquitecturas de nube híbridas para incluir recursos en las instalaciones, redes, seguridad, arquitecturas SaaS, IaaS y PaaS.
  • Conocimiento de Microsoft Azure ExpressRoute.
Deseable/Valorable:
  • Experiencia con Azure Key Vault
  • Experiencia con diferentes soluciones Azure de almacenamientos de datos: Azure SQL Server, Document DB, Blob Storage.
  • Automatización en implementación Aure utilizando PowerShell.
  • Azure Container Service.

 

Buscamos Consultor A.T.

Habilidades y experiencia

KEEDIO está buscando un consultor con mínimo 4 años de experiencia en el uso de cloud públicos (AWS, Azure). El candidato debe poder demostrar sus conocimientos acerca de las problemáticas inherentes a los entornos cloud, debe conocer las distintas herramientas proporcionadas por los distintos proveedores para el despliegue automatizado de infraestructuras complejas.

Se requiere:
  • Experiencia en Clouds públicos.
  • Experiencia demostrable en tecnologías DevOps de automatización y despliegue (Puppet y Ansible)
  • Experiencia en herramientas de control de versiones.
  • Conocimientos en scripting.
  • Experiencia en sistemas Linux/Unix.
  • Conocimientos de networking.
  • Experiencia en mantenimiento y gestión de entornos productivos y no productivos.
Deseable/Valorable:
  • Conocimientos en tecnologías Red Hat (OpenStack y/o OpenShift)
  • Conocimientos en plataformas y entornos Big Data.
  • Valorable experiencia con sistemas de monitorización (Zabbix, Nagios, AppDynamics).

Buscamos Ingeniero de sistemas senior Big Data

Habilidades y experiencia

KEEDIO está buscando un ingeniero de sistemas Big Data con mínimo 4 años de experiencia en el despliegue, configuración y fine tuning de las principales distribuciones de Hadoop. El candidato tendrá que tener un profundo conocimiento de las herramientas que componen dichas distribuciones, y de la integración con directorios de usuarios externos y el enforcing de las reglas de seguridad a todos los niveles.

Se requiere:
  • Grado en Informática o Ingeniería.
  • Experiencias en uso de cloud privados (Red Hat OpenStack y/o VMWare)
  • Conocimiento de la problemática inherente a los sistemas distribuidos.
  • Conocimiento de distribuciones Big Data • Experiencia demostrable en despliegue y fine tuning de distribuciones Big Data Cloudera y Hortonworks.
  • Conocimiento funcional de los principales servicios en distribuciones Cloudera y Hortonworks.
  • Capacidad de comparar las distintas herramientas presentes en las dos distribuciones.
  • Experiencia en hardening en entornos Big Data • Integración con sistemas de autenticación/autorización
  • Fine tuning de los permisos a todos los niveles de la plataforma
  • Comprensión de las diferencias entre los mecanismos/herramientas de seguridad en Cloudera/Hortonworks.
  • Automatización de despliegues con Ansible.
  • Scripting en Python y Bash.
Deseable/Valorable:
  • Experiencia en cloud privados (Red Hat y VMWare).
    o tipos de almacenamiento
    o networking virtualizado
  • Certificación Cloudera Administrator ó HDPCA (Hortonworks HDP Certified Administrator)

Buscamos Desarrollador senior Big Data (Perfil 1)

Habilidades y experiencia

KEEDIO está buscando un desarrollador Big Data con mínimo 5 años de experiencia de desarrollo con Java y Scala. El candidato, además, debe tener experiencia demostrable en el desarrollo de trabajos batch y streaming con Apache Spark y un profundo conocimiento de la arquitectura de las distintas distribuciones de Hadoop y de las herramientas que componen el ecosistema Hadoop.

Se requiere:
  • Grado en Informática o Ingeniería.
  • Experiencia de trabajo en cloud públicos y privados.
  • Mínimo 5 años de experiencia de desarrollo en Scala, Python y Java.
  • Conocimiento de la problemática inherente a los sistemas distribuidos.
  • Conocimiento de distribuciones Big Data:
    o Conocimiento funcional de los principales servicios en distribuciones Cloudera y Hortonworks.
    o Capacidad de comparar las distintas herramientas presentes en las dos distribuciones.
  • Mínimo 3 años de experiencia desarrollando con Apache Spark:
    o Creación de trabajos de procesamiento Batch y Streaming
    o Conocimiento de técnicas de optimización de job Spark
  • Experiencia con Apache Hive y Cloudera Impala
  • Experiencia en el desarrollo de queries SQL complejas.
  • Conocimiento de las diferencias entre los distintos sistemas de procesamiento batch en ecosistema Hadoop.
  • Conocimiento de las diferencias entre distintos sistemas de procesamiento en streaming.
  • Experiencia de trabajo con GIT.
Deseable/Valorable:
  • Experiencia de desarrollo con metodologías ágiles.
  • Experiencia con herramienta de integración continua.
  • Experiencia con servicios de almacenamiento en la nube como S3 o Azure Blob Storage.
  • Experiencia con distintas herramientas de ingesta de datos:
    o Apache Flume
    o Apache NiFi
    o Apache Sqoop
  • Certificación HDPCD-Spark (Hortonworks Spark Developer) o Cloudera CCA Spark developer certification.

Buscamos Desarrollador senior Big Data (Perfil 2)

Habilidades y experiencia

KEEDIO está buscando un desarrollador Big Data con mínimo 5 años de experiencia en el desarrollo de aplicaciones con Java y Scala. El candidato, además, debe tener experiencia demostrable en el desarrollo de trabajos batch y streaming con Apache Spark y un profundo conocimiento de la arquitectura de las distintas distribuciones de Hadoop y de las herramientas que componen el ecosistema Hadoop.

Se requiere:
  • Grado en Informática o Ingeniería.
  • Experiencia de trabajo en entornos virtualizados.
  • Mínimo 5 años de experiencia de desarrollo en Scala y Java.
  • Mínimo 3 años de experiencia desarrollando con Apache Spark:
    o Creación de trabajos de procesamiento Batch y Streaming
    o Conocimiento de técnicas de optimización de job Spark
  • Experiencia en el uso de Apache Hive y Cloudera Impala.
  • Experiencia en el desarrollo de queries SQL complejas.
  • Experiencia de trabajo con GIT y buenas prácticas de gestión del ciclo de vida del código.
  • Experiencia con herramienta de integración continua.
Deseable/Valorable:
  • Experiencia de desarrollo con metodologías ágiles.
  • Experiencia con servicios de almacenamiento en la nube como S3 o Azure Blob Storage.
  • Experiencia con distintas herramientas de ingesta de datos:
    o Apache Flume
    o Apache NiFi
    o Apache Sqoop
  • Certificación HDPCD-Spark (Hortonworks Spark Developer) o Cloudera CCA Spark developer certification.

Buscamos Desarrollador junior Big Data

Habilidades y experiencia

KEEDIO está buscando un ingeniero de desarrollo Big Data con mínimo 1 año de experiencia en el desarrollo de trabajos batch y streaming con Apache Spark. Es deseable que el candidato tenga conocimiento de la estructura de las distintas distribuciones Big Data y de las herramientas del ecosistema Hadoop.

Se requiere:
  • Experiencia de trabajo en entornos virtualizados.
  • Mínimo 1 años de experiencia de desarrollo en Scala y Java.
  • Mínimo 1 años de experiencia desarrollando con Apache Spark:
  • Creación de trabajos de procesamiento Batch y Streaming
  • Conocimiento de técnicas de optimización de job Spark
  • Experiencia de trabajo con GIT.
Deseable/Valorable:
  • Experiencia en el uso de Apache Hive y Cloudera Impala.
  • Experiencia en el desarrollo de queries SQL complejas.
  • Experiencia con distintas herramientas de ingesta de datos:
    o Apache Flume
    o Apache NiFi
    o Apache Sqoop
  • Experiencia con herramienta de integración continua.
  • Experiencia de desarrollo con metodologías ágiles.

Buscamos Ingeniero de sistemas junior cloud Azure

Habilidades y experiencia

Estamos buscando ingenieros de sistema Cloud con mínimo 1 año de experiencia con Microsoft Azure. Este puesto requiere un candidato para interactuar con múltiples equipos técnicos, arquitectos, agentes de seguridad, administradores y usuarios de negocios; Revisar y documentar las cargas de trabajo, dependencias del sistema y los requisitos de negocio; Mapear las cargas de trabajo a las capacidades de Microsoft Azure para Clouds públicos, privados e híbridos.

Se requiere:
  • Implementación de máquinas virtuales Azure IaaS (VM IaaS) y servicios en la nube (PaaS role instances) en VNets seguras y subredes.
  • Capacidad para determinar cuando, para un cierto caso de uso, una solución gestionada es mejor que una sobre IaaS.
  • La exposición de máquinas virtuales y servicios en la nube en los VNets a Internet utilizando Load Balancer.
Deseable/Valorable:
  • Automatización en implementación Azure utilizando PowerShell.
  • Diseñar y configurar Azure Virtual Networks (VNets), subredes, la configuración de redes Azure, bloques de direcciones DHCP, configuraciones DNS, políticas de seguridad y enrutamiento.
  • Diseñar Network Security Groups (NSGs) para controlar el acceso de entrada y salida a las interfaces de red (NICs), máquinas virtuales y subredes.

Buscamos Ingeniero de sistemas junior

Habilidades y experiencia

En KEEDIO estamos buscando un ingeniero de sistema experto con sistema Linux (principalmente Red Hat) y con mínimo 2 años de experiencia con tecnologías de conteinerización. El candidato debe demostrar tener buen conocimiento de Docker, de las problemáticas de entornos conteinerizados y su orquestación con Kubernetes. Adicionalmente, el candidato debe tener un buen conocimiento de sistemas de autenticación y su integración con infraestructuras conteinerizadas.

Se requiere:
  • Instalación, gestión y fine tuning de sistemas Linux.
  • Docker
  • Kubernetes
  • Kerberos, LDAP e integración de cluster de clusters de Kubernetes con sistemas de autenticación/autorización.
  • Scripting con Python y bash.
  • Trabajo en cloud privadas (OpenStack/VMWare) y/o cloud públicas (AWS, Azure).
Deseable/Valorable:
  • FreeIPA
  • Docker Swarm
  • Experiencia con Red Hat OpenShift Container Platform.

Buscamos Data Scientist

Habilidades y experiencia

 

En Keedio estamos buscando un Data Scientist con experiencia en dicho campo, conocimientos en varios lenguajes, principalmente en Python y SQL, y de herramientas de visualización. Si estás enfocado a las tecnologías Big Data y eres un Data Scientist, en KEEDIO tienes tu sitio para desarrollarte profesionalmente.

 

Se requiere:
  • Conocimientos de análisis de datos, modelado, inferencia estadística, estadística descriptiva y aprendizaje supervisado y no supervisado
  • Autonomía en un lenguaje de programación para analizar datos. Preferiblemente Python.
  • Capacidad de comunicación y de presentación de resultados
  • Conocimientos de SQL y bases de datos
  • Conocimientos de alguna herramienta de visualización
Deseable/Valorable:
  • Que el candidato sea capaz de hacer una configuración mínima de entornos de trabajo en local como pueden ser una base de datos (SQL o noSQL), piezas de software para ETLs u otros casos.
  • Nociones de Ingeniería del Software o experiencia en desarrollo de software
  • Uso de línea de comandos en sistemas Linux o Unix
  • Otros lenguajes como Matlab o R
  • Experiencia con Spark
  • Experiencia con algún entorno cloud (Azure, AWS….)

Plan de Becas KEEDIO 2017/18

Se ofrecen 8 becas de colaboración en proyectos de innovación en tecnologías BigData.

Se trata de incorporar un contingente de jóvenes técnicos con dos tipos de actividad diferenciada. Los ingenieros de sistemas y programadores participarán en los proyectos profesionales en marcha, aprendiendo y aportando en la medida de su capacidad; los postgraduados tendrán un perfil de analista y utilizarán las técnicas BigData para explorar y diseñar casos de uso sobre conjuntos de datos de prueba que Keedio proporcionará: datos clínicos, registros de seguridad, logs de comunicaciones, etc.

KEEDIO es una empresa especializada en BigData con más de 10 años de trayectoria en computación distribuida. Nuestros proyectos van desde el despliegue de arquitecturas hasta la analítica avanzada. Keedio utiliza las tecnologías y herramientas más consolidadas en el ecosistema BigData y dispone de una plataforma propia con la que presta servicio a diversas instituciones.

Las personas que pasen por el programa de becas, o bien serán cantera de KEEDIO, entrando a formar parte de su plantilla o se convertirán en prescriptores de la plataforma, servicios y trabajos de KEEDIO basándose en la experiencia enriquecedora vivida durante su paso por KEEDIO.

Las becas cubren un programa de 6 meses con asistencia a media jornada en las oficinas de KEEDIO en Pozuelo (c.Virgilio, 25), remuneradas con 3.600€ en total.

Perfil
Requisitos
Actividad
Ingeniero Sistemas
Ingeniero informático o equivalente, enfocado a sistemas y arquitectura
2 becas
Conocimientos de administración de SO. Nociones de sistemas distribuidos.
Alta motivación y capacidad de aprendizaje y exploración de nuevas tecnologías.
Integración, despliegue y administración de arquitecturas   BigData. Scripting, monitorización, seguridad. Analítica batch y RT. Aprendizaje de arquitecturas, productos y componentes BigData
Ingeniero Desarrollo
Ingeniero informático o equivalente, enfocado a desarrollo
3 becas
Conocimientos de desarrollo en Java, Python, SQL.
Alta motivación y capacidad de aprendizaje y exploración de nuevas tecnologías.
Desarrollo SW en entornos Big Data. Aprendizaje de lenguajes y paradigmas específicos. Analítica.
Data Scientist.
Perfil académico: Postgraduado de ciencias/ingeniería, en ciclo de doctorado o máster
3 becas
Conocimientos de análisis y modelado de datos, estadística (inferencial y descriptiva), aprendizaje supervisado y no supervisado. Capacidad de analizar en algún lenguaje como Python o R.
Capacidad de comunicación.
Motivación e iniciativa para aprender. Se valorarán: MOOCs, cursos fuera de programas oficiales, cursos de especialización, etc.
Se tendrán en cuenta proyectos previos (académicos o no) analizando datos con cierta componente matemática/estadística.
Desarrollo del ciclo completo de análisis de datos (recolección, limpieza, análisis exploratorio, modelado y presentación de resultados) apoyándose en técnicas de BigData y BI.

Ofrecemos integración en equipo joven, dinámico y colaborativo, multidisciplinar, el contacto con tecnologías punteras, horario flexible, retribución competitiva y beneficios sociales.

 

Contacta con nosotros o envíanos tu CV a:

rrhh@keedio.com