Publicado por Jennifer Daniel, director creativo expresiones, Allo
El intercambio y la visualización de Selfies se ha convertido en un hábito diario para muchos – la Selfie en el Auto, el Selfie- lindo, las Selfies los viajes, el I-desperté-up-como-esta Selfie . Aparte de una capacidad social, autorretrato ha servido durante mucho tiempo como un medio para la exploración de uno mismo y la identidad. Para algunos, se trata de averiguar quién son. Para otros se trata de la proyección de la forma en que quieren ser percibidos. A veces es ambas cosas.
La fotografía en la forma de una Selfie es una forma muy directa de la expresión. Viene con un conjunto de reglas delimitadas por la realidad. Ilustración, por el contrario, faculta a las personas a definirse a sí mismos – es más cálido y menos cargada que la realidad.
Hoy en día, Google está introduciendo una característica en Allo que utiliza una combinación de redes neuronales y el trabajo de artistas para convertir su autofoto en un paquete etiqueta engomada personalizada. Solo tiene que colocar una Selfie , y va a volver una versión ilustrada generada automáticamente de que, sobre la marcha, con opciones de personalización para ayudar a personalizar las etiquetas aún más.
Lo que hace, usted ?
El enfoque tradicional de la visión por ordenador para las Selfies de asignación al arte sería analizar los píxeles de una imagen y algoritmos determinar los valores de atributos examinado valores de píxeles para medir el color, forma o textura. Sin embargo, la gente hoy en día toman Selfies en todo tipo de condiciones de iluminación y poses. Y aunque la gente puede recoger fácilmente y reconocer las características cualitativas, como el color de los ojos, independientemente de la condición de iluminación, esta es una tarea muy compleja para los ordenadores. Cuando la gente ve el color de ojos, que no sólo interpretan los valores de píxel de color azul o verde, pero tienen en cuenta el contexto visual que rodea .
Con el fin de dar cuenta de esto, hemos explorado la forma en que podría permitir a un algoritmo para seleccionar características cualitativas de una manera similar a la forma de hacer, en lugar del enfoque tradicional de codificación de la forma de interpretar todas las permutaciones de las condiciones de iluminación, el color de ojos lado, etc. Mientras que podríamos haber formado a un gran red neuronal convolucional desde cero para tratar de lograr esto, nos preguntamos si había una manera más eficiente para obtener resultados, ya que esperábamos que aprender a interpretar una cara en una ilustración sería una muy iterativo proceso.
Eso nos llevó a ejecutar algunos experimentos, de forma similar a DeepDream , en algunas de las redes neuronales más de uso general de visión por ordenador existentes de Google. Descubrimos que unos neuronas entre los millones en estas redes eran buenos en centrarse en las cosas que no estaban explícitamente entrenados para mirar que parecía útil para crear pegatinas personalizadas. Además, en virtud de ser redes neuronales de uso general grandes que ya habían descubierto la manera de cosas abstractas distancia que no necesitaban. Todo lo que quedaba hacer era proporcionar un número mucho más reducido de ejemplos etiquetados humanos para enseñar a los clasificadores para aislar las cualidades que la red neuronal ya sabía de la imagen.
Para crear una ilustración de ustedes que captura las cualidades que lo hacen reconocible a sus amigos, trabajamos junto con un equipo artístico para crear ilustraciones que representaban una amplia variedad de características. Artistas inicialmente diseñado un conjunto de peinados, por ejemplo, que pensaron que sería representativo, y con la ayuda de evaluadores humanos que utilizan estos peinados para entrenar la red para que coincida con la ilustración de la derecha a la autofoto derecha. Luego preguntamos evaluadores humanos para juzgar la salida etiqueta la imagen de entrada en contra de ver lo bien que lo hizo. En algunos casos, se determinó que algunos estilos no estaban bien representados, por lo que los artistas crearon más que la red neuronal podría aprender a identificar también.


reconciliación de cómo el equipo se percibe con cómo se percibe a sí mismo y lo que quiere proyectar es realmente un ejercicio artístico. Esto hace que una función de personalización que incluye diferentes tipos de peinados, tonos de piel, y formas de nariz, esencial. Después de todo, la ilustración, por su propia naturaleza puede ser subjetiva. La estética se definen por la raza, la cultura, y la clase que puede conducir a la creación de zonas de exclusión, sin tratar
conscientemente. Como tal, nos esforzamos para crear un espacio para un rango de raza, la edad, la masculinidad, la feminidad, y / o la androginia. Nuestros equipos continúan evaluando los resultados de la investigación para ayudar a prevenir contra la incorporación de sesgos durante el entrenamiento del sistema.
No hay tal cosa como una ‘estética universal’ o ‘una singular que’. La forma de hablar a sus padres es diferente a la forma en que hablan con sus amigos que es diferente a la forma en que hablan con sus colegas. No es suficiente para hacer un avatar que es una representación literal de sí mismo cuando hay muchas versiones de usted. Para hacer frente a esto, el equipo de Allo está trabajando con una variedad de voces artísticas para ayudar a otros extienden su propia voz. Este primer estilo que ha lanzado hoy habla a su lado sarcástico, pero el siguiente envase podría ser más lindo para esos momentos sinceros. Luego, después de eso, tal vez ellos le convierten en un perro. Si emojis ampliaron el mundo de la comunicación no es difícil imaginar cómo esta tecnología y el lenguaje evoluciona. Lo que será más emocionante es escuchar lo que dicen con ella.
Esta característica está comenzando a rodar en Allo hoy para Android , y llegará pronto a Allo en IOS.
Este trabajo ha sido posible gracias a la colaboración del Equipo de Allo y Machine Perception investigadores de Google. Tenemos, además, gracias a Lamar Abrams, Koji Ashida, Forrester Cole, Jennifer Daniel, Shiraz Fuman, Dilip Krishnan, Inbar Mosseri, Aaron Sarna, Aaron Maschinot y Bhavik Singh.