lunes, 24 de agosto de 2015

EL CAPITALISMO PUDRE TODO

Cesárea, una cicatriz en la red

La publicación de una foto en Facebook desata un debate global sobre las implicaciones emocionales de los partos no vaginales y se convierte en un gran fenómeno viral | La imagen ha recibido más de 13 millones de visitas y 20.000 comentarios | Mujeres de todo el mundo explican por primera vez su experiencia | No fue el nacimiento que esperaban; ahora hablan y se sienten más reconfortadas | Esta operación sólo debe realizarse por motivos médicos, nunca a demanda


Cesárea, una cicatriz en la red

Las famosas y las boludas famosillas del "osea" del mundo mundial,no quieren que el coño,la concha o para ser fino y delicado,la "almeja" se les ensanche en el parto.
Las pobres "pijas"de Spain o las taradas imbéciles que llegan a "presidenta"o dirigente politica a fuerza de encamarse con sus superiores;adoran la cesarea.
No saben,en su ignorancia rayana con la minusvalía mental,que la vagina,los labios y todo el aparato genital es una mucosa elastica que recupera su tension,hasta en las que parieron varias veces,como mi compañera ,que me dio cuatro hijos.
Pero la quieren asi porque no "duele" y aquello de "pariras con dolor"de la iglesia de imbéciles que adoran se lo exige.
Algo natural como dar la vida,o la misma muerte ,se transforma en un estigma...
Y adoran a la virgen...

¿Hacia dónde miran los humanos?


.WS (Adaptive Whitening Saliency), un algoritmo desarrollado por investigadores del CiTIUS como respuesta al problema del exceso de información en el ámbito de la robótica, permite predecir los puntos fuertes de las imágenes que más atraerán nuestra atención.
Un simple golpe de vista le basta al ser humano para disgregar lo esencial de lo superfluo en la escena que le rodea, interpretando así los elementos situados en el entorno según su grado de relevancia. Una asombrosa capacidad de la que hacemos uso constantemente, y entre cuyos numerosos usos cotidianos figura, por ejemplo, la conducción de un automóvil.
Imaginemos que el conductor de un coche se aproxima a un paso de peatones, donde un grupo de viandantes se dispone a cruzar la calle. Ante la situación que detecta pocos metros más adelante, el conductor reduce progresivamente la velocidad pero, de pronto, un ciclista se cruza en su trayectoria. Repentinamente, y a pesar de que el paso de peatones permanece en su ángulo de visión, la atención del conductor se concentra en la región de la imagen que ha de analizar para evitar el atropello, pasando el resto de la escena a un segundo plano.
Sólo los puntos fuertes de las imágenes que llegan a nuestros ojos son determinantes en el proceso de la visión humana, ya que no tenemos capacidad de interpretar todos los datos que se presentan a nuestro alrededor. De esta manera, nuestro sistema visual es el encargado de filtrar, a una velocidad de vértigo, la información capturada, prescindiendo de aquella que resulte irrelevante con el objetivo de hacer viable su posterior interpretación en el cerebro.
Esta capacidad humana de eliminar datos innecesarios o redundantes del entorno se conoce como «Atención Visual». Un proceso aparentemente sencillo y transparente para el individuo (en este caso, el conductor) que constituye, sin embargo, el resultado de un conjunto de mecanismos evolutivos extremadamente complejos a nivel óptico y neuronal. Enseñarle a un robot a reproducir cada uno de estos pasos para lograr que aprenda a identificar las partes más relevantes de su entorno requiere igualmente de numerosas e intrincadas técnicas (algunas de ellas inspiradas en modelos humanos), que una vez incorporadas permiten resolver uno de los problemas más frecuentes en el ámbito de la inteligencia artificial: la presencia de ruido (o exceso de información).
Con el modelo de atención visual AWS (Adaptive Whitening Saliency), los investigadores del CiTIUS han conseguido desarrollar una herramienta que no sólo permite filtrar el ruido para su implementación en distintas áreas de la robótica móvil, sino que sirve también de modelo para detectar las partes más significativas de una determinada imagen, incluso si esta se encuentra en movimiento. La representación visual de este resultado se denomina «mapa de saliencia» y muestra las zonas más atractivas para el espectador, según han confirmado distintos estudios experimentales realizados con humanos.
El trabajo que ha dado lugar a este algoritmo, desarrollado en el marco del Programa de Visión Artificial del centro, ha sido reconocido por múltiples expertos a nivel global como uno de los mejores en la actualidad, siendo calificado en el año 2013 como “el mejor del mundo” en un estudio realizado por la University of Southern California.
Licencia : Creative Commons