11 de mayo de 2008
Google App Engine
Acabo de enterarme de que Google ha sacado una cosa que llama Google App Engine. Básicamente es hosting gratis pero con unas prestaciones que nadie ha dado hasta la fecha. Se me ocurre que es ahí donde montaría yo el buscador de fotos.

11:12:49 ---------------------  

2016 en Denia (Alberto Noguera)
El implacable retrato del desencanto y la corrosión de las ilusiones en la España de principios de siglo.
Comprar por 3,59€ en Amazon.

9 comentarios:

demasiado tarde:
Google desarrolla un buscador de imágenes basado en el contenido
Enviado el lunes, 05 de mayo de 2008 18:40

El jueves, en la World Wide Web Conference en Beijing, dos científicos de Google presentaron un artículo que describía lo que llamaron VisualRank, un algoritmo que reúne técnicas de reconoimiento de imágenes con técnicas para la ponderación y rankeado de imágenes en función del parecido entre ellas.
No son los primeros en hacerlo, ya que desde hace tiempo existen servicios como Like.com, de Riya, proyectos de investigación como Alipr (del MIT) y herramientas como imgSeek y otras similares que llevan tiempo suscitando un gran interés, y permiten realizar recuperación de imágenes en función del contenido, y no del contexto, tal y como se ha venido haciendo tradicionalmente. Pero Google, con la gran cantidad de datos que manejan, son capaces de convertir en oro casi todo lo que tocan, y no sería de extrañar ver esta tecnología totalmente operativa en los servicios de Google dentro de muy poco.

Tal y como describe la noticia original, del New York Times del 28 de Abril, científicos de Google han sido capaces de desarrollar un algoritmo similar al PageRank pero que trabaja con el contenido de las imágenes (reconociendo formas y analizando su parecido) y no con el texto contextual. Shumeet Baluja, investigador senior en Google, comentaba durante la presentación que realizó con Yushi Jing, que "nosotros queremos incorporar todos los avances de la Visión por Computador en un entorno Web". La gran experiencia de la compañía en crear gigantescos grafos dónde los nodos (webs) son valorados o pesados, acorde a su autoridad, puede ser transportada al mundo de las imágenes.

El artículo presentado en esta conferencia, "PageRank for Product Image Search", se centra en un subconjunto de las imágenes que Google ha catalogado, ya que el análisis y comparación de imágenes digitales requiere de un coste computacional tremendo. Realizar esta labor para todas las imágenes indexadas por el buscador sería una tarea casi imposible, a día de hoy. A pesar que Google no aporta datos acerca de cuántas imágenes tiene catalogadas, aseguran que Google Image Search es "la búsqueda de imágenes más amplia de toda la Web".

Este tipo de tecnología puede resultar muy útil, no solo para buscar imágenes parecidas entre si, si no para la recuperación de fotografías similares, si no para otros fines como la catalogación automática, la asociación de imágenes con categorías de ontologías permitiendo el razonamiento sobre las mismas, el filtrado de imágenes inapropiadas, etc. La recuperación y tratamiento avanzado de imágenes en la web sigue siendo un problema interesante, con mucho trabajo por hacer y, por tanto, un nicho de investigación más que interesante.


FUENTE :
http://weblogs.madrimasd.org/sistemas_inteligentes/archive/2008/05/05/90992.aspx
11 de mayo de 2008 a las 11:43.  

Manolito Gafotas:
Ahora mismo Google App Engine, en beta, está muy limitado, tanto en espacio como prestaciones.
Eso mismo lo podrias hacer con Amazon Web Services, que tiene EC2, S3, SimpleDB y algunas cosas mas, que te permite crear una infrastuctura escalable, y con pago solo por lo que consumes.
11 de mayo de 2008 a las 19:43.  

Florecilla Silvestre:
A posteriori sobre mi post en respuesta a tu idea se me ocurrió que lo mejor sería reducir las imágenes a sus características mas significativas (formas distinguibles) usando filtros tipo edge y algún algoritmo de conectividad, como hace el método de Cany. Convertiría la entrada en imágenes de comic en blanco y negro antes de procesarla.

En fin, el hecho es que ya hay mucha gente que se ha puesto a ello con anterioridad. Estos tipos de google están haciendo toda clase de investigaciones usando redes neuronales y cantidades ingentes de potencia de proceso. Un buen día un bucle fortuito hará que uno de sus sistemas se retroalimente, tomando conciencia de sí mismo y desatando una guerra total contra la humanidad.

En el año 2047, una cueva subterránea de 100 metros cúbicos aquí (Madrid) cerca de una barraca de producción de terminators en el epicentro de una zona de bombardeo nuclear costará el equivalente a 200 kilos de especias. El sueldo neto de 15 años siendo teniente de la resistencia. Se sacarán las navajas por una hipoteca a 50 años atado a ella y te dirán que alquilar es tirar el dinero. "Las cuevas nunca bajan". Dale tiempo al tiempo.
11 de mayo de 2008 a las 20:24.  

jokin:
Jaja
Muy bueno tu comentario Florecilla
Pero no te olvides q ahora mismo en suiza unos cientificos locos estan construyendo el acelerador de particulas y en agosto cuando lo ennciendan por primera vez !a tomar por culo!
11 de mayo de 2008 a las 22:15.  

Manu (The Java Real Machine):
Lo vi no hace mucho, y he empezado a echarle un vistazo para hacer una cosa que quiero montar...

Lo único malo es que hay que desarrollar con Python y no lo conozco, así que toca buscarse algún manual y perder tiempo en su aprendizaje...
12 de mayo de 2008 a las 09:58.  

Manolito Gafotas:
Mira esto Alberto,

creo que es parecido a tu idea, si no igual.
Y dicen tener 487 millones de imagenes indexadas...

http://blog.ideeinc.com/2008/03/27/project-codename-tineye-launched-in-private-beta/
13 de mayo de 2008 a las 21:21.  

Manolito Gafotas:
Mas cosas de los mismos.
Definitivamente, esta gente son expertos en imagenes...
http://ideeinc.com/products/pixid/gallery
13 de mayo de 2008 a las 22:33.  

Imparable:
A mí también se me ocurren un par de websites que ofrecen un servicio de búsqueda de imagenes:

http://www.picitup.com/picitup/index.jsp

En este te dicen si te pareces a algún famoso:

http://www.picitup.com/picitup/match_start.jsp
20 de mayo de 2008 a las 18:51.  

macjohn:
Roland Piquepaille alerts us to work by US and Israeli researchers who have developed software that can identify the subject of an image characterized using only 256 to 1024 bits of data. The researchers said this "could lead to great advances in the automated identification of online images and, ultimately, provide a basis for computers to see like humans do." As an example, they've picked up about 13 million images from the Web and stored them in a searchable database of just 600 MB, making it possible to search for similar pictures through millions of images in less than a second on a typical PC. The lead researcher, MIT's Antonio Torralba, will be presenting the research next month at a conference on Computer Vision and Pattern Recognition.

http://tech.slashdot.org/tech/08/05/24/2025210.shtml
25 de mayo de 2008 a las 10:57.  



© A. Noguera

"Mirar el río hecho de tiempo y agua
y recordar que el tiempo es otro río,
saber que nos perdemos como el río
y que los rostros pasan como el agua".
Jorge Luis Borges


Leer los archivos

Entradas destacadas:
Pepito Relámpago - Pepita Nuncabaja - Seis meses en meetic - Etapas de la burbuja