Mark Zuckerberg redobla su apuesta por Meta. Por tal motivo, pretende que los dispositivos móviles vuelvan a ser una parte fundamental para acceder a la plataforma de manera sencilla.

Para eso, ya no será necesario contar con unas gafas de realidad virtual para explorar Meta Horizon Worlds, el famoso metaverso de la compañía. 

A través del blog oficial de Meta, anunció que Super Rumble, uno de los mundos pertenecientes a su metaverso, ya está disponible como acceso anticipado a través de la aplicación de Meta Quest, provista para celulares.

Además, también está disponible en navegadores web a través de horizon.meta.com.

Con este nuevo planteamiento, el conglomerado dirigido por Mark Zuckerberg quiere atraer a todo tipo de usuarios a su plataforma, la cual no se encuentra precisamente en su mejor momento.

Según las cifras que proporciona Meta, su metaverso consigue reunir a unos 200.000 jugadores de media al mes

Mark Zuckerberg ahora apuesta al mobile

Meta y su incursión en la Inteligencia Artificial

Desde Julio, Meta trabaja con CM3leon, el primer modelo multimodal de IA generativa capaz de crear imágenes a partir de texto y viceversa.

Se trata de una "receta adaptada" de lenguaje multimodal que, además, se entrena con "cinco veces menos recursos".

La compañía liderada por Mark Zuckerberg investiga en modelos generativos de IA, e introduce avances en el procesamiento del lenguaje natural.

En este caso, para permitir que las páginas entiendan y expresen lenguaje, así como sistemas que pueden generar imágenes basadas en entradas de texto.

Su modelo de IA CM3leon -denominado "camaleón"- es capaz de ofrecer "el más alto rendimiento" en la conversión de texto a imagen y viceversa. 

Además, se entrena con cinco veces menos recursos que los modelos anteriores y genera secuencias de texto e imágenes en base a "secuencias arbitrarias de otro contenido de imagen y texto".

Buscan generar más tráfico en Meta

Soluciones innovadoras

Tal y como expresó la compañía en un comunicado, se trata de una solución innovadora porque es el "primer modelo multimodal" que está entrenado con una adaptación de modelos de lenguaje de solo texto.

Es decir, los modelos generativos de solo texto se ajustan a instrucciones multitarea, comprendiendo distintas gamas de acciones a la hora de seguir indicaciones. 

Te puede interesar