Tot el que necessites per aprofitar la intel·ligència artificial per optimitzar el teu flux de treball, estalviar temps i fer més coses fàcilment, sense comprometre mai la qualitat ni la precisió.
Delegat les tasques repetitives a OpenClaw: des de la gestió de correus electrònics fins a la planificació i execució de fluxos de treball.
Controla-ho tot mitjançant WhatsApp, Telegram, Slack o altres plataformes que ja utilitzes diàriament.
Executa'l al teu propi VPS i conserva el control total sobre les teves dades, seguretat i rendiment.
OpenClaw és un projecte experimental de codi obert com a hobby
El bot pot llegir i editar arxius al teu VPS de manera autònoma, de manera que fins i tot un avís incorrecte pot resultar en un ús insegur.
Com que aquest és un projecte extern de codi obert, Nominalia no ofereix suport per a VPS amb OpenClaw instal·lat.
Recomanem utilitzar OpenClaw només si estàs familiaritzat amb els conceptes bàsics d'un VPS, com ara treballar en un entorn Linux, connectar a través de SSH i assegurar un servidor.
Pots trobar més informació sobre com assegurar OpenClaw a la documentació oficial.
OpenClaw és un projecte de codi obert per crear un assistent d'IA personal que pot operar autònomament basat en les habilitats que ensenyes al bot. La Passarel·la instal·lada és un servidor WebSocket que gestiona sessions, canals, eines, esdeveniments i configuracions.
OpenClaw s'executa localment a la seva pròpia màquina (en aquest cas, un VPS) i es pot connectar a aplicacions de xat com WhatsApp, Slack o Telegram.
L'aplicació de xat està connectada a la Passarel·la, que gestiona centralitzadament tots els components. Un cop el teu VPS estigui aprovisionat, passaràs per un procés de configuració on configures l'assistent, afegeixes claus d'API de LLM, i selecciones l'aplicació de xat de la teva elecció.
OpenClaw és un programari experimental. El creador indica que aquest és un projecte de passatemps i recomana utilitzar-lo només amb coneixements bàsics de seguretat. L'eina té accés de lectura-escriptura a tot el teu sistema i pot realitzar tasques de manera independent. Els riscos poden sorgir d'una instrucció incorrecta, però també d'injeccions de prompt, on actors maliciosos amaguen instruccions dins de l'entrada enviada al model d'IA.