Unite AI
De meest recente ontwikkelingen op het gebied van robotica en kunstmatige intelligentie
In de evoluerende wereld van de robotica valt een baanbrekende samenwerking tussen Princeton University en Google op. Ingenieurs van deze prestigieuze instellingen hebben een innovatieve methode ontwikkeld die robots een cruciale vaardigheid leert: herkennen wanneer ze hulp nodig hebben en hoe ze die moeten vragen. Deze ontwikkeling markeert een aanzienlijke sprong voorwaarts in de robotica en overbrugt de kloof tussen autonoom functioneren en mens-robot-interactie.
Kwantificering van onzekerheid
Om deze uitdaging aan te pakken heeft het team van Princeton en Google een nieuwe aanpak geïntroduceerd die de ‘vaagheid’ van menselijke taal kwantificeert. Deze techniek meet in wezen het niveau van onzekerheid in taalopdrachten en gebruikt deze metriek om robotacties te begeleiden. In situaties waarin een commando tot meerdere interpretaties kan leiden, kan de robot nu de mate van onzekerheid inschatten en beslissen wanneer hij om verdere opheldering vraagt. In een omgeving met meerdere kommen zou een hogere mate van onzekerheid er bijvoorbeeld toe leiden dat de robot vraagt welke kom hij moet oppakken, waardoor mogelijke fouten of inefficiënties worden vermeden.
Deze aanpak geeft robots niet alleen een beter begrip van taal, maar verbetert ook hun veiligheid en efficiëntie bij het uitvoeren van taken. Door grote taalmodellen (LLM’s) zoals die achter ChatGPT te integreren, hebben de onderzoekers een belangrijke stap gezet in het beter afstemmen van robotacties op menselijke verwachtingen en behoeften.
Rol van grote taalmodellen
De integratie van LLM’s speelt een cruciale rol in deze nieuwe aanpak. LLM’s spelen een belangrijke rol bij het verwerken en interpreteren van menselijke taal. In deze context worden ze gebruikt om de onzekerheid te evalueren en te meten die aanwezig is in taalopdrachten die aan robots worden gegeven.
De afhankelijkheid van LLM’s is echter niet zonder uitdagingen. Zoals het onderzoeksteam heeft opgemerkt, kunnen de resultaten van LLM’s soms onbetrouwbaar zijn.
Anirudha Majumdar, assistent-professor aan Princeton, benadrukt het belang van dit evenwicht:
“Het blindelings volgen van plannen die door een LLM zijn gegenereerd, kan ertoe leiden dat robots op een onveilige of onbetrouwbare manier handelen, en daarom hebben we onze op LLM gebaseerde robots nodig om te weten wanneer ze het niet weten.”
Dit benadrukt de noodzaak van een genuanceerde aanpak, waarbij LLM’s worden gebruikt als hulpmiddelen voor begeleiding in plaats van als onfeilbare besluitvormers.
Praktische toepassing en testen
De bruikbaarheid van deze methode is in verschillende scenario’s getest, wat de veelzijdigheid en effectiviteit ervan
Bezoek @https://www.unite.ai/