Несколько лет назад я неподвижно стоял на сцене на писательской конференции. Присутствовало более 800 человек и мое собственное понимание того, как разговаривать с большой группой, было немного схематичным, я пролистал несколько слайдов и сделал несколько комментариев, которые, вероятно, не казались слишком глубокими.
После выступления я собрал несколько карточек с комментариями. (Как я уже сказал, это было до Твиттера.) Одна тема, казалось, возникала слишком часто: то, что я недостаточно двигался.
В то время я не совсем был Стивом Джобсом в расцвете сил, но, возможно, новое приложение, которое дебютировало на технической конференции в минувшие выходные, помогло бы мне.
Vocalytics использует машинное обучение для анализа любого существующего видео . Он может сказать, когда вы делаете «мощную позу» или жест с приятным акцентом. Если вы все время будете стоять неподвижно, он будет знать. На данный момент приложение может считывать жесты рук и положение тела, но в будущем команда разработчиков заявляет, что оно может расшириться до считывания движений глаз и мимики.
Этот тип машинного обучения не нов. Microsoft предлагает библиотеки с алгоритмами машинного обучения, которые анализируют движения тела в течение нескольких лет, и команда Vocalytics использует часть этого кода. Новым является идея анализа языка тела таким образом, чтобы это было полезно для тех, кто может не знать, что делать. Любой специалист в области эмоционального интеллекта скажет вам, что люди видят ваши выражения, жесты и движения почти так же, как слышат то, что вы говорите.
патрик варбертон жена и дети
Вы не можете удерживать внимание толпы, если сидите без дела. В другом недавнем выступлении - не совсем удачном - я решил двигаться намного больше перед группой из 50 человек или около того. Я несколько раз пытался сделать жесты и показать демонстрацию на компьютере, чтобы избавиться от скуки просто стоять и болтать. (По правде говоря, я лучше писатель, чем оратор.)
Вскоре мы увидим все больше и больше приложений на базе искусственного интеллекта, которые могут анализировать все, от интонаций нашего голоса до языка тела во время встречи. В наших машинах бот будет знать, как мы водим, и после того, как мы вернемся домой, внесет предложения по улучшению. Мы даже будем использовать ИИ, чтобы читать наши статьи и вносить исправления, улучшающие читаемость и понимание.
И эти движки AI будут делать ошибки. Насколько я понимаю в отношении коучинга людей в публичных выступлениях, это непросто немного пошевелить руками. Скорее всего, бот какое-то время не будет знать, какие жесты оказывают наибольшее влияние на данную аудиторию. Есть так много переменных, таких как предмет, уровень знаний в толпе и даже такие факторы, как время суток. (Мой недавний разговор со студентами колледжа произошел рано утром. Можно сказать, что он был обречен на провал с самого начала. Мой письменный доклад на конференции был сразу после обеда. Все должны были быть в курсе.)
Конечно, даже если ИИ-боты не совсем знают, как дать нам идеальный совет, каждый совет немного помогает. Мне нравится то, что делает Vocalytics, и как это работает.
Я бы хотел, чтобы он был доступен когда-то давно.