Сан-Франциско, Калифорния | Нью-Йорк, Нью-Йорк
Миссия Anthropic — создавать надежные, интерпретируемые и управляемые системы искусственного интеллекта. Мы хотим, чтобы ИИ был безопасным и полезным для наших пользователей и общества в целом. Наша команда — это быстрорастущая группа преданных своему делу исследователей, инженеров, экспертов по политике и бизнес-лидеров, которые работают вместе над созданием полезных систем ИИ.
Команда Horizons возглавляет исследования и разработки в области обучения с подкреплением (RL) в Anthropic, играя ключевую роль в развитии наших систем ИИ. Мы внесли вклад в каждый релиз Claude, существенно повлияв на автономность, кодирование и способности к рассуждению моделей Anthropic.
Мы набираем сотрудников в команду Cybersecurity RL внутри Horizons. В роли инженера-исследователя вы будете помогать безопасно развивать возможности наших моделей в области безопасного кодирования, устранения уязвимостей и других аспектов оборонительной кибербезопасности.
Эта роль сочетает в себе исследовательскую и инженерную работу, требуя от вас как разработки новых подходов, так и их реализации в коде. Ваша работа будет включать проектирование и внедрение сред обучения с подкреплением, проведение экспериментов и оценок, внедрение результатов в производственные обучающие циклы, а также сотрудничество с другими исследователями, инженерами и специалистами по кибербезопасности внутри и за пределами Anthropic.
Для этой роли требуется экспертность в области кибербезопасности в сочетании с интересом или опытом в обучении безопасных моделей ИИ. Например, вы можете быть «белым хакером», которому интересно, как большие языковые модели (LLM) могут дополнить или трансформировать вашу работу, инженером по безопасности, заинтересованным в том, как ИИ может помочь укрепить системы в масштабе, или специалистом по обнаружению и реагированию, который задается вопросом, как модели могут улучшить оборонительные рабочие процессы.
Для ролей в продажах указанный диапазон представляет собой целевой доход ("OTE"), что означает, что диапазон включает как целевые комиссионные/бонусы за продажи, так и годовую базовую зарплату по роли.
300 000 – 405 000 долларов США
Требования к образованию: Мы требуем как минимум степень бакалавра в смежной области или эквивалентный опыт. Политика гибридной работы в зависимости от местоположения: В настоящее время мы ожидаем, что весь персонал будет находиться в одном из наших офисов не менее 25% времени. Однако некоторые роли могут требовать большего времени в офисе.
Спонсорство визы: Мы спонсируем визы! Однако мы не всегда можем успешно спонсировать визу для каждой роли и каждого кандидата. Но если мы сделаем вам предложение, мы приложим все разумные усилия, чтобы получить для вас визу, и у нас есть иммиграционный юрист, который помогает в этом.
Мы призываем вас подавать заявку, даже если вы не уверены, что соответствуете всем требованиям. Не все сильные кандидаты соответствуют каждому из перечисленных требований. Исследования показывают, что люди из недостаточно представленных групп чаще испытывают синдром самозванца и сомневаются в силе своей кандидатуры, поэтому мы настоятельно рекомендуем не исключать себя преждевременно и подавать заявку, если вас интересует эта работа. Мы считаем, что системы ИИ, подобные тем, которые мы создаем, имеют огромные социальные и этические последствия. Это делает представительство еще более важным, и мы стремимся включать разнообразные точки зрения в нашу команду.
Чтобы защитить себя от возможных мошенничеств, помните, что рекрутеры Anthropic связываются с вами только с адресов электронной почты @anthropic.com. В некоторых случаях мы сотрудничаем с проверенными рекрутинговыми агентствами, которые представляются как работающие от имени Anthropic. Будьте осторожны с письмами с других доменов. Законные рекрутеры Anthropic никогда не будут просить деньги, сборы или банковскую информацию до вашего первого рабочего дня. Если вы сомневаетесь в подлинности сообщения, не переходите по ссылкам — посетите сайт anthropic.com/careers напрямую для подтверждения открытых вакансий.
Мы считаем, что исследования ИИ с наибольшим воздействием — это большие научные проекты. В Anthropic мы работаем как единая сплоченная команда над несколькими крупномасштабными исследовательскими инициативами. Мы ценим влияние — продвижение наших долгосрочных целей по созданию управляемого, заслуживающего доверия ИИ — больше, чем работу над мелкими и более специфическими задачами. Мы рассматриваем исследования ИИ как эмпирическую науку, которая имеет столько общего с физикой и биологией, сколько и с традиционными усилиями в области компьютерных наук. Мы — чрезвычайно совместная группа и часто проводим исследовательские обсуждения, чтобы гарантировать, что мы занимаемся наиболее значимой работой в любой момент времени. Поэтому мы очень ценим навыки коммуникации.
Самый простой способ понять наши направления исследований — прочитать наши последние работы. Эти исследования продолжают многие направления, над которыми работала наша команда до Anthropic, включая: GPT-3, интерпретируемость на основе цепей, мультимодальные нейроны, законы масштабирования, ИИ и вычисления, конкретные проблемы безопасности ИИ и обучение на основе человеческих предпочтений.
Anthropic — это корпорация общественной пользы с главным офисом в Сан-Франциско. Мы предлагаем конкурентоспособную оплату и льготы, опциональное сопоставление пожертвований акциями, щедрый отпуск и декретный отпуск, гибкий график работы и прекрасное офисное пространство для совместной работы с коллегами.
Руководство по использованию ИИ кандидатами: Узнайте о нашей политике использования ИИ в процессе подачи заявки