Миссия Anthropic — создавать надежные, интерпретируемые и управляемые системы искусственного интеллекта. Мы хотим, чтобы ИИ был безопасным и полезным для наших пользователей и общества в целом. Наша команда — это быстрорастущая группа преданных своему делу исследователей, инженеров, экспертов по политике и бизнес-лидеров, которые работают вместе над созданием полезных систем ИИ.
Мы ищем инженеров машинного обучения и исследовательских инженеров, которые помогут обнаруживать и предотвращать злоупотребления нашими системами ИИ. В качестве члена команды Safeguards ML вы будете создавать системы, которые выявляют вредоносное использование — от отдельных нарушений политики до сложных скоординированных атак — и разрабатывать защиты, которые сохраняют безопасность наших продуктов по мере развития их возможностей. Вы также будете работать над системами, которые защищают благополучие пользователей и обеспечивают корректное поведение наших моделей в самых разных контекстах. Эта работа напрямую связана с обязательствами Anthropic по Политике ответственного масштабирования.
Требования к образованию: Мы требуем как минимум степень бакалавра в смежной области или эквивалентный опыт.
Гибридная политика по местоположению: В настоящее время мы ожидаем, что весь персонал будет находиться в одном из наших офисов не менее 25% времени. Однако для некоторых ролей может потребоваться больше времени в офисе.
Спонсорство виз: Мы спонсируем визы! Однако мы не всегда можем успешно спонсировать визы для каждой роли и каждого кандидата. Но если мы сделаем вам предложение, мы приложим все разумные усилия, чтобы получить для вас визу, и у нас есть иммиграционный юрист, который помогает в этом.
Мы призываем вас подавать заявку, даже если вы не соответствуете абсолютно всем требованиям. Не все сильные кандидаты соответствуют каждому из перечисленных требований. Мы считаем, что системы ИИ, подобные тем, что мы создаем, имеют огромные социальные и этические последствия. Это делает представительство еще более важным, и мы стремимся включать разнообразные точки зрения в нашу команду.
Ваша безопасность для нас важна. Чтобы защитить себя от возможных мошенничеств, помните, что рекрутеры Anthropic связываются с вами только с адресов электронной почты @anthropic.com. В некоторых случаях мы можем сотрудничать с проверенными рекрутинговыми агентствами, которые будут представляться как работающие от имени Anthropic. Будьте осторожны с письмами с других доменов.
Мы считаем, что исследования ИИ с наибольшим воздействием — это крупная наука. В Anthropic мы работаем как единая сплоченная команда над всего несколькими крупномасштабными исследовательскими проектами. И мы ценим влияние — продвижение наших долгосрочных целей по созданию управляемого, заслуживающего доверия ИИ — больше, чем работу над мелкими и более специфическими задачами. Мы рассматриваем исследования ИИ как эмпирическую науку, которая имеет столько общего с физикой и биологией, сколько и с традиционными направлениями компьютерных наук. Мы — чрезвычайно коллективная группа и регулярно проводим исследовательские обсуждения, чтобы убедиться, что в любой момент времени мы занимаемся наиболее значимой работой. Поэтому мы очень ценим коммуникативные навыки.
Самый простой способ понять наши исследовательские направления — прочитать наши последние исследования. Эти исследования продолжают многие направления, над которыми работала наша команда до Anthropic.
Anthropic — это корпорация общественной пользы с головным офисом в Сан-Франциско. Мы предлагаем конкурентоспособную оплату и льготы, опциональное сопоставление пожертвований в акции, щедрый отпуск и декретный отпуск, гибкий график работы и прекрасное офисное пространство для совместной работы с коллегами.
Руководство по использованию ИИ кандидатами: наша политика по использованию ИИ в процессе подачи заявок.