Сан-Франциско, Калифорния
Подать заявку
Миссия Anthropic — создавать надежные, интерпретируемые и управляемые системы искусственного интеллекта. Мы хотим, чтобы ИИ был безопасным и полезным для наших пользователей и общества в целом. Наша команда — это быстрорастущая группа преданных своему делу исследователей, инженеров, экспертов по политике и бизнес-лидеров, которые работают вместе над созданием полезных систем ИИ.
Frontier Red Team (FRT) — это небольшая, сфокусированная техническая исследовательская команда в организации политики Anthropic. Наша цель — сделать весь мир безопаснее в эпоху продвинутого ИИ, понимая, на что способны эти системы, и создавая важные средства защиты.
В 2026 году мы сосредоточены на исследовании и обеспечении безопасности самоулучшающихся, высокоавтономных систем ИИ, особенно связанных с киберфизическими возможностями. Ознакомьтесь с нашей предыдущей связанной работой по киберзащите, робототехнике и проекту Vend. Это исследование на ранней стадии с высокой уверенностью и потенциалом значительного влияния.
За последний год мы увидели убедительные признаки того, что большие языковые модели (LLM) и агенты становятся все более способными к новым кибервозможностям. Мы считаем, что 2026 год станет годом, когда модели достигнут экспертного, а возможно и сверхчеловеческого уровня в нескольких областях кибербезопасности. Это новая и огромная поверхность угроз.
В качестве научного сотрудника Frontier Red Team, сосредоточенного на кибербезопасности, вы будете создавать инструменты и фреймворки, необходимые для защиты мира от продвинутых киберугроз с поддержкой ИИ. Старшие кандидаты получат возможность формировать и развивать исследовательскую программу Anthropic по киберзащите, работая с командами безопасности, гарантий, политики и другими партнерами. Эта работа находится на пересечении исследований возможностей ИИ, кибербезопасности и политики — то, что мы узнаем, напрямую влияет на то, как Anthropic и мир готовятся к киберугрозам с поддержкой ИИ.
Это прикладное исследование с реальными ставками. Ваша работа будет информировать решения на высших уровнях компании, способствовать демонстрациям, формирующим дискурс политики, и создавать технические средства защиты, которые нам понадобятся в будущем с все более мощными системами ИИ.
Требования к образованию: Мы требуем как минимум степень бакалавра в смежной области или эквивалентный опыт. Политика гибридного формата работы по местоположению: В настоящее время мы ожидаем, что весь персонал будет находиться в одном из наших офисов не менее 25% времени. Однако некоторые роли могут требовать большего времени в офисе.
Спонсорство визы: Мы спонсируем визы! Однако мы не можем успешно спонсировать визы для каждой роли и каждого кандидата. Но если мы сделаем вам предложение, мы приложим все разумные усилия, чтобы получить для вас визу, и у нас есть иммиграционный юрист, который помогает в этом.
Мы призываем вас подавать заявку, даже если вы не уверены, что соответствуете всем требованиям. Не все сильные кандидаты соответствуют каждому из перечисленных требований. Исследования показывают, что люди из недостаточно представленных групп чаще испытывают синдром самозванца и сомневаются в силе своей кандидатуры, поэтому мы настоятельно рекомендуем не исключать себя преждевременно и подавать заявку, если вас интересует эта работа. Мы считаем, что системы ИИ, подобные тем, что мы создаем, имеют огромные социальные и этические последствия. Это делает представительство еще более важным, и мы стремимся включать разнообразные точки зрения в нашу команду.
Ваша безопасность для нас важна. Чтобы защитить себя от возможных мошенничеств, помните, что рекрутеры Anthropic связываются с вами только с адресов электронной почты @anthropic.com. В некоторых случаях мы сотрудничаем с проверенными рекрутинговыми агентствами, которые представляются как работающие от имени Anthropic. Будьте осторожны с письмами с других доменов. Законные рекрутеры Anthropic никогда не будут просить деньги, сборы или банковскую информацию до вашего первого рабочего дня. Если вы сомневаетесь в сообщении, не переходите по ссылкам — посетите anthropic.com/careers напрямую для подтверждения открытых вакансий.
Мы считаем, что исследования ИИ с наибольшим воздействием — это большие научные проекты. В Anthropic мы работаем как единая сплоченная команда над несколькими крупномасштабными исследовательскими инициативами. И мы ценим влияние — продвижение наших долгосрочных целей по созданию управляемого, заслуживающего доверия ИИ — а не работу над мелкими и более специфическими задачами. Мы рассматриваем исследования ИИ как эмпирическую науку, которая имеет столько общего с физикой и биологией, сколько и с традиционными усилиями в области компьютерных наук. Мы — чрезвычайно совместная группа и часто проводим исследовательские обсуждения, чтобы гарантировать, что мы занимаемся работой с наибольшим воздействием в любой момент времени. Поэтому мы очень ценим навыки коммуникации.
Самый простой способ понять наши исследовательские направления — прочитать наши недавние исследования. Эти исследования продолжают многие направления, над которыми работала наша команда до Anthropic, включая: GPT-3, интерпретируемость на основе схем, мультимодальные нейроны, законы масштабирования, ИИ и вычисления, конкретные проблемы безопасности ИИ и обучение на основе предпочтений человека.
Anthropic — это корпорация общественной пользы с головным офисом в Сан-Франциско. Мы предлагаем конкурентоспособную оплату и льготы, опциональное сопоставление пожертвований акциями, щедрый отпуск и декретный отпуск, гибкий график работы и прекрасное офисное пространство для совместной работы с коллегами. Руководство по использованию ИИ кандидатами: Узнайте о нашей политике использования ИИ в процессе подачи заявок.