そして今、私たちの働き方やものづくり、コミュニケーションの方法は、AI(人工知能)の登場によって、再び重大な転換期を迎えています。そこでHubSpotは、AIを活用して企業とその顧客をつなぎ、新たに長期的な関係を構築できるようサポートすることに尽力しています。テクノロジーはあくまでも人と人のつながりを強化するものであり、その代わりとなるものではありません。こうした背景から、企業を成長させ、従業員の業務の質を高めるAIの機能や製品を開発し続けています。
HubSpotは正しい行いを心がけることをお約束しており、AIへのアプローチは、信頼性、透明性、説明責任に基づいています。当社のAI倫理原則は、AI製品開発に役立つフレームワークとして活用されます。また、HubSpotでは、AIをどのように全社規模で開発し導入しているかについて、お客さまやパートナーさまに対して透明性を保つよう努めています。
当社では、お客さまはもちろんのこと、お客さまが関わる見込み客や顧客の安全を確保するべく、AIツールの保護に取り組んでいます。そのため、顧客データへの不正アクセスを防ぐことに重点を置いて機能を開発しています。製品開発チームとエンジニアリングチームに組み込まれた一般的なセキュリティープログラムの一環として、潜在的な脆弱性や攻撃の兆候、不測の事態から保護するためのセキュリティー対策を実施しています。HubSpotは、業界標準のサイバーセキュリティー対策の実施にも注力しています。詳しくはHubSpot Trust Center(英語)でご確認ください。
HubSpotは、AIの開発においてプライバシーを保護し、推進することの重要性を理解しています。また、顧客データがお客さまにとっていかに重要であるかを理解し、お客さまの信頼とプライバシーの権利を大切にしています。AI機能を開発する際には、適用されるデータ保護法や規制を順守することを徹底しています。そして、AIによるデータ利用を任意で停止可能にするなど、お客さまがデータをコントロール、選択できるようにすることを大切にしています。
人間がAIツールの管理に関わることは必要不可欠であると考えています。AIの使用において責任を持つ役割は、信頼を高め、公正性を確保し、安全なAIの実用化を推進する上で極めて重要です。HubSpotでは、当社のAIの製品とツールに対して人間が責任を負います。これには、デザインの選定、トレーニングデータの選択、AIシステムがお客さまに与える全体的な影響に対する責任も含まれます。また、その過程で繰り返し検討を重ねることで、AIテクノロジーに関連するリスクを特定し、HubSpotの価値観に沿った形でAI製品を開発・導入できる体制を整えています。
当社はAIの開発と利用にあたって、バイアスを最小限に抑え、公平性を確保するよう努めています。具体的には、人種、ジェンダー、民族、年齢、その他の保護特性にかかわらず、全ての人々を平等に扱うAIツールを開発するために、生じる可能性のあるバイアスの特定と対処に取り組んでいます。製品開発チームとエンジニアリングチームへの公平性の原則に関する教育を通して、HubSpotのAIモデルに使用されるトレーニングデータが多様性に富み、人々を代表し、さまざまな属性、背景、視点を含むものであることを目指しています。
当社は、AIのツールや製品の倫理的な導入を実現する上で、透明性と機能について説明する能力が鍵になると考えています。AIの倫理的な使用には、AIシステムの学習と運用に使用されるデータの出所、収集方法、処理履歴を明確に把握することが不可欠です。出所などの情報を把握すると、データの信頼性を確立し、潜在的なバイアスや誤り、制約を特定できます。HubSpotでは、自動化されたシステムがどのような場合に使用され、製品やサービスの体験にどのように貢献しているかなど、AIをどのように使用しているかをお客さまにご理解いただけるよう、リソースの提供に力を入れています。
当社は、継続的な学習と改善、そしてAIに対する理解を深めるための開発や教育への投資の重要性を認識しています。さらに、ユーザーや専門家、広範なコミュニティーからのフィードバックを積極的に受け入れ、その知見を大切にしながら、当社の取り組みとテクノロジーを改善しています。今後も引き続き、HubSpotのアプローチを発展させて強化し、AI倫理の進歩の最前線に立ち、誰もが使いやすいツールや製品の開発を続けてまいります。