第2回「AI/IoTシステム安全性シンポジウム」の参加者募集   

第2回 AI/IoTシステム安全性シンポジウムは、新型コロナウイルス世界的な感染拡大により、海外講演者の訪日が難しくなったこと、また、参加者の安全を確保する必要があることからオンライン開催をいたします。(参加費:無料) 本シンポジウムでは、第1回Asian STAMP Workshop、第2回FRAM Workshopをオンラインで併設開催します。


複雑なシステムをどのように安全に開発すべきか。「第2回 AI/IoTシステム安全性シンポジウム」では、このヒントをきっと得られます。

自動運転をはじめとする機械学習システムの安全性をテーマとして、AIの最先端研究者や技術者による貴重な後援とパネルディスカッションを企画しています。 また2つのWorkshopは、セーフティの世界の2大巨匠のオンライン講演を無料で聴講できるチャンスです。システム理論に基づく事故モデルSTAMP(※1)の提唱者であるナンシー・レブソン教授、レジリエンスエンジニアリング(※2)の提唱者であるエリック・ホルナゲル教授の講演とともに、これらの手法の実践者による成果発表など、魅力的な企画が目白押しです。

なお、STAMP Workshopでは、「ショートトークセッション」の枠を新たに設け、発表者を追加募集します。まだまとまった成果にはなっていなくても、STAMPの適用を試みている事例をご紹介いただき、STAMPの新たな活用の可能性や、発表者の気づきにつながるような議論を行うことを意図した企画です。STAMPを使い始めの方、様々な意見や助言を聞いてみたい方など、ぜひ、ご応募ください。(10分程度のスライド発表と質疑応答、意見交換の形で進めます。)ショートトークセッションの発表申し込みはこちらからご登録ください。(※3)


開催概要

開催日2020年11月10日(火)、11日(木)、12日(金)

共催:国立情報学研究所「Engineerable AI(eAI)」プロジェクト

AI/IoTシステム安全性シンポジウム実行委員会

機械学習研究会(MLSE)機械学習システムセーフティ&セキュリティWG

株式会社エヌ・ティ・ティ・データ、有人宇宙システム株式会社

後援:独立行政法人情報処理推進機構(IPA

 

以下のURLより参加お申込みください

シンポジウムの公開サイト
https://ai-iot-system-safsec.connpass.com/event/186760/

プログラム

2020年11月10日(火)

10:00-機械学習システムのセーフティ・セキュリティWG(MLS^3)セッション

・自動運転の事例にみる機械学習システムの安全性の課題等

13:20-オープニング

13:30 – 14:30 : 基調講演:製造業におけるAI/IoT技術を活用したDXの取組み

浦本 直彦氏(株式会社三菱ケミカルホールディングス 執行役員 Chief Digital Officer)

14:30-14:50 招待講演1:機械学習品質マネジメントガイドライン

講演者:調整中

14:50-15:00 休憩(スポンサーセッション)

15:00-15:20 招待講演2:自動運転の標準化の世界動向(仮)

講演者:調整中

15:20-15:40 招待講演3:Microsoft の Responsible AI への取り組み
女部田 啓太 氏(マイクロソフト)

15:40-16:00 講演:機械学習の品質ガイドラインと機械学習工学研究について(調整中)
石川 冬樹氏(国立情報学研究所・准教授)

16:00-17:05 休憩(スポンサーセッション)
16:05-17:30 講演者によるパネルディスカション
「機械学習応用システムの安全性は担保できるのか?」
司会:丸山 宏氏(PFN)
17:30-19:00  交流会


・11/11(水)Asian STAMP Workshop

「Asian STAMP Workshop」は、システム理論に基づく安全性分析手法STAMP(※1)の提唱者のMIT ナンシーレブソン教授を迎え、アジアで初めてグローバルに開催します。第5回となるSTAMPワークショップ(日本語)と共に開催します。

9:00-10:20基調講演

  ナンシーレブソン氏 (米国 マサチューセッツ工科大学教授)

10:30-13:10 Asian STAMP Workshop(English5件) 休憩10分こみ

13:30-16:00  Asian STAMP Workshop(日本語5件)

16:00-16:15 休憩(スポンサーセッション)

16:15-19:00 ショートトークセッション

・11/12(木)FRAM Workshop(※2)

「FRAM Workshop」は、昨年に引き続きレジリエンス・エンジニアリングの

提唱者のエリック・ホルナゲル教授を迎え、議論します。

13:00-レジリエンスエンジニアリング発表(3件)

16:00-基調講演

 エリック・ホルナゲル氏 (スウェーデン ヨンショーピング大学教授)


※1:STAMP(System Theoretic Accident Model and Process)「安全/事故はシステムの構成要素の相互作用による創発特性である」という理論に基づく分析手法

※2:レジリエンスとは復元力、回復力を意味する言葉であり、レジリエンスエンジニアリングが提唱することの一つは、安全を旧来の考え方から「物事が正しい方向へと向かうことを保証する、すなわち、うまくいっていることから学ぶ」という新たな考え方への変革を促すこと。FRAM(Functional Resonance Analysis Method:機能共鳴分析手法)はその代表的分析手法。

※3:上の申込フォームにアクセスできない方は、お名前、ご所属、発表タイトルを「問い合わせ先」qaml.aiiot_symp (at) nii.ac.jpまでメールでお送りください。


現在、以下のスポンサー枠を募集しています。
スポンサー料の支払いは、機械学習工学研究会の口座への振り込みを予定しています。
ご質問、ご連絡はqaml.aiiot_symp (at) nii.ac.jpまでお願いします。
プラチナスポンサー: 10万円
申込サイトにロゴを掲示いたします。
11月10日か11月11日にスポンサー枠をご用意いたします。
ゴールドスポンサー: 5万円
申込サイトにロゴを掲示いたします。
シルバースポンサー: 2万円
申込サイトにロゴ(小)を掲示いたします。


AI/IoTシステム安全性シンポジウム実行委員会
実行委員長               吉岡信和(国立情報学研究所)
プログラム委員長   金子朋子(国立情報学研究所/NTTデータ)
アドバイザー           兼本茂(会津大学)、野本秀樹(JAMSS)
プログラム委員(五十音順)
岩永 寿来(チェンジビジョン)、岡本圭史(仙台高等専門学校)、日下部茂(長崎県立大学)、髙橋雄志(国立情報学研究所)、橋本岳男(日立産業制御ソリューションズ)、福島祐子(日本ユニシス)、向山輝(NEC)、 余宮尚志(東芝)、Patrick Daniel(三菱航空機)

問合せ先               📧qaml.aiiot_symp@nii.ac.jp

第2回「AI/IoTシステム安全性シンポジウム」の発表者募集     

第2回 AI/IoTシステム安全性シンポジウム、新型コロナウイルス世界的な感染拡大により、海外講演者の訪日が難しくなったこと、また、参加者の安全を確保する必要があることからオンライン開催を予定しています。本シンポジウムでは、第1回Asian STAMP Workshop、第2回FRAM Workshopをオンラインで併設開催します。


開催概要

現在の予定は以下の通りです。
・11/10(火)第2回 AI/IoTシステム安全性シンポジウム
招待講演 基調講演: 浦本直彦・株式会社三菱ケミカルホールディングス 執行役員
機械学習の有識者パネルディスカッション等

・11/11(水)Asian STAMP Workshop
招待講演(ナンシーレブソン教授)
第1回Asian STAMP Workshop(English/日本語)
*第5回STAMPワークショップ(日本語)は第1回Asian STAMP Workshopの一環と実施します。

・11/12(木)FRAM Workshop
招待講演(エリック・ホルナゲル教授)
第2回 FRAM Workshop

今後の主なスケジュールは以下の通りです。
・8月下旬  HP公開/ワークショップ発表募集開始
・9月末   募集締め切り/プログラムの決定・公開
・10月上旬 参加募集開始


2つのワークショップの一般発表者を
下記のように募集します。


「Asian STAMP Workshop」は、システム理論に基づく安全性分析手法STAMP(※1)の提唱者のMIT ナンシーレブソン教授を迎え、アジアで初めてグローバルに開催します。第5回となるSTAMPワークショップ(日本語)と共に開催します。英語と日本語の一般発表とポスターセッションを募集します。
<テーマ>
・STAMP、STPA、CAST等の適用事例/手法提案/実証実験等

「FRAMワークショップ」は、昨年に引き続きレジリエンス・エンジニアリングの提唱者のエリック・ホルナゲル教授を迎え、分析手法FRAM(※2)の適用事例/手法提案/実証実験等に関するプレゼン(日本語)を募集します。

2つのワークショップでは、複雑性、不確実性、曖昧性などの性質を持つシステムの安全性をいかに高めることができるかについて議論します。

※1:STAMP(System Theoretic Accident Model and Process)「安全/事故はシステムの構成要素の相互作用による創発特性である」という理論に基づく分析手法
※2:FRAM(Functional Resonance Analysis Method:機能共鳴分析手法)「複数の機能の相互インタラクションが、外乱に柔軟に対応する一方でエスカレーションを起こし、安全を脅かし得る」という考えに基づく分析手法


以下をクリックして発表概要(アブストラクトまたは論文)をお送りください。

ワークショップ発表申し込み

※上の申込フォームにアクセスできない方は、お名前、ご所属、発表タイトル、発表概要(日本語300500字、英語200-300word程度)、発表区分(一般発表(英語)、一般発表(日本語、ポスター)をページ末尾記載の「問い合わせ先」までメールでお送りください。Asian STAMP Workshop以外の発表区分は、一般発表(日本語)のみとなります。


「第2回AI/IoTシステム安全性シンポジウム」の開催延期のお知らせ

6月1日から3日に予定していました「第2AI/IoTシステム安全性シンポジウム」と併設開催の「Asian STAMP Workshop」、「AI/IoTシステム安全性ワークショップ」は新型コロナウイルスの世界的な感染拡大により、海外講演者の訪日が難しくなったこと、また参加者の安全を確保する必要があることから開催を延期することになりましたのでお知らせいたします。

後日改めまして開催をする予定ですので、日程が決まり次第再度お知らせいたします。

なお、「Asian STAMP Workshop」、「AI/IoTシステム安全性ワークショップ」の発表募集等は引き続き行ってまいります。ご了承のほどよろしくお願い致します。

QAML Seminar (2020/2/10)を開催します

お知らせ

  • 本セミナーは主催者の都合により延期になりました!
  • 開催日は追ってお知らせします。

QAMLセミナー

日時:2020年2月10日(月) 16:45-18:00
場所:国立情報学研究所 19階1901会議室

タイトル: 深層学習の汎化誤差のための近似性能と複雑性解析

発表者:今泉允聡(統計数理研究所 / 理化学研究所 / JST)

概要:深層学習の汎化誤差を理論的に評価するにあたって、既存の理論は深層学習の実際と乖離する点が多く残っている。そのギャップを埋めるため、実状を説明できるように理論を拡張する研究が盛んに行われている。本講演では、汎化誤差の評価に必要な重要な要素のうち、(1) 近似誤差および (2) 複雑性誤差に注目し、それらの研究動向を紹介する。具体的には、深層ニューラルネットワークが相対的に優れた近似性能を発揮する状況の解析、および仮設集合全体の複雑性に依存しない誤差の解析を扱う。また、それらのアプローチの現状の達成点と限界について述べ、今後の研究の方針を議論する。

参加費:無料(遠隔参加も可能です)

登録:必要(登録フォームは後日公開します)

セミナー後有志で講師を囲む懇親会(有料)を開催予定です。

 

関連情報

 

 

AI/IoTシステムのための安全性シンポジウム 資料公開

11/26, 28, 29に、国立情報学研究所QAMLプロジェクト主催イベント「AI/IoTシステムのための安全性シンポジウム」が開催され、ソフトウェア工学、セーフティ、セキュリティに関する国内の15団体の共催、協賛、後援で308名の参加者を集める盛況な会となりました。

 金子朋子 吉岡実行委員長と金子プログラム委員長

製造業、輸送業、コンピュータメーカ、ITベンダー、大学・研究機関など幅広く、約180の企業や団体からの参加となり、アンケート結果は大概、一般講演(FRAM)が理解度90%・満足度85%、「興味ある内容だった(STAMP)」が88%となりました。「盛況で素晴らしかった」、「使用者の動向のわかる、とても有意義な会だった。」等のコメントが寄せられました。

28日の交流会には44名の方が参加され、AI、IoTを含めた複雑なシステムの安全性や今後のシンポジウムや活動の在り方について、様々な意見を交換しました。

kouryu-kai 交流会(28日)にて

今回はセーフティの2大巨匠の一人、レジリエンス・エンジニアリング提唱者のエリック・ホルナゲル教授の基調講演でしたが、次回は来年の6/1-3で、もう一人の巨匠MITナンシー・レブソン教授の来日講演などを予定しています。1月下旬に一般発表論文募集も行いますので、是非ご応募ください。

本シンポジウムの講演資料・発表資料・アンケート結果を公開します。

Página no encontrada
Logotipo de Google

El archivo que has solicitado se ha eliminado.

Asegúrate de que tienes la URL correcta y de que el propietario del archivo no lo ha eliminado.

Haz cosas con Google Drive

Las aplicaciones de Google Drive hacen que resulte sencillo crear, almacenar y compartir online documentos, hojas de cálculo, presentaciones y mucho más.

Encontrarás más información en drive.google.com/start/apps.

QAML Seminar (2019/12/18)を開催します

QAMLセミナー

日時:2019年12月18日(水) 16:45-18:00
場所:Patia Jinbocho (パティア 神保町店)

タイトル:DeepStellar: Model-Based Quantitative Analysis of Stateful Deep Learning Systems

発表者:Lei Ma, 助教, 九州大学
概要:Deep Learning (DL) has achieved tremendous success in many cutting-edge applications. However, the state-of-the-art DL systems still suffer from quality issues. While some recent progress has been made on the analysis of feed-forward DL systems, little study has been done on the Recurrent Neural Network (RNN)-based stateful DL systems, which are widely used in audio, natural languages and video processing, etc. In this paper, we initiate the very first step towards the quantitative analysis of RNN-based DL systems. We model RNN as an abstract state transition system to characterize its internal behaviors. Based on the abstract model, we design two trace similarity metrics and five coverage criteria which enable the quantitative analysis of RNNs. We further propose two algorithms powered by the quantitative measures for adversarial sample detection and coverage-guided test generation. We evaluate DeepStellar on four RNN-based systems covering image classification and automated speech recognition. The results demonstrate that the abstract model is useful in capturing the internal behaviors of RNNs, and confirm that (1) the similarity metrics could effectively capture the differences between samples even with very small perturbations (achieving 97% accuracy for detecting adversarial samples) and (2) the coverage criteria are useful in revealing erroneous behaviors (generating three times more adversarial samples than random testing and hundreds times more than the unrolling approach). 

related paper

参加をご希望の方は、吉岡までお知らせください。

QAML Seminar (2019/11/27)を開催します

QAMLセミナー

日時:2019年11月27日(水) 16:45-18:00
場所:NII, 12F 1208

タイトル: Weighted Automata Extraction from Recurrent Neural Networks via Regression on State Spaces
発表者:関山太郎, 助教, NII
概要:
We present a method to extract a weighted finite automaton (WFA) from a recurrent neural network (RNN). Our algorithm is based on the WFA learning algorithm by Balle and Mohri, which is in turn an extension of Angluin's classic \lstar algorithm. Our technical novelty is in the use of regression methods for the so-called equivalence queries, thus exploiting the internal state space of an RNN. This way we achieve a quantitative extension of the recent work by Weiss, Goldberg and Yahav that extracts DFAs. Experiments demonstrate that our algorithm's practicality.

参加をご希望の方は、吉岡までお知らせください。

「AI/IoTシステムのための安全性シンポジウム」参加者募集!!

開催概要

皆様のおかげさまで、308名の参加者を集め盛況にシンポジウムを終えることができました。

シンポジウムの報告及び資料は資料公開のページにて公開しております。


AI応用システムやIoTシステムの安全性に対する関心が高まりを見せています。本シンポジウムでは、AI/IoTシステムの安全性に関する著名な研究者やミッションクリティカルな産業の有識者による講演と共に、「FRAMワークショップ」(11/26)と「STAMPワークショップ」(11/28, 29)を開催します。(参加費:無料)
2つのワークショップでは、レジリエンス・エンジニアリングにおける分析手法FRAM(※1)やシステム理論に基づく安全性分析手法STAMP(※2)によって、複雑性、不確実性、曖昧性などの性質を持つシステムの安全性をいかに高めることができるかについて議論します。

Engineerable AI、XAI(説明可能なAI)、IoTの安全を知りたい方、AI/IoTを含んだシステムの開発やリスク分析に関わる方、レジリエントなシステム、ミッション・クリティカルなシステムに興味のある方、機械学習システムの安全性・信頼性を検討している方、参加無料ですので、ぜひお気軽にご参加ください。
(聞きたい講演のみに絞った部分的なご参加ももちろん可能です)
11/28の午前中には、STAMPと安全性のチュートリアルを実施しますので、STAMPを知らない方や安全性の基礎から学びたい方もぜひご参加ください。

*STAMP向けモデリングツール STAMP Workbench は以下からダウンロードできます。
http://www.change-vision.com/stamp/


日時:2019年11月26日(火) 開場:9:30
場所:
国立情報学研究所(NII)12階 1208会議室 (東京都千代田区一ツ橋2-1-2

日時:2019年11月28日(木)、29日(金) 開場:9:30
場所:NTT DATA 駒場研修センター 1階 イベントホール (東京都目黒区駒場2-18-2

主催:国立情報学研究所(NII)
「高信頼な機械学習応用システムによる価値創造(QAML)」プロジェクト
共催:独立行政法人情報処理推進機構(IPA)、
株式会社エヌ・ティ・ティ・データ、
有人宇宙システム株式会社
協賛:株式会社チェンジビジョン、
一般社団法人日本ソフトウェア科学会 機械学習研究会(MLSE)、
一般社団法人日本セキュリティ・マネジメント学会(JSSM)、
一般財団法人日本科学技術連盟(JUSE)、
一般社団法人電子情報通信学会 知能ソフトウェア工学研究会(KBSE)、
一般社団法人情報処理学会 ソフトウェア工学研究会(SIGSE)、
一般社団法人情報処理学会 コンピュータセキュリティ研究会(CSEC)、
一般社団法人 組込みシステム技術協会(JASA)、

特定非営利活動法人安全工学会(JSSE)
後援:独立行政法人日本学術振興会 第192(サイバーセキュリティ)委員会
一般社団法人JASPAR(Japan Automotive Software Platform and Architecture)


… 注目のセッション …………………………………………………………

【基調講演】


エリック・ホルナゲル氏(スウェーデン ヨンショーピング大学教授)
講演:"The Impact of AI on Human Work"

 

【招待講演】


原 聡氏(大阪大学産業科学研究所 / 助教)

「機械学習モデルの判断根拠の説明」
本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演では近年の代表的な研究について紹介する。パネルディスカッションのパネリスト。

 


石濱 直樹氏(研究開発法人 宇宙航空研究開発機構 研究開発部門 第三研究ユニット 主幹研究開発員)

「宇宙機等のクリティカルシステムの品質について(仮題)」

 

佐々木 良一氏(東京電機大学 特命教授)

「AI/IoTシステムの安全性確保のための考察
AI/IoTシステムの安全性確保のためにまずAIと安全性をめぐる4つの観点から分析を行う。(a)Attack using AI、(b) Attack by AI、 (c) Attack to AI、 (d) Measure using AI。次に、IoTシステムのセキュリティとリスク評価について研究状況を紹介したのちAI機能を持つIoTシステムのリスク評価に関する考察を行う。パネルディスカッションのパネリスト。

【共催者講演】


中尾 昌善氏((独)情報処理推進機構 社会基盤センター グループリーダ)

「アーキテクチャ視点で挑むSociety5.0の実現」
Society5.0では、その見取り図となる考え方や概念を「アーキテクチャ」という構造で捉え、推進の礎にしていこうとしています。アーキテクチャ検討のベースとなるシステムズエンジニアリングとIoTに関する取組みを紹介します。

【共催者講演(チュートリアル)】

野本 秀樹氏(有人宇宙システム株式会社 IV&V研究センター長)

「STAMPと創発性」
STAMPの理論における重要なキーワードである「創発性」が、STAMPのモデルにどのように表現され得るのかについて概説する。

 


兼本 茂氏(会津大学名誉教授・IPA IoTシステム安全性向上技術WG 主査)

「システム思考で考える複雑システムの安全とSTAMP」
STAMP for complex system safety design based on systems theory
AI・IoT時代の複雑システムの安全は、従来の安全規格の範囲で守ることはできない。故障がなくても事故は起きるということを前提に安全設計をしないといけない。この背景と、そのための方法論の一つとして期待されているSTAMPの考え方を述べる。

【パネルディスカッション】
「信頼できるAIシステムのために今取り組むべき課題と持続可能な社会への展望」 

中江 俊博氏((株)デンソー ソフトウェア先行開発室 課長)、パネリスト。

北村 知氏(JR東日本 研究開発センター 主幹研究員)、パネリスト。

吉岡 信和氏(国立情報学研究所 准教授・QAMLプロジェクトリーダー)、司会 。

=====================================================

プログラム20191122時点

参加お申し込みはこちらへ

  • 参加の際は、名刺かconnpassの「受付票」をお持ちいただき、会場でお渡しするネームホルダーに入れてください。
  • ネームホルダーを回収する際に名刺・受付票も同時に回収させていただき、出席の記録とさせていただきます。
  • 11/26の参加お申込み希望者が多かったため定員を150人まで増やしましたが、満席となりました

 

11/28の交流会の参加お申し込みはこちらへ

  • 11/28(木)18:00~19:00に講演者や参加者のネットワーキングの場として「交流会」を開催しますので、ぜひご参加ください。
    (会費1000円・ソフトドリンクと軽食のみ)
  • STAMPやFRAM、AIについて日頃思っていること、いまさら聞けない素朴な疑問などについて、軽食とドリンクを片手に気軽に語り合いませんか? 

AI/IoTシステムのための安全性シンポジウム実行委員会
・実行委員長:吉岡信和(NII) プログラム委員長:金子朋子(NII/NTTデータ)
・アドバイザー:兼本茂(会津大学)、野本秀樹(JAMSS)
・プログラム委員:岩永 寿来(チェンジビジョン)、岡本圭史(仙台高等専門学校)、日下部茂(長崎県立大学)、髙橋雄志(東京電機大)、橋本岳男(日立産業制御ソリューションズ)、福島祐子 (日本ユニシス)、向山輝(IPA)、 余宮尚志(東芝)Patrick Daniel(三菱航空機) あいうえお順

問合せ先(主催者):
qaml.aiiot_symp@nii.ac.jp(本メールアドレスにてお問合せください)
※ 送付いただいた個人情報は、本シンポジウムの主催者が管理し、本シンポジウムに関わる連絡以外の目的では使用いたしません。


※1:FRAM(Functional Resonance Analysis Method:機能共鳴分析手法)「複数の機能の相互インタラクションが、外乱に柔軟に対応する一方でエスカレーションを起こし、安全を脅かし得る」という考えに基づく分析手法
※2:STAMP(System Theoretic Accident Model and Process)「安全/事故はシステムの構成要素の相互作用による創発特性である」という理論に基づく分析手法

QAML Seminar: Requirements for Machine Learning Application on 9th October 2019

Seminar programme

Time and Date: 15:30-17:00, 9th October 2019 (starting time was changed.)
Place: 2010 meeting room, 20th floor, NII
Admission fee: free
Registration: required at https://forms.gle/fjbPLDDtn1AAz4En7
Remote attendance will be avaliable and the url will be announced to those who want.

Invited talk

Amel
Invited Speaker: Amel Bennaceur, Lecturer, the Open University, UK
Title: Machine Learning Software is Still Software
Abstract:

Machine Learning (ML) is the discipline that studies methods for automatically
inferring models from data. Machine learning has been successfully applied in
many areas of software engineering ranging from behaviour extraction, to
testing, to bug fixing. However, there is comparatively less research on applying
software engineering techniques to designing and implementing machine
learning applications.
Machine learning techniques disrupt the traditional models of software
development and call for quicker, if not immediate, response from requirements
engineering (RE). Indeed, the social underpinning and the increasing reliance on
software systems for every aspect of our life, call for better methods to
understand the impact and implications of software solutions on the wellbeing of
individuals and society as a whole. The intrinsic ability of RE to deal with
conflicts, negotiation, and its traditional focus on tackling those wicked problems
is highly beneficial.
The seminar will review and reflect on the synergies between machine learning
and software engineering. In this seminar, I will introduce the principles of
machine learning, give an overview of some key methods, and present examples
of interaction between software engineering and machine learning. I will also
discuss some open challenges on how machine learning can benefit from
software engineering methods in general and requirements engineering in
particular.

Bio:
Dr. Amel Bennaceur is a Lecturer (Assistant Professor) in Computing at the Open
University, UK. She received her PhD degree in Computer Science from the
University of Paris VI in 2013. Her research interests include dynamic mediator
synthesis for interoperability and collaborative security.
She was part of the Connect and EternalS EU projects that explored synergies
between machine learning and software synthesis.
The results of her work have been published in leading conferences and journals
such as Middleware, ECSA, and IEEE TSE. Bennaceur has been a member of the
program committee of several software engineering conferences including
RE:Next 2016 and ESEC/FSE 2015-NIER. She has been the program co-chair for
ESEC/FSE 2017 Artifact track and SEAMS 2019 and is co-chairing the Poster
Track at RE 2020.

2nd talk

QAML speaker: Hiroshi Kuwajima, DENSO corp.
Title: Adapting SQuaRE for Quality Assessment of Artificial Intelligence Systems
Abstract:
More and more software practitioners are tackling towards industrial applications of artificial intelligence (AI) systems, especially those based on machine learning (ML). However, many of existing principles and approaches to traditional systems do not work effectively for the system behavior obtained by training not by logical design. In addition, unique kinds of requirements are emerging such as fairness and explainability. To provide clear guidance to understand and tackle these difficulties, we present an analysis on what quality concepts we should evaluate for AI systems. We base our discussion on ISO/IEC 25000 series, known as SQuaRE, and identify how it should be adapted for the unique nature of ML and Ethics guidelines for trustworthy AI from European Commission. We thus provide holistic insights for quality of AI systems by incorporating the ML nature and AI ethics to the traditional software quality concepts.