優秀発表賞(SLDM研究会/DAシンポジウム)

優秀発表賞(SLDM研究会/DAシンポジウム)

賞の概要 発表を奨励して質の向上を図るために設けた賞。DAシンポジウム・各研究発表会開催毎に、優秀な発表に対し授与する。
選考委員会 システムLSI設計技術研究運営委員会
選考方法 発表を聴講した研究運営委員や座長の評価により決定する。
選考基準
  • 優秀発表賞:受賞内定時に SLDM 研究会の登録会員であること。DAシンポジウム・各研究発表会開催毎に、優秀な発表から数件を選考する。1年間の受賞者の中から1件最優秀発表賞を授与する。
  • セッション特別賞:受賞内定時に SLDM 研究会の登録会員であること。DAシンポジウム・各研究発表会開催毎に、優秀な修士課程以下の学生の発表から、各セッションで最大1件、全体で数件を選考する。
  • 主査特別賞:受賞内定時に SLDM 研究会の登録会員であること。「SLDM研究会で2件以上」または「連催研究会も含めて2件以上(ただしSLDM 研究会で少なくとも1回)」の条件を満たす最多発表者に授与する。
表彰等 DAシンポジウムにて表彰し、賞状を授与する。最優秀発表賞に賞金1万円を贈呈する。

2020年度

研究会 受賞者(所属) タイトル
最優秀発表賞
DAシンポジウム2020 島村光太郎
(日立製作所)
実回路の経年速度劣化測定結果の環境変動補正手法
優秀発表賞
DAシンポジウム2020 島村光太郎
(日立製作所)
実回路の経年速度劣化測定結果の環境変動補正手法
大島國弘
(京都大学)
n型有機薄膜トランジスタのバイアス・ストレス特性変動における物理メカニズムの実験的評価
増田豊
(名古屋大学)
クリティカルパス・アイソレーションとビット幅削減を用いた過電圧スケーリング向け省電力設計手法
塩見準
(京都大学)
集積ナノフォトニクスに基づく耐タンパ光論理回路
記伊智也
(京都工芸繊維大学)
FDSOIプロセスにおけるガードゲート構造を用いたフリップフロップのソフトエラー耐性の実測評価
髙島康裕
(北九州市大学)
整数線形計画法に対する変数削減による高速化とEMVRPへの応用
第192回SLDM研究会 小野義基
(芝浦工業大学)
Approximate Computingを用いた不揮発性メモリへの画像データ書き込みにおけるエネルギー削減手法
石原浩樹
(芝浦工業大学)
不揮発フリップフロップを利用した個体認証技術PUFの検討とモデル化攻撃への耐性評価
鈴木宏海
(慶應義塾大学)
Responsive Linkを用いた分散リアルタイムシステムにおけるRT-DVFS手法
小平行秀
(会津大学)
LSIにおけるセル配置手法を用いた身体的距離を考慮した座席レイアウト手法
第193回SLDM研究会 Ding Yi
(The Univ. of Tokyo)
Quantization Techniques for Small Number of Bits in Transformer based Natural Language Processing
難波学之
(関西学院大学)
データ生成プログラムを利用したデータ構造の推定に基づく変異ベースファジング
村上大喜
(関西学院大学)
ランダムプログラム生成によるCコンパイラのVRP最適化の性能テスト
第194回SLDM研究会 福嶋泰優
(慶應義塾大学)
PYNQクラスタ上でのResNetの並列実装
田宮豊
(富士通研究所)
量子化深層学習のための精度シミュレータ
辻川敦也
(日本大学)
レジスタ転送レベルにおけるアンチSATに基づく論理暗号化法
セッション特別賞
DAシンポジウム2020 原田彰吾
(京都大学)
しきい値電圧差を利用した時間領域処理による広い電源電圧で動作するCMOS温度センサ
可児冬弥
(広島市立大学)
ストカスティック計算に基づくニューラルネットワークにおけるシグモイド関数の演算精度に関する解析
有働岬
(京都大学)
電源電圧と基板電圧の動的調整がランダムテレグラフに起因する遅延ばらつきに及ぼす影響
柴田晃陽
(立命館大学)
FPGAのDSPブロック向け汎用的テクノロジマッパの網羅的探索による実現可能性検討
ahsin Binte Shameem
(Tokyo Institute of Technology)
A Fast Look Up Table Based Lithography Simulator with SOCS Model for OPC Algorithm
清水亮太
(京都大学)
パストランジスタ回路の網羅的列挙による素子数最小回路の探索
第192回SLDM研究会 鈴木宏海
(慶應義塾大学)
Responsive Linkを用いた分散リアルタイムシステムにおけるRT-DVFS手法
第193回SLDM研究会 Ding Yi
(The Univ. of Tokyo)
Quantization Techniques for Small Number of Bits in Transformer based Natural Language Processing
第194回SLDM研究会 福嶋泰優
(慶應義塾大学)
PYNQクラスタ上でのResNetの並列実装