応用

グラフ→テキスト

グラフ→分類

データセット
Benchmark Data Sets for Graph Kernels
IMDB-BIMDB-MRDT-BRDT-M5KCOLLABMUTAGPROTEINSPTCNCI1
U2GNN77.04 ± 3.4553.60 ± 3.5380.2550.989.9778.5369.63 ± 3.60
MEWISPool82.1356.2379.66 ± 4.0296.66 ± 1.2380.71 ± 2.31
U2GNN-Unsupervised96.4189.2084.877.2595.6281.3480.0184.59
HGP-SL84.9178.45
DUGNN+EXTRA TRAINING DATA78.7 ± 4.956.1 ± 2.384.2 ± 2.781.7 ± 2.474.7 ± 6.085.5 ± 1.2
sGIN77.94±4.3154.52±0.3980.71±1.4894.14±2.7478.97±3.1773.56±4.2783.85±1.05
GIN(GIN-0)75.152.392.457.580.289.476.264.682.7
GCAPS-CNN71.69 ± 3.4048.50 ± 4.1087.61 ± 2.5150.10 ± 1.7277.71 ± 2.5176.40 ± 4.1766.01 ± 5.9182.72 ± 2.38
CapsGNN73.1050.2779.6286.6776.2878.35
LDP(Local Degree Profile)75.450.092.155.978.190.172.761.773.0
RetGK71.947.792.656.181.090.375.884.5
PATCHY-SAN(PSCN)71.00 ± 2.2945.23 ± 2.8486.30 ± 1.5849.10 ± 0.7072.60 ± 2.1588.95±4.3775.00 ± 2.5160.00 ± 4.8276.34 ± 1.68
Invariant and Equivariant Graph Networks71.27±4.548.55±3.977.92±1.784.61±1075.19±4.359.47±7.372.48±2.5

グラフ→ノード分類

Pitfalls of Graph Neural Network Evaluation
Fixed splits
CiteSeerCoraPubMed
ACMII-Snowball-282.07 ± 1.0488.95 ± 1.0490.56 ± 0.39
ACM-Snowball-381.32 ± 0.9789.59% ± 1.5891.44 ± 0.59
ACMII-GCN81.79 ± 0.9589.00 ± 0.7290.74 ± 0.5
SSP80.5290.1689.36
Graph-Bert71.284.379.3
APPNP71.8 ± 0.583.3 ± 0.580.1 ± 0.2
SGC(Simple Graph Convolution)71.9 ± 0.181.0 ± 0.078.9 ± 0.0
Deep Graph Infomax71.8 ± 0.782.3 ± 0.676.8 ± 0.6
SEGCN(Self-Ensembling GCN)73.4 ± 0.783.5 ± 0.478.9 ± 0.7
AGNN71.7 ± 0.0883.1 ± 0.0879.9 ± 0.07
GraphSGAN73.1 ± 1.883.0 ± 1.3
GAT 実装72.5 ± 0.783.0 ± 0.779.0 ± 0.3
GWNN71.782.879.1
GCN(Graph Convolutional Network)70.381.579.0
FastGCN

Random splits
CiteSeerCoraPubMed
APPNP70.0 ± 1.482.2 ± 1.579.4 ± 2.2
GAT72.2 ± 0.982.6 ± 0.776.7 +- 0.5
SEGCN69.0 ± 0.980.8 ± 1.078.0 ± 1.4
AdaLanczosNet68.7 ± 1.080.4 ± 1.178.1 ± 0.4
GCN66.8 ± 0.779.6 ± 0.678.3 ± 0.7
LanczosNet66.2 ± 1.979.5 ± 1.878.3 ± 0.3


Stanford Large-Scale 3D Indoor Spaces Dataset (S3DIS)
mIOU
ResGCN-2860.0
DGCNN56.1
要約
Results of abstractive summarizers on the CNN-DM dataset
ROUGE 1ROUGE 2ROUGE L
RankSum44.524.041.0
MatchSum44.4120.8640.55
PEGASUSLARGE44.1721.4741.11
BertSumExt (large)43.8520.3439.90
UNILM43.4720.3040.63
Pretraining-Based Natural Language Generation for Text Summarization41.7119.4938.79
Bottom-Up Summarization41.2218.6838.34
Sentence Rewriting (Chen and Bansal, 2018)40.8817.8038.54
Pointer-Generator Networks + Coverage Penalty39.5317.2836.38
seq-to-seq + attn baseline (50k vocab)31.3311.8128.83
Question Answering
DREAM
ModelAccuracy
Human Ceiling Performance98.6
Human Performance95.5
ALBERT-xxlarge + HRCA+ + Multi-Task Learning92.6
ALBERT-xxlarge + DUMA + Multi-Task Learning91.8

SQuAD
Leaderboard
SQuAD1.1 EMSQuAD1.1 F1SQuAD2.0 EMSQuAD2.0 F1
Retro-Reader (ensemble)90.57892.978
ALBERT + DAAF + Verifier (ensemble)90.38692.777
Retro-Reader on ALBERT (ensemble model)90.11592.580
Retro-Reader on ELECTRA89.56292.052
Megatron-LM 3.9B ensemble90.595.889.091.7
T5-11B90.0695.64
ALBERT (ensemble model)90.195.589.73192.215
ELECTRA88.791.4
XLNet + DAAF + Verifier (ensemble)88.59290.859
Retro-Reader on ALBERT (single model)88.191.4
ALBERT (single model)88.10790.902
XLNet + SG-Net Verifier (ensemble)88.17490.702
XLNet + SG-Net Verifier++ (single model)87.23890.071
BERT + DAE + AoA (ensemble)87.14789.474
RoBERTa (single model)87.14789.795
BERT + ConvLSTM + MTL + Verifier (ensemble)86.73089.286
BERT + N-Gram Masking + Synthetic Self-Training (ensemble)86.67389.147
XLNet (single model)89.89895.08086.34689.133
SpanBERT (single model)88.83994.63585.74888.709
BERT + DAE + AoA (single model)85.88488.621
BERT (Ensemble + TriviaQA)87.43393.160
UNILM80.583.4
BERT (single model)85.08391.83580.00583.061
EfficientBERT++ 16.0M78.386.573.076.1
データセット
ProPara

XTREME
AvgSentence-pair ClassificationStructured PredictionQuestion AnsweringSentence Retrieval
HUAMN93.395.197.087.8
Turing ULR v584.590.381.776.393.7
VECO81.488.975.672.992.7
T-ULRv2 + StableTune80.788.875.472.989.3
FILTER77.087.571.968.584.4
X-STILTs73.583.969.467.276.5
XLM-R (large)68.282.869.062.361.6
mBERT59.673.766.353.847.7
固有表現抽出(Named Entity Recognition)

🖹テキスト→分類

20NGR8R52OhsumedMR
SSGC(Simple Spectral Graph Convolution)88.6±0.197.4±0.194.5±0.268.5±0.176.7±0.0
NABoE-full88.197.9
GraphStar86.9 ± 0.397.4 ± 0.295.0 ± 0.364.2 ± 0.676.6 ± 0.4
SGC(Simple Graph Convolution)88.5 ± 0.197.2 ± 0.194.0 ± 0.268.5 ± 0.375.9 ± 0.3
Text GCN86.34 ± 0.0997.07 ± 0.1093.56 ± 0.1868.36 ± 0.5676.74 ± 0.20
SWEM (Simple Word-Embedding-based Models)85.16 ± 0.2995.32 ± 0.2692.94 ± 0.2463.12 ± 0.5576.65 ± 0.63

🖹テキスト→🖼️画像

COCO FID
Imagen 2
DALL-E 3
Imagen7.27
DALL-E 210.39
GLIDE (Nichol et al., 2021)12.24
Stable Diffusion

Visual AutoRegressive Modeling: Scalable Image Generation via Next-Scale Prediction


Inception scores
COCOCUBOxford-102
MirrorGAN26.47 ± 0.414.56 ± 0.05
AttnGAN25.89 ± .474.36 ± .03
HDGAN11.86±.184.15±.053.45±.07
CWPGGAN4.09 ± 0.033.86 ± 0.02
Recurrent C4Synth4.07 ± .133.52 ± .15
TAC-GAN3.45±.05
MSGAN
StackGAN-v2(StackGAN++)8.30 ± .103.82 ± .063.26 ± .01
CanvasGAN
FusedGAN
StackGAN8.45 ± .033.70 ± .043.20±.01

🖹テキスト+🎥参照動画→🎥動画

💬音声→💬音声

音楽音源分離 音色変換 音声変換(ボイスチェンジャー)

画像→グラフ

画像→ポーズ

🖼️画像→物体認識情報

オブジェクト検出(ボックス) ※Titan X を使用時のFPS
PASCAL VOC 2012 mAP(%)VOC 2007 testCOCO test-dev mAP@[0.5:0.95]ImageNet VID
Co-DETR66.0(304M)
Stable DINO+ Swin-L63.8 (218M)
Soft Teacher + Swin-L(HTC++, multi-scale)61.3
DyHead60.6
Dual-Swin-L60.1(453M)
Swin-L(HTC++, multi scale)58.7(284M)
CenterNet2(Res2Net-101-DCN-BiFPN, self-training, 1560 single-scale)56.4
YOLOv4-P7(CSP-P7, multi-scale)55.8(16FPS)
YOLOR-D655.4(30FPS)
EfficientDet-D7x55.1(410B)
DetectoRS(ResNeXt-101-32x4d, multi-scale)54.7
UniverseNet-20.08d(Res2Net-101-v1b)54.1
YOLOv8x53.9(68.2M, 257.8B)
EfficientDet-D753.7(325B)
Cascade Mask R-CNN / Triple-ResNeXt15253.3
YOLOv8l52.9(43.7M, 165.2B)
EfficientDet-D652.6(226B)
YOLOX-x51.5(281.9GFLOPS)
EfficientDet-D551.5(136B)
AmoebaNet + NAS-FPN + learned augmentation + ↑ anchors, ↑ image size50.7(3045B)
YOLOv8m50.2(25.9M, 78.9B)
EfficientDet-D449.7(55B)
YOLOv5x49.2(166.4B)
NAS-FPN/AmoebaNet (7 @ 384) +DropBlock48.3
YOLOv5l47.7(88.1B)
EfficientDet-D347.2(24.9B)
CenterNet-HG / Hourglass-10445.1(1.4FPS)
YOLOv8s44.9(28.6B)
YOLOv5m44.3(39.4B)
YOLOv4 608 / CSPDarknet-5343.5(33FPS)
M2Det / VGG-1644.2
EfficientDet-D243.0(11B)
Cascade R-CNN / ResNet-10142.8
RefineDet512+ / ResNet-10141.8
M2Det / VGG-1641.0(11.8FPS)
RetinaNet / ResNeXt-101-FPN40.8
EfficientDet-D140.5(6B)
CenterNet-DLA / DLA-3439.2(28FPS)
RefineDet512+ / VGG-1683.583.837.6
R-FCN++ multi-sc train80.682.137.5
YOLOv5s37.0(13.2B)
EfficientDet-D034.6(2.5B)
FAIR's research platform
クロスドメイン 顔抽出 テキスト抽出
インスタンスセグメンテーション
COCO test-dev
BackboneAPFPS
HTC(multi-scale)Dual-Swin-L52.3
HTC++(multi-scale)Focal-L51.3
Cascade-RCNNResNeSt10141.56
CenterMask2V2-9941.414.4
BlendMaskR-10141.39.52
Mask R-CNNResNeSt10140.65
BCNetR-101-FPN39.8
CenterMaskR-101-FPN39.611.5
MS R-CNNR-101-FPN39.68.6
Mask R-CNNR-101-FPN38.48.6
BlendMask-RTR-10136.821
CenterMask2-LiteV-3936.734
YOLACT++Resnet50-FPN34.133.0
YOLACT-700R-101-FPN31.223.6
YOLACT-550R-101-FPN29.833.0

ポーズ抽出 認識&QA

🖼️画像→分類

CIFAR-10CIFAR-100CINIC-10ImageNet top-1/top-5ImageNet-CImageNet-PImageNetV2
CoAtNet9.12%(Param 2.44B)
ViT-G/14+Extra Data9.55±0.03(Param 1843M)16.67±0.03
EfficientNet (L2)+Meta Pseudo Labels+Extra Data(300M unlabeled JFT)9.8/1.2(Param 480M)
EfficientNet (L2)+ SAM+Extra Data0.30±0.013.92±0.0611.39/(Param 480M)
BEiT11.4/1.34(Param 306M)
FixEfficientNet (L2)+Extra Data(300M unlabeled images)11.5/1.3(Param 480M)
EfficientNet-L2 +Noisy Student (L2) + RandAugment +Extra Data(300M unlabeled images)11.6/1.3(Param 480M)22.2%13.6%
BiT-L(JFT-300M Extra Data)0.636.40±0.1812.2
FixEfficientNet-B7+Extra Data12.9/1.8(Param 66M)
VOLO-D5↑51212.9(Param 296M)22.0(Param 296M)
EfficientNet-B7 + Noisy Student(L2)+RandAugment+Extra Data13.1/1.9(Param 66M)
BEiT-base(ViT; ImageNet 1K pretrain)13.2/1.9(Param 87M)
EfficientNetV2-L (21k)13.2(Param 120M)/53B
FixEfficientNet-B6+Extra Data13.3/2.0(Param 43M)
FixEfficientNet-B5+Extra Data13.6/2.1(Param 30M)
EfficientNet-B6 + Noisy Student(L2) + RandAugment + Extra Data13.6/2.1(Param 43M)
FixResNeXt-101 32×48d13.6/2.0(Param 829M)
VOLO-D3↑44813.7(Param 86M)22.3(Param 86M)
EfficientNetV2-M (21k)13.8(Param 54M)/24B
EfficientNet-B5 + Noisy Student(L2) + RandAugment + Extra Data13.9/2.2(Param 30M)
FixEfficientNet-B4+Extra Data14.1/2.3(Param 19M)
Fix-EfficientNet-B8+MaxUp+CutMix14.20/(Param 87.42M)
FixEfficientNet-B814.30/2.4(Param 87.42M)
EfficientNet-B8+AdvProp14.5/2.7(Param 88M)
ResNeXt-101 32×48d14.6/2.4(Param 829M)
EfficientNet-B4 + Noisy Student(L2) + RandAugment + Extra Data14.7/2.5(Param 19M)
FixEfficientNet-B714.7/2.6(Param 66M)
EfficientNetV2-S (21k)15.0(Param 24M)/ 8.8B
FixEfficientNet-B3+Extra Data15.0/2.6(Param 12M)
FixEfficientNet-B615.1/2.7(Param 43M)
EfficientNet-B6+AdvProp15.2(Param 43M)
FixEfficientNet-B515.3/2.8(Param 30M)
EfficientNet-B71.18.315.6/2.9(Param 66M)
ResNet-RS-5015.6(Param 192M)
EfficientNet-B5+AdvProp15.7(Param 30M)
LambdaResNet20015.7(Param 42M)
EfficientNet-B3 + Noisy Student(L2)+ RandAugment +Extra Data15.9/3.1(Param 12M)
FixEfficientNet-B416.0/3.0(Param 19M)
LambdaResNet15216.0(Param 35M)
VAN-Large16.1(Param 44.8M)
EfficientNetV2-S16.1(Param 22M)
AmoebaNet-C (6,228)+ARS-Aug16.12/3.28
AmoebaNet-C (6,228)+AutoAugment16.46/3.52(Param 155.3M)
RegNetY-8.0GF31.3±0.08(infer 113ms)
FixEfficientNet-B317.0/3.6(Param 12M)
EfficientNet-B4+AdvProp16.7(Param 19M)
VAN-Base17.2(Param 26.6M)
SENet-15417.28/3.79
FixEfficientNet-B1+Extra Data17.4/3.6(Param 7.8M)
EfficientNet-B2 + Noisy Student(L2) + RandAugment +Extra Data17.6/3.7(Param 9.2M)
EfficientNet-B3+AdvProp18.1(Param 12M)
EfficientNet-B1 + Noisy Student(L2)+ RandAugment + Extra Data18.5/4.2(Param 7.8M)
FixEfficientNet-B118.7/4.3(Param 7.8M)
Dual-Path-Net-13118.55/4.16(Param 79.5M)
RepVGG-B3-200epochs19.48(Param 110.96M)
EfficientNet-B2+AdvProp19.5(Param 9.2M)
FixEfficientNet-B0+Extra Data19.8/4.6(5.3M)
EfficientNet-B2 + AutoAugment19.73/5.02(9.2M)
Inception-ResNet-v2 + SENet19.80/4.79
EfficientNet-B1+AdvProp20.4(Param 7.8M)
FixEfficientNet-B020.7/5.4(Param 5.3M)
MixNet-L21.1/5.8(Param 7.3M)
EfficientNet-B0 + Noisy Student(L2)+ RandAugment + Extra Data21.2/5.5(Param 5.3M)
EffNetV2-B021.3(Param 7.1M)
SE-Res2Net-5021.56/5.94(Param 25M)
MobileViT-S21.6(Param 5.6M)
PyramidNet + ShakeDrop regularization + ARS-Aug1.26(Param 26.0M)10.24 (Param 26.0M)
PyramidNet + ShakeDrop regularization + AutoAugment1.5±0.1(Param 26.0M)10.7 ± 0.2 (Param 26.0M)
PyramidNet + ShakeDrop regularization + Population Based Augmentation (PBA)1.46 ± 0.07710.94 ± 0.094
WRN-SRS4.06(Param 36.5M)10.10(Param 106.4M)
EfficientNet-B0+AdvProp22.4(Param 5.3M)
EfficientNet-B0 + AutoAugment22.7/6.5(Param 5.3M)
ShuffleNetV2+ Large22.9/6.7(Param 6.7M)
MixNet-M23.0/6.7(Param 5.0M)
MobileNetV323.4/(Param 7.5M) or 26.7(Param 4M)
PyramidNet-200 (α˜=240)+ CutMix + ShakeDrop13.81(Param 26.8 M)
MnasNet-92 (+SE) 23.87/7.15(Param 5.1M)
ShuffleNetV2+ Medium24.3/7.4(Param 5.6M)
VAN-Tiny24.6(Param 4.1M)
SharpSepConvDARTS1.98±0.07(Param 3.6M)25.1/7.8(Param 4.9M)
MobileViT-XS25.2(Param 2.3M)
NAONet + Cutout2.11(Param 128M)14.36(Param 128M)
MobileNetV225.3/7.5(Param 6.9M) or 28.0/9.0(Param 3.4M)
PyramidNet+ ShakeDrop regularization + Cutout2.31(Param 26.0M)12.19 (Param 26.0M)
NASNet-A (7 @ 2304) + cutout+AdaNet2.30(Param 26.4M)
NASNet-A (7 @ 2304) + cutout2.40(Param 27.6M)
BlockQNN-Connection more filters2.35(Param 33.3M)14.83(Param 33.3M)
NAONet + Cutout15.67(Param 10.8M)
AmoebaNet-B (N=6, F=128) + cutout2.13±0.04(Param 34.9M)15.80(Param 34.9M)
WideResNet-22 + AgrLearn2.45
Shake-Shake + Cutout2.56± 0.0715.20± 0.21(Param 34.4M)
AlphaX+Cutout 実装2.82(Param 5.1M)24.5/7.8(Param 7.2M)
ProxylessNAS2.08(Param 5.7M)25.4/7.8
GDAS(C=36,N=6)+CutOut2.82(Param 2.5M)18.13(Param 2.5M)
ASNG-NAS2.83±0.14(Param 3.9M)
DARTS + Cutout2.83±0.06(Param 3.4M)26.9/9.0(Param 4.9M)
ENAS + micro search space + CutOut2.89(Param 4.6M)
SNAS + cutout2.98(Param 2.89M)27.3/9.2(Param 4.3M)
AmoebaNet-A(6, 36)3.34±0.06(Param 3.2M)
テクニック
Top-1 Err(%)Top-5 Err(%)
Baseline: PyramidNet-200(α˜=240)(# params:26.8M)16.453.69
+ Mixup(α=1.0)15.633.99
+ DropBlock + Label smoothing (ε=0.1)15.163.86
+ Cutout + Manifold Mixup (α=1.0)15.093.35
+ ShakeDrop15.082.79
+ CutMix14.472.97
+ CutMix + ShakeDrop13.812.29

Error rate (%) for CIFAR10
Methods/Labels40250500100020004000
PiModel53.02±2.0541.82±1.5231.53±0.9823.07±0.6617.41±0.37
PseudoLabel49.98±1.1740.55±1.7030.91±1.7321.96±0.4216.21±0.11
Mixup47.43±0.9236.17±1.3625.72±0.6618.14±1.0613.15±0.20
VAT36.03±2.8226.11±1.5218.68±0.4014.40±0.1511.05±0.31
MeanTeacher47.32±4.7142.01±5.8617.32±4.0012.17±0.2210.36±0.25
MixMatch47.54±11.5011.08±0.879.65±0.947.75±0.327.03±0.156.24±0.06
iGPT-L26.8±1.512.4±0.65.7±0.1
UDA29.0 ± 5.98.8 ± 1.14.9 ± 0.2
ReMixMatch19.10±9.646.27±0.345.73±0.165.14±0.04
FixMatch (CTA)11.39±3.355.07±0.334.31±0.15
FixMatch (RandAugment)6.44.694.23
Meta Pseudo Labels3.89 ± 0.07
増分学習
学習後に、新しいクラスを追加可能(インクリメンタル学習)

ツリー構造
Enzyme dataMNIST
SupoortNet0.8390.988
iCaRL0.6290.878

🖼️画像→分散表現(ベクトル)

🖼️画像→LATEX

🖼️画像→🖹テキスト

プログラミング言語

🖼️画像→🖼️画像

学習時ペア画像必要なし
学習時ペア画像必要あり
学習時ペア画像必要なし
Car2Car: root median residual deviation from linear alignment (lower is better).
TQM: Translation quality measured by translated digit classification accuracy (%)
Car2CarTQM:SVHN→MNISTTQM:MNIST→SVHN
CrossNet
NAM1.4733.331.9
CycleGAN26.817.7
DiscoGAN13.81
SPA-GAN
AGGAN
🖼️ラフ画→🖼️線画
線画→イラスト
🖼️低解像度画像→🖼️高解像度画像
低品質写真→高品質写真
🖼️ノイズあり画像→🖼️ノイズなし画像
ノイズなし画像ノイズあり画像ペア
NAC必要なし必要なし
Deep Image Prior必要なし必要なし
Noise2Void code必要なし必要なし
Noise2Noise 実装 日本語解説必要なし必要あり
Path-Restore必要あり必要なし
Unprocessing Images for Learned Raw Denoising必要あり必要なし
GAN2GAN必要あり必要なし
モーションブラー画像→モーションブラー除去画像
テクスチャ→拡張テクスチャ
画像→深度画像

KITTI Eigen split
Abs RelSq RelRMSERMSE logδ < 1.25δ < 1.25^2δ < 1.25^3
LightedDepth NewCRFs0.0280.0771.5670.0490.9910.9991.000
BTS+ pre-trained on Cityscapes dataset0.0560.1691.9250.0870.9640.9940.999
AdaBins0.0580.1902.3600.0880.9640.9950.999
BTS0.0590.2412.7560.0960.9560.9930.998
struct2depth(Motion)0.10870.82504.75030.18660.87380.95770.9825
struct2depth0.12311.43675.30990.20430.87050.95140.9765
Unsupervised Monocular Depth Estimation with Left-Right Consistency0.1331.1585.3700.2080.8410.9490.978
ステレオ画像→Depth Map
KITTI 2015 stereo D1-all
CSPF github1.74%
Dedge-AGMNet1.85%
EdgeStereo2.08%
PSMNet2.32%
iResNet2.44%
画像→モーション画像
🖼️顔画像→🖼️正面顔画像

🖼️画像→3D



単一画像→3次元情報(検知)
KITTI BEV(birds-eye-view) KITTI 3D(3D bounding box)
BEV EasyBEV ModerateBEV Hard3D Easy3D Moderate3D Hard
OFTNet/RGB7.165.694.611.611.321.00
MonoDIS/RGB17.2313.1911.1210.377.946.40
SMOKE/RGB20.8314.4912.7514.039.767.84
MoVi-3D/RGB22.7617.0314.8515.1910.909.26
PatchNet/Depth15.6811.1210.17
D4LCN/RGB+Depth22.5116.0212.5516.6511.729.51
AM3D/RGB+Depth25.0317.3214.9116.5010.749.52
GrooMeD-NMS26.1918.2714.0518.1012.329.65
kinematic3d26.6917.5213.1019.0712.729.17
PatchNet+3D Confidence/Depth23.6613.2511.23
単一画像→3次元情報(トラッキング)
BEV EasyBEV ModerateBEV Hard3D Easy3D Moderate3D Hard
Monocular Quasi-Dense 3D Object Tracking41.7133.7331.0536.7429.3026.67
複数画像→3次元情報
BEV EasyBEV ModerateBEV Hard3D Easy3D Moderate3D Hard
DSGN82.9065.0556.6073.5052.1882.90
CG-Stereo85.2966.4458.9574.3953.5846.50

SVBRDF 顔画像→3D

🖼️画像+α→🖼️画像


Cityscape dataset
FIDLPIPS
DSGAN (pix2pixHD)28.800.12
BiCycleGAN 複数画像生成可89.420.16
1つ以上の画像→画像
🖼️コンテンツ画像+🖼️スタイル画像→🖼️スタイル適用画像
🖼️画像+🖼️画像→セグメンテーション
🖼️線画イラスト+α→🖼️カラーイラスト
🖼️顔画像+年齢→🖼️推定顔画像
顔画像+形状線→推定顔画像
🖼️画像+🕺ポーズ→🖼️推定ポーズ画像
🖼️画像+🔊音声→🖼️ヒートマップ画像

ストリーミング動画→異常値タイムライン+異常セグメント動画

点群→空間情報

🖹テキスト+画像→対象領域

画像→質問&回答

動画→動画

高解像度
条件なし
テクニック
ノイズから画像生成
MethodCIFAR-10 FIDCIFAR-10 ISCelebA 64x64 FIDSTL-10 FIDSTL-10 ISLSUN-bedrom 256 x 256 FIDLSUN-bedrom ISFFHQImageNet
real7.811.24
StyleGAN-XL12.24
StyleGAN3
Projected GAN
SWAGAN
Anycost GAN
InsGen
StyleGAN22.84 ± 0.03
COCO-GAN6.95
NCSN25.328.91
FastGAN12.977.76 ± .12
PGGAN8.808.04
AutoGAN-top112.428.55 ± .1031.019.16 ± .12
Sphere GAN-ResNet17.18.39 ± .08
MMD-rep-b 実装16.218.296.7937.639.34
SN-GAN21.78.2240.1±.509.10±.04
VGAN-GP 実装18.1
WGAN-CT8.12±.12
MoLM-153618.97.90
WGAN-GP, ResNet19.97.86 ± .07
DCGAN37.116.40
really-awesome-gan
the gan zoo

不完全なデータから学習 音楽生成
テキスト生成
BLEU-2 score 1000sentence
TaobaoAmazonPTB
VGAN0.9690.8680.695
SeqGAN0.9680.8560.681
ノイズ+パラメータ→キャラクター顔画像

セグメンテーション

コンテンスト

コメントをかく


「http://」を含む投稿は禁止されています。

利用規約をご確認のうえご記入下さい

Menu

人工知能

機械学習

分類

計算知能

人工ニューラルネットワーク
ファジィシステム
進化的計算
  • 進化的アルゴリズム
    • 遺伝的
      • アルゴリズム
      • プログラミング
    • 進化的
      • プログラミング
      • 戦略
    • 遺伝子発現的プログラミング
    • 微分進化(差分進化)
  • 群知能
    • 蟻コロニー最適化
    • 粒子群最適化

クラスタリング手法

非階層的クラスタリング

評価方法

  • エントロピー(Entropy)
  • 純度度(Purity)
  • F尺度
  • 精度

量子化

埋め込み (Embedding)

求根アルゴリズム

反復法

ゲーム理論

  • ゲームの分類?

不完全情報ゲーム・完全情報ゲーム

  • 二人零和有限確定完全情報ゲーム?

非協力ゲーム・協力ゲーム

協力ゲーム
非協力ゲーム
  • 囚人のジレンマ?

リンク

ネットワークモデル交換

ツール

データ可視化

データセット

文章
多方向視点画像

管理人/副管理人のみ編集できます