From 100d58ed00da2a68e53c7958bdab02f77dfbb528 Mon Sep 17 00:00:00 2001 From: Fraser Cormack Date: Fri, 22 Jan 2021 14:54:00 +0000 Subject: [PATCH] [RISCV] Add support for RVV int<->fp & fp<->fp conversions This patch adds support for the full range of vector int-to-float, float-to-int, and float-to-float conversions on legal types. Many conversions are supported natively in RVV so are lowered with patterns. These include conversions between (element) types of the same size, and those that are half/double the size of the input. When conversions take place between types that are less than half or more than double the size we must lower them using sequences of instructions which go via intermediate types. Reviewed By: craig.topper Differential Revision: https://reviews.llvm.org/D95447 --- lib/Target/RISCV/RISCVISelLowering.cpp | 110 + lib/Target/RISCV/RISCVISelLowering.h | 4 + lib/Target/RISCV/RISCVInstrInfoVSDPatterns.td | 99 + test/CodeGen/RISCV/rvv/vfpext-sdnode.ll | 261 +++ test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll | 2062 +++++++++++++++++ test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll | 261 +++ test/CodeGen/RISCV/rvv/vitofp-sdnode.ll | 1978 ++++++++++++++++ 7 files changed, 4775 insertions(+) create mode 100644 test/CodeGen/RISCV/rvv/vfpext-sdnode.ll create mode 100644 test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll create mode 100644 test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll create mode 100644 test/CodeGen/RISCV/rvv/vitofp-sdnode.ll diff --git a/lib/Target/RISCV/RISCVISelLowering.cpp b/lib/Target/RISCV/RISCVISelLowering.cpp index 23a677d3e6a..67f414dd8f7 100644 --- a/lib/Target/RISCV/RISCVISelLowering.cpp +++ b/lib/Target/RISCV/RISCVISelLowering.cpp @@ -402,6 +402,15 @@ RISCVTargetLowering::RISCVTargetLowering(const TargetMachine &TM, setOperationAction(ISD::SIGN_EXTEND, VT, Custom); setOperationAction(ISD::ZERO_EXTEND, VT, Custom); + // RVV has native int->float & float->int conversions where the + // element type sizes are within one power-of-two of each other. Any + // wider distances between type sizes have to be lowered as sequences + // which progressively narrow the gap in stages. + setOperationAction(ISD::SINT_TO_FP, VT, Custom); + setOperationAction(ISD::UINT_TO_FP, VT, Custom); + setOperationAction(ISD::FP_TO_SINT, VT, Custom); + setOperationAction(ISD::FP_TO_UINT, VT, Custom); + // Integer VTs are lowered as a series of "RISCVISD::TRUNCATE_VECTOR" // nodes which truncate by one power of two at a time. setOperationAction(ISD::TRUNCATE, VT, Custom); @@ -427,9 +436,16 @@ RISCVTargetLowering::RISCVTargetLowering(const TargetMachine &TM, // Sets common operation actions on RVV floating-point vector types. const auto SetCommonVFPActions = [&](MVT VT) { setOperationAction(ISD::SPLAT_VECTOR, VT, Legal); + // RVV has native FP_ROUND & FP_EXTEND conversions where the element type + // sizes are within one power-of-two of each other. Therefore conversions + // between vXf16 and vXf64 must be lowered as sequences which convert via + // vXf32. + setOperationAction(ISD::FP_ROUND, VT, Custom); + setOperationAction(ISD::FP_EXTEND, VT, Custom); // Custom-lower insert/extract operations to simplify patterns. setOperationAction(ISD::INSERT_VECTOR_ELT, VT, Custom); setOperationAction(ISD::EXTRACT_VECTOR_ELT, VT, Custom); + // Expand various condition codes (explained above). for (auto CC : VFPCCToExpand) setCondCodeAction(CC, VT, Expand); }; @@ -771,6 +787,99 @@ SDValue RISCVTargetLowering::LowerOperation(SDValue Op, DAG.getConstant(3, DL, VT)); return DAG.getNode(ISD::MUL, DL, VT, VScale, Op.getOperand(0)); } + case ISD::FP_EXTEND: { + // RVV can only do fp_extend to types double the size as the source. We + // custom-lower f16->f64 extensions to two hops of ISD::FP_EXTEND, going + // via f32. + MVT VT = Op.getSimpleValueType(); + MVT SrcVT = Op.getOperand(0).getSimpleValueType(); + // We only need to close the gap between vXf16->vXf64. + if (!VT.isVector() || VT.getVectorElementType() != MVT::f64 || + SrcVT.getVectorElementType() != MVT::f16) + return Op; + SDLoc DL(Op); + MVT InterVT = MVT::getVectorVT(MVT::f32, VT.getVectorElementCount()); + SDValue IntermediateRound = + DAG.getFPExtendOrRound(Op.getOperand(0), DL, InterVT); + return DAG.getFPExtendOrRound(IntermediateRound, DL, VT); + } + case ISD::FP_ROUND: { + // RVV can only do fp_round to types half the size as the source. We + // custom-lower f64->f16 rounds via RVV's round-to-odd float + // conversion instruction. + MVT VT = Op.getSimpleValueType(); + MVT SrcVT = Op.getOperand(0).getSimpleValueType(); + // We only need to close the gap between vXf64<->vXf16. + if (!VT.isVector() || VT.getVectorElementType() != MVT::f16 || + SrcVT.getVectorElementType() != MVT::f64) + return Op; + SDLoc DL(Op); + MVT InterVT = MVT::getVectorVT(MVT::f32, VT.getVectorElementCount()); + SDValue IntermediateRound = + DAG.getNode(RISCVISD::VFNCVT_ROD, DL, InterVT, Op.getOperand(0)); + return DAG.getFPExtendOrRound(IntermediateRound, DL, VT); + } + case ISD::FP_TO_SINT: + case ISD::FP_TO_UINT: + case ISD::SINT_TO_FP: + case ISD::UINT_TO_FP: { + // RVV can only do fp<->int conversions to types half/double the size as + // the source. We custom-lower any conversions that do two hops into + // sequences. + MVT VT = Op.getSimpleValueType(); + if (!VT.isVector()) + return Op; + SDLoc DL(Op); + SDValue Src = Op.getOperand(0); + MVT EltVT = VT.getVectorElementType(); + MVT SrcEltVT = Src.getSimpleValueType().getVectorElementType(); + unsigned EltSize = EltVT.getSizeInBits(); + unsigned SrcEltSize = SrcEltVT.getSizeInBits(); + assert(isPowerOf2_32(EltSize) && isPowerOf2_32(SrcEltSize) && + "Unexpected vector element types"); + bool IsInt2FP = SrcEltVT.isInteger(); + // Widening conversions + if (EltSize > SrcEltSize && (EltSize / SrcEltSize >= 4)) { + if (IsInt2FP) { + // Do a regular integer sign/zero extension then convert to float. + MVT IVecVT = MVT::getVectorVT(MVT::getIntegerVT(EltVT.getSizeInBits()), + VT.getVectorElementCount()); + unsigned ExtOpcode = Op.getOpcode() == ISD::UINT_TO_FP + ? ISD::ZERO_EXTEND + : ISD::SIGN_EXTEND; + SDValue Ext = DAG.getNode(ExtOpcode, DL, IVecVT, Src); + return DAG.getNode(Op.getOpcode(), DL, VT, Ext); + } + // FP2Int + assert(SrcEltVT == MVT::f16 && "Unexpected FP_TO_[US]INT lowering"); + // Do one doubling fp_extend then complete the operation by converting + // to int. + MVT InterimFVT = MVT::getVectorVT(MVT::f32, VT.getVectorElementCount()); + SDValue FExt = DAG.getFPExtendOrRound(Src, DL, InterimFVT); + return DAG.getNode(Op.getOpcode(), DL, VT, FExt); + } + + // Narrowing conversions + if (SrcEltSize > EltSize && (SrcEltSize / EltSize >= 4)) { + if (IsInt2FP) { + // One narrowing int_to_fp, then an fp_round. + assert(EltVT == MVT::f16 && "Unexpected [US]_TO_FP lowering"); + MVT InterimFVT = MVT::getVectorVT(MVT::f32, VT.getVectorElementCount()); + SDValue Int2FP = DAG.getNode(Op.getOpcode(), DL, InterimFVT, Src); + return DAG.getFPExtendOrRound(Int2FP, DL, VT); + } + // FP2Int + // One narrowing fp_to_int, then truncate the integer. If the float isn't + // representable by the integer, the result is poison. + MVT IVecVT = + MVT::getVectorVT(MVT::getIntegerVT(SrcEltVT.getSizeInBits() / 2), + VT.getVectorElementCount()); + SDValue FP2Int = DAG.getNode(Op.getOpcode(), DL, IVecVT, Src); + return DAG.getNode(ISD::TRUNCATE, DL, VT, FP2Int); + } + + return Op; + } } } @@ -4012,6 +4121,7 @@ const char *RISCVTargetLowering::getTargetNodeName(unsigned Opcode) const { NODE_NAME_CASE(VSLIDEUP) NODE_NAME_CASE(VSLIDEDOWN) NODE_NAME_CASE(VID) + NODE_NAME_CASE(VFNCVT_ROD) } // clang-format on return nullptr; diff --git a/lib/Target/RISCV/RISCVISelLowering.h b/lib/Target/RISCV/RISCVISelLowering.h index 1b834307fc2..b6b66591ac3 100644 --- a/lib/Target/RISCV/RISCVISelLowering.h +++ b/lib/Target/RISCV/RISCVISelLowering.h @@ -106,6 +106,10 @@ enum NodeType : unsigned { VSLIDEDOWN, // Matches the semantics of the unmasked vid.v instruction. VID, + // Matches the semantics of the vfcnvt.rod function (Convert double-width + // float to single-width float, rounding towards odd). Takes a double-width + // float vector and produces a single-width float vector. + VFNCVT_ROD, }; } // namespace RISCVISD diff --git a/lib/Target/RISCV/RISCVInstrInfoVSDPatterns.td b/lib/Target/RISCV/RISCVInstrInfoVSDPatterns.td index aea3d0e17cc..d86f157f216 100644 --- a/lib/Target/RISCV/RISCVInstrInfoVSDPatterns.td +++ b/lib/Target/RISCV/RISCVInstrInfoVSDPatterns.td @@ -291,6 +291,64 @@ multiclass VPatExtendSDNode_V ops, string inst_name, string suffix, } } +multiclass VPatConvertI2FPSDNode_V { + foreach fvti = AllFloatVectors in { + defvar ivti = GetIntVTypeInfo.Vti; + def : Pat<(fvti.Vector (vop (ivti.Vector ivti.RegClass:$rs1))), + (!cast(instruction_name#"_"#fvti.LMul.MX) + ivti.RegClass:$rs1, fvti.AVL, fvti.SEW)>; + } +} + +multiclass VPatConvertFP2ISDNode_V { + foreach fvti = AllFloatVectors in { + defvar ivti = GetIntVTypeInfo.Vti; + def : Pat<(ivti.Vector (vop (fvti.Vector fvti.RegClass:$rs1))), + (!cast(instruction_name#"_"#ivti.LMul.MX) + fvti.RegClass:$rs1, ivti.AVL, ivti.SEW)>; + } +} + +multiclass VPatWConvertI2FPSDNode_V { + foreach vtiToWti = AllWidenableIntToFloatVectors in { + defvar ivti = vtiToWti.Vti; + defvar fwti = vtiToWti.Wti; + def : Pat<(fwti.Vector (vop (ivti.Vector ivti.RegClass:$rs1))), + (!cast(instruction_name#"_"#ivti.LMul.MX) + ivti.RegClass:$rs1, ivti.AVL, ivti.SEW)>; + } +} + +multiclass VPatWConvertFP2ISDNode_V { + foreach fvtiToFWti = AllWidenableFloatVectors in { + defvar fvti = fvtiToFWti.Vti; + defvar iwti = GetIntVTypeInfo.Vti; + def : Pat<(iwti.Vector (vop (fvti.Vector fvti.RegClass:$rs1))), + (!cast(instruction_name#"_"#fvti.LMul.MX) + fvti.RegClass:$rs1, fvti.AVL, fvti.SEW)>; + } +} + +multiclass VPatNConvertI2FPSDNode_V { + foreach fvtiToFWti = AllWidenableFloatVectors in { + defvar fvti = fvtiToFWti.Vti; + defvar iwti = GetIntVTypeInfo.Vti; + def : Pat<(fvti.Vector (vop (iwti.Vector iwti.RegClass:$rs1))), + (!cast(instruction_name#"_"#fvti.LMul.MX) + iwti.RegClass:$rs1, fvti.AVL, fvti.SEW)>; + } +} + +multiclass VPatNConvertFP2ISDNode_V { + foreach vtiToWti = AllWidenableIntToFloatVectors in { + defvar vti = vtiToWti.Vti; + defvar fwti = vtiToWti.Wti; + def : Pat<(vti.Vector (vop (fwti.Vector fwti.RegClass:$rs1))), + (!cast(instruction_name#"_"#vti.LMul.MX) + fwti.RegClass:$rs1, vti.AVL, vti.SEW)>; + } +} + //===----------------------------------------------------------------------===// // Patterns. //===----------------------------------------------------------------------===// @@ -440,6 +498,10 @@ foreach mti = AllMasks in { } // Predicates = [HasStdExtV] +def riscv_fncvt_rod + : SDNode<"RISCVISD::VFNCVT_ROD", + SDTypeProfile<1, 1, [SDTCisVec<0>, SDTCisVec<1>]>, []>; + let Predicates = [HasStdExtV, HasStdExtF] in { // 14.2. Vector Single-Width Floating-Point Add/Subtract Instructions @@ -489,6 +551,43 @@ foreach fvti = AllFloatVectors in { (!cast("PseudoVMERGE_VIM_"#fvti.LMul.MX) fvti.RegClass:$rs2, 0, VMV0:$vm, fvti.AVL, fvti.SEW)>; } + +// 14.15. Vector Single-Width Floating-Point/Integer Type-Convert Instructions +defm "" : VPatConvertFP2ISDNode_V; +defm "" : VPatConvertFP2ISDNode_V; +defm "" : VPatConvertI2FPSDNode_V; +defm "" : VPatConvertI2FPSDNode_V; + +// 14.16. Widening Floating-Point/Integer Type-Convert Instructions +defm "" : VPatWConvertFP2ISDNode_V; +defm "" : VPatWConvertFP2ISDNode_V; +defm "" : VPatWConvertI2FPSDNode_V; +defm "" : VPatWConvertI2FPSDNode_V; +foreach fvtiToFWti = AllWidenableFloatVectors in { + defvar fvti = fvtiToFWti.Vti; + defvar fwti = fvtiToFWti.Wti; + def : Pat<(fwti.Vector (fpextend (fvti.Vector fvti.RegClass:$rs1))), + (!cast("PseudoVFWCVT_F_F_V_"#fvti.LMul.MX) + fvti.RegClass:$rs1, fvti.AVL, fvti.SEW)>; +} + +// 14.17. Narrowing Floating-Point/Integer Type-Convert Instructions +defm "" : VPatNConvertFP2ISDNode_V; +defm "" : VPatNConvertFP2ISDNode_V; +defm "" : VPatNConvertI2FPSDNode_V; +defm "" : VPatNConvertI2FPSDNode_V; +foreach fvtiToFWti = AllWidenableFloatVectors in { + defvar fvti = fvtiToFWti.Vti; + defvar fwti = fvtiToFWti.Wti; + def : Pat<(fvti.Vector (fpround (fwti.Vector fwti.RegClass:$rs1))), + (!cast("PseudoVFNCVT_F_F_W_"#fvti.LMul.MX) + fwti.RegClass:$rs1, fvti.AVL, fvti.SEW)>; + + def : Pat<(fvti.Vector (riscv_fncvt_rod (fwti.Vector fwti.RegClass:$rs1))), + (!cast("PseudoVFNCVT_ROD_F_F_W_"#fvti.LMul.MX) + fwti.RegClass:$rs1, fvti.AVL, fvti.SEW)>; +} + } // Predicates = [HasStdExtV, HasStdExtF] //===----------------------------------------------------------------------===// diff --git a/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll b/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll new file mode 100644 index 00000000000..941bf2e8e40 --- /dev/null +++ b/test/CodeGen/RISCV/rvv/vfpext-sdnode.ll @@ -0,0 +1,261 @@ +; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py +; RUN: llc -mtriple=riscv32 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=ilp32d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV32 +; RUN: llc -mtriple=riscv64 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=lp64d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV64 + +define @vfpext_nxv1f16_nxv1f32( %va) { +; +; RV32-LABEL: vfpext_nxv1f16_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv1f16_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv1f16_nxv1f64( %va) { +; +; RV32-LABEL: vfpext_nxv1f16_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv1f16_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v8, v25 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv2f16_nxv2f32( %va) { +; +; RV32-LABEL: vfpext_nxv2f16_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv2f16_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv2f16_nxv2f64( %va) { +; +; RV32-LABEL: vfpext_nxv2f16_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv2f16_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v8, v25 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv4f16_nxv4f32( %va) { +; +; RV32-LABEL: vfpext_nxv4f16_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv4f16_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv4f16_nxv4f64( %va) { +; +; RV32-LABEL: vfpext_nxv4f16_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v26, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv4f16_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v26, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v8, v26 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv8f16_nxv8f32( %va) { +; +; RV32-LABEL: vfpext_nxv8f16_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv8f16_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv8f16_nxv8f64( %va) { +; +; RV32-LABEL: vfpext_nxv8f16_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v28, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv8f16_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v28, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v8, v28 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv16f16_nxv16f32( %va) { +; +; RV32-LABEL: vfpext_nxv16f16_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv16f16_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv1f32_nxv1f64( %va) { +; +; RV32-LABEL: vfpext_nxv1f32_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv1f32_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv2f32_nxv2f64( %va) { +; +; RV32-LABEL: vfpext_nxv2f32_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv2f32_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv4f32_nxv4f64( %va) { +; +; RV32-LABEL: vfpext_nxv4f32_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv4f32_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + +define @vfpext_nxv8f32_nxv8f64( %va) { +; +; RV32-LABEL: vfpext_nxv8f32_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vfpext_nxv8f32_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = fpext %va to + ret %evec +} + diff --git a/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll b/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll new file mode 100644 index 00000000000..4b218f9025a --- /dev/null +++ b/test/CodeGen/RISCV/rvv/vfptoi-sdnode.ll @@ -0,0 +1,2062 @@ +; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py +; RUN: llc -mtriple=riscv32 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=ilp32d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV32 +; RUN: llc -mtriple=riscv64 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=lp64d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV64 + +define @vfptosi_nxv1f16_nxv1i8( %va) { +; RV32-LABEL: vfptosi_nxv1f16_nxv1i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f16_nxv1i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f16_nxv1i8( %va) { +; RV32-LABEL: vfptoui_nxv1f16_nxv1i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f16_nxv1i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f16_nxv1i16( %va) { +; RV32-LABEL: vfptosi_nxv1f16_nxv1i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f16_nxv1i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f16_nxv1i16( %va) { +; RV32-LABEL: vfptoui_nxv1f16_nxv1i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f16_nxv1i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f16_nxv1i32( %va) { +; RV32-LABEL: vfptosi_nxv1f16_nxv1i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f16_nxv1i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f16_nxv1i32( %va) { +; RV32-LABEL: vfptoui_nxv1f16_nxv1i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f16_nxv1i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f16_nxv1i64( %va) { +; RV32-LABEL: vfptosi_nxv1f16_nxv1i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f16_nxv1i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f16_nxv1i64( %va) { +; RV32-LABEL: vfptoui_nxv1f16_nxv1i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f16_nxv1i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f16_nxv2i8( %va) { +; RV32-LABEL: vfptosi_nxv2f16_nxv2i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f16_nxv2i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f16_nxv2i8( %va) { +; RV32-LABEL: vfptoui_nxv2f16_nxv2i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f16_nxv2i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f16_nxv2i16( %va) { +; RV32-LABEL: vfptosi_nxv2f16_nxv2i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f16_nxv2i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f16_nxv2i16( %va) { +; RV32-LABEL: vfptoui_nxv2f16_nxv2i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f16_nxv2i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f16_nxv2i32( %va) { +; RV32-LABEL: vfptosi_nxv2f16_nxv2i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f16_nxv2i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f16_nxv2i32( %va) { +; RV32-LABEL: vfptoui_nxv2f16_nxv2i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f16_nxv2i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f16_nxv2i64( %va) { +; RV32-LABEL: vfptosi_nxv2f16_nxv2i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f16_nxv2i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f16_nxv2i64( %va) { +; RV32-LABEL: vfptoui_nxv2f16_nxv2i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v25, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f16_nxv2i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v25, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f16_nxv4i8( %va) { +; RV32-LABEL: vfptosi_nxv4f16_nxv4i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f16_nxv4i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f16_nxv4i8( %va) { +; RV32-LABEL: vfptoui_nxv4f16_nxv4i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f16_nxv4i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f16_nxv4i16( %va) { +; RV32-LABEL: vfptosi_nxv4f16_nxv4i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f16_nxv4i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f16_nxv4i16( %va) { +; RV32-LABEL: vfptoui_nxv4f16_nxv4i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f16_nxv4i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f16_nxv4i32( %va) { +; RV32-LABEL: vfptosi_nxv4f16_nxv4i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f16_nxv4i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f16_nxv4i32( %va) { +; RV32-LABEL: vfptoui_nxv4f16_nxv4i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f16_nxv4i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f16_nxv4i64( %va) { +; RV32-LABEL: vfptosi_nxv4f16_nxv4i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v26, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f16_nxv4i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v26, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v26 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f16_nxv4i64( %va) { +; RV32-LABEL: vfptoui_nxv4f16_nxv4i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v26, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f16_nxv4i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v26, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v26 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f16_nxv8i8( %va) { +; RV32-LABEL: vfptosi_nxv8f16_nxv8i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f16_nxv8i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f16_nxv8i8( %va) { +; RV32-LABEL: vfptoui_nxv8f16_nxv8i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f16_nxv8i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f16_nxv8i16( %va) { +; RV32-LABEL: vfptosi_nxv8f16_nxv8i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f16_nxv8i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f16_nxv8i16( %va) { +; RV32-LABEL: vfptoui_nxv8f16_nxv8i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f16_nxv8i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f16_nxv8i32( %va) { +; RV32-LABEL: vfptosi_nxv8f16_nxv8i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f16_nxv8i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f16_nxv8i32( %va) { +; RV32-LABEL: vfptoui_nxv8f16_nxv8i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f16_nxv8i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f16_nxv8i64( %va) { +; RV32-LABEL: vfptosi_nxv8f16_nxv8i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v28, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f16_nxv8i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v28, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v8, v28 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f16_nxv8i64( %va) { +; RV32-LABEL: vfptoui_nxv8f16_nxv8i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.f.f.v v28, v8 +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f16_nxv8i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.f.f.v v28, v8 +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v8, v28 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv16f16_nxv16i8( %va) { +; RV32-LABEL: vfptosi_nxv16f16_nxv16i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv16f16_nxv16i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv16f16_nxv16i8( %va) { +; RV32-LABEL: vfptoui_nxv16f16_nxv16i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv16f16_nxv16i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv16f16_nxv16i16( %va) { +; RV32-LABEL: vfptosi_nxv16f16_nxv16i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv16f16_nxv16i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv16f16_nxv16i16( %va) { +; RV32-LABEL: vfptoui_nxv16f16_nxv16i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv16f16_nxv16i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv16f16_nxv16i32( %va) { +; RV32-LABEL: vfptosi_nxv16f16_nxv16i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv16f16_nxv16i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv16f16_nxv16i32( %va) { +; RV32-LABEL: vfptoui_nxv16f16_nxv16i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv16f16_nxv16i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv32f16_nxv32i8( %va) { +; RV32-LABEL: vfptosi_nxv32f16_nxv32i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv32f16_nxv32i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv32f16_nxv32i8( %va) { +; RV32-LABEL: vfptoui_nxv32f16_nxv32i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv32f16_nxv32i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv32f16_nxv32i16( %va) { +; RV32-LABEL: vfptosi_nxv32f16_nxv32i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv32f16_nxv32i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv32f16_nxv32i16( %va) { +; RV32-LABEL: vfptoui_nxv32f16_nxv32i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv32f16_nxv32i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f32_nxv1i8( %va) { +; RV32-LABEL: vfptosi_nxv1f32_nxv1i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f32_nxv1i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f32_nxv1i8( %va) { +; RV32-LABEL: vfptoui_nxv1f32_nxv1i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f32_nxv1i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f32_nxv1i16( %va) { +; RV32-LABEL: vfptosi_nxv1f32_nxv1i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f32_nxv1i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f32_nxv1i16( %va) { +; RV32-LABEL: vfptoui_nxv1f32_nxv1i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f32_nxv1i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f32_nxv1i32( %va) { +; RV32-LABEL: vfptosi_nxv1f32_nxv1i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f32_nxv1i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f32_nxv1i32( %va) { +; RV32-LABEL: vfptoui_nxv1f32_nxv1i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f32_nxv1i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f32_nxv1i64( %va) { +; RV32-LABEL: vfptosi_nxv1f32_nxv1i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f32_nxv1i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f32_nxv1i64( %va) { +; RV32-LABEL: vfptoui_nxv1f32_nxv1i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f32_nxv1i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f32_nxv2i8( %va) { +; RV32-LABEL: vfptosi_nxv2f32_nxv2i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f32_nxv2i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f32_nxv2i8( %va) { +; RV32-LABEL: vfptoui_nxv2f32_nxv2i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f32_nxv2i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f32_nxv2i16( %va) { +; RV32-LABEL: vfptosi_nxv2f32_nxv2i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f32_nxv2i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f32_nxv2i16( %va) { +; RV32-LABEL: vfptoui_nxv2f32_nxv2i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f32_nxv2i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f32_nxv2i32( %va) { +; RV32-LABEL: vfptosi_nxv2f32_nxv2i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f32_nxv2i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f32_nxv2i32( %va) { +; RV32-LABEL: vfptoui_nxv2f32_nxv2i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f32_nxv2i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f32_nxv2i64( %va) { +; RV32-LABEL: vfptosi_nxv2f32_nxv2i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f32_nxv2i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f32_nxv2i64( %va) { +; RV32-LABEL: vfptoui_nxv2f32_nxv2i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f32_nxv2i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f32_nxv4i8( %va) { +; RV32-LABEL: vfptosi_nxv4f32_nxv4i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f32_nxv4i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f32_nxv4i8( %va) { +; RV32-LABEL: vfptoui_nxv4f32_nxv4i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f32_nxv4i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f32_nxv4i16( %va) { +; RV32-LABEL: vfptosi_nxv4f32_nxv4i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f32_nxv4i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f32_nxv4i16( %va) { +; RV32-LABEL: vfptoui_nxv4f32_nxv4i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f32_nxv4i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f32_nxv4i32( %va) { +; RV32-LABEL: vfptosi_nxv4f32_nxv4i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f32_nxv4i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f32_nxv4i32( %va) { +; RV32-LABEL: vfptoui_nxv4f32_nxv4i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f32_nxv4i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f32_nxv4i64( %va) { +; RV32-LABEL: vfptosi_nxv4f32_nxv4i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f32_nxv4i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f32_nxv4i64( %va) { +; RV32-LABEL: vfptoui_nxv4f32_nxv4i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f32_nxv4i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f32_nxv8i8( %va) { +; RV32-LABEL: vfptosi_nxv8f32_nxv8i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f32_nxv8i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f32_nxv8i8( %va) { +; RV32-LABEL: vfptoui_nxv8f32_nxv8i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f32_nxv8i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f32_nxv8i16( %va) { +; RV32-LABEL: vfptosi_nxv8f32_nxv8i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f32_nxv8i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f32_nxv8i16( %va) { +; RV32-LABEL: vfptoui_nxv8f32_nxv8i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f32_nxv8i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f32_nxv8i32( %va) { +; RV32-LABEL: vfptosi_nxv8f32_nxv8i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f32_nxv8i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f32_nxv8i32( %va) { +; RV32-LABEL: vfptoui_nxv8f32_nxv8i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f32_nxv8i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f32_nxv8i64( %va) { +; RV32-LABEL: vfptosi_nxv8f32_nxv8i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.rtz.x.f.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f32_nxv8i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.rtz.x.f.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f32_nxv8i64( %va) { +; RV32-LABEL: vfptoui_nxv8f32_nxv8i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.rtz.xu.f.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f32_nxv8i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.rtz.xu.f.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv16f32_nxv16i8( %va) { +; RV32-LABEL: vfptosi_nxv16f32_nxv16i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v28, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv16f32_nxv16i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v28, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv16f32_nxv16i8( %va) { +; RV32-LABEL: vfptoui_nxv16f32_nxv16i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v28, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv16f32_nxv16i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v28, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv16f32_nxv16i16( %va) { +; RV32-LABEL: vfptosi_nxv16f32_nxv16i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv16f32_nxv16i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv16f32_nxv16i16( %va) { +; RV32-LABEL: vfptoui_nxv16f32_nxv16i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv16f32_nxv16i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv16f32_nxv16i32( %va) { +; RV32-LABEL: vfptosi_nxv16f32_nxv16i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv16f32_nxv16i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv16f32_nxv16i32( %va) { +; RV32-LABEL: vfptoui_nxv16f32_nxv16i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv16f32_nxv16i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f64_nxv1i8( %va) { +; RV32-LABEL: vfptosi_nxv1f64_nxv1i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v26, v25, 0 +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f64_nxv1i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v26, v25, 0 +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f64_nxv1i8( %va) { +; RV32-LABEL: vfptoui_nxv1f64_nxv1i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v26, v25, 0 +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f64_nxv1i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v26, v25, 0 +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f64_nxv1i16( %va) { +; RV32-LABEL: vfptosi_nxv1f64_nxv1i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f64_nxv1i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f64_nxv1i16( %va) { +; RV32-LABEL: vfptoui_nxv1f64_nxv1i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f64_nxv1i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f64_nxv1i32( %va) { +; RV32-LABEL: vfptosi_nxv1f64_nxv1i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f64_nxv1i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f64_nxv1i32( %va) { +; RV32-LABEL: vfptoui_nxv1f64_nxv1i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f64_nxv1i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv1f64_nxv1i64( %va) { +; RV32-LABEL: vfptosi_nxv1f64_nxv1i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv1f64_nxv1i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv1f64_nxv1i64( %va) { +; RV32-LABEL: vfptoui_nxv1f64_nxv1i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv1f64_nxv1i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f64_nxv2i8( %va) { +; RV32-LABEL: vfptosi_nxv2f64_nxv2i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v26, v25, 0 +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f64_nxv2i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v26, v25, 0 +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f64_nxv2i8( %va) { +; RV32-LABEL: vfptoui_nxv2f64_nxv2i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v26, v25, 0 +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f64_nxv2i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v26, v25, 0 +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f64_nxv2i16( %va) { +; RV32-LABEL: vfptosi_nxv2f64_nxv2i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f64_nxv2i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f64_nxv2i16( %va) { +; RV32-LABEL: vfptoui_nxv2f64_nxv2i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f64_nxv2i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f64_nxv2i32( %va) { +; RV32-LABEL: vfptosi_nxv2f64_nxv2i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f64_nxv2i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f64_nxv2i32( %va) { +; RV32-LABEL: vfptoui_nxv2f64_nxv2i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f64_nxv2i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv2f64_nxv2i64( %va) { +; RV32-LABEL: vfptosi_nxv2f64_nxv2i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv2f64_nxv2i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv2f64_nxv2i64( %va) { +; RV32-LABEL: vfptoui_nxv2f64_nxv2i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv2f64_nxv2i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f64_nxv4i8( %va) { +; RV32-LABEL: vfptosi_nxv4f64_nxv4i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vnsrl.wi v25, v26, 0 +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f64_nxv4i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vnsrl.wi v25, v26, 0 +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f64_nxv4i8( %va) { +; RV32-LABEL: vfptoui_nxv4f64_nxv4i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vnsrl.wi v25, v26, 0 +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v25, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f64_nxv4i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vnsrl.wi v25, v26, 0 +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v25, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f64_nxv4i16( %va) { +; RV32-LABEL: vfptosi_nxv4f64_nxv4i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f64_nxv4i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f64_nxv4i16( %va) { +; RV32-LABEL: vfptoui_nxv4f64_nxv4i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f64_nxv4i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f64_nxv4i32( %va) { +; RV32-LABEL: vfptosi_nxv4f64_nxv4i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f64_nxv4i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f64_nxv4i32( %va) { +; RV32-LABEL: vfptoui_nxv4f64_nxv4i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f64_nxv4i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv4f64_nxv4i64( %va) { +; RV32-LABEL: vfptosi_nxv4f64_nxv4i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv4f64_nxv4i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv4f64_nxv4i64( %va) { +; RV32-LABEL: vfptoui_nxv4f64_nxv4i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv4f64_nxv4i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f64_nxv8i8( %va) { +; RV32-LABEL: vfptosi_nxv8f64_nxv8i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vnsrl.wi v26, v28, 0 +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f64_nxv8i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vnsrl.wi v26, v28, 0 +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f64_nxv8i8( %va) { +; RV32-LABEL: vfptoui_nxv8f64_nxv8i8: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vnsrl.wi v26, v28, 0 +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vnsrl.wi v8, v26, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f64_nxv8i8: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vnsrl.wi v26, v28, 0 +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vnsrl.wi v8, v26, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f64_nxv8i16( %va) { +; RV32-LABEL: vfptosi_nxv8f64_nxv8i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v28, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f64_nxv8i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v28, 0 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f64_nxv8i16( %va) { +; RV32-LABEL: vfptoui_nxv8f64_nxv8i16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vnsrl.wi v8, v28, 0 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f64_nxv8i16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vnsrl.wi v8, v28, 0 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f64_nxv8i32( %va) { +; RV32-LABEL: vfptosi_nxv8f64_nxv8i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f64_nxv8i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.x.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f64_nxv8i32( %va) { +; RV32-LABEL: vfptoui_nxv8f64_nxv8i32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f64_nxv8i32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rtz.xu.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + +define @vfptosi_nxv8f64_nxv8i64( %va) { +; RV32-LABEL: vfptosi_nxv8f64_nxv8i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptosi_nxv8f64_nxv8i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vfcvt.rtz.x.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptosi %va to + ret %evec +} + +define @vfptoui_nxv8f64_nxv8i64( %va) { +; RV32-LABEL: vfptoui_nxv8f64_nxv8i64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptoui_nxv8f64_nxv8i64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vfcvt.rtz.xu.f.v v8, v8 +; RV64-NEXT: ret + %evec = fptoui %va to + ret %evec +} + diff --git a/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll b/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll new file mode 100644 index 00000000000..46f401dd022 --- /dev/null +++ b/test/CodeGen/RISCV/rvv/vfptrunc-sdnode.ll @@ -0,0 +1,261 @@ +; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py +; RUN: llc -mtriple=riscv32 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=ilp32d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV32 +; RUN: llc -mtriple=riscv64 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=lp64d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV64 + +define @vfptrunc_nxv1f32_nxv1f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv1f32_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.f.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv1f32_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.f.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv2f32_nxv2f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv2f32_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv2f32_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv4f32_nxv4f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv4f32_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.f.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv4f32_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.f.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv8f32_nxv8f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv8f32_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv8f32_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv16f32_nxv16f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv16f32_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.f.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv16f32_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.f.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv1f64_nxv1f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv1f64_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.rod.f.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv1f64_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.rod.f.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv1f64_nxv1f32( %va) { +; +; RV32-LABEL: vfptrunc_nxv1f64_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv1f64_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv2f64_nxv2f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv2f64_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.rod.f.f.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv2f64_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.rod.f.f.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv2f64_nxv2f32( %va) { +; +; RV32-LABEL: vfptrunc_nxv2f64_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.f.f.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv2f64_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.f.f.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv4f64_nxv4f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv4f64_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.rod.f.f.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv4f64_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.rod.f.f.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v26 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv4f64_nxv4f32( %va) { +; +; RV32-LABEL: vfptrunc_nxv4f64_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv4f64_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv8f64_nxv8f16( %va) { +; +; RV32-LABEL: vfptrunc_nxv8f64_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.rod.f.f.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv8f64_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.rod.f.f.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v28 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + +define @vfptrunc_nxv8f64_nxv8f32( %va) { +; +; RV32-LABEL: vfptrunc_nxv8f64_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.f.f.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vfptrunc_nxv8f64_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.f.f.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = fptrunc %va to + ret %evec +} + diff --git a/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll b/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll new file mode 100644 index 00000000000..b4cbf94f7b6 --- /dev/null +++ b/test/CodeGen/RISCV/rvv/vitofp-sdnode.ll @@ -0,0 +1,1978 @@ +; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py +; RUN: llc -mtriple=riscv32 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=ilp32d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV32 +; RUN: llc -mtriple=riscv64 -mattr=+d,+experimental-zfh,+experimental-v -target-abi=lp64d \ +; RUN: -verify-machineinstrs < %s | FileCheck %s --check-prefix=RV64 + +define @vsitofp_nxv1i8_nxv1f16( %va) { +; RV32-LABEL: vsitofp_nxv1i8_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i8_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i8_nxv1f16( %va) { +; RV32-LABEL: vuitofp_nxv1i8_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i8_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf8,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i8_nxv1f32( %va) { +; RV32-LABEL: vsitofp_nxv1i8_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vsext.vf4 v25, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i8_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vsext.vf4 v25, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i8_nxv1f32( %va) { +; RV32-LABEL: vuitofp_nxv1i8_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vzext.vf4 v25, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i8_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vzext.vf4 v25, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i8_nxv1f64( %va) { +; RV32-LABEL: vsitofp_nxv1i8_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vsext.vf8 v25, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i8_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vsext.vf8 v25, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i8_nxv1f64( %va) { +; RV32-LABEL: vuitofp_nxv1i8_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vzext.vf8 v25, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i8_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vzext.vf8 v25, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i8_nxv2f16( %va) { +; RV32-LABEL: vsitofp_nxv2i8_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i8_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i8_nxv2f16( %va) { +; RV32-LABEL: vuitofp_nxv2i8_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i8_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i8_nxv2f32( %va) { +; RV32-LABEL: vsitofp_nxv2i8_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vsext.vf4 v25, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i8_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vsext.vf4 v25, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i8_nxv2f32( %va) { +; RV32-LABEL: vuitofp_nxv2i8_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vzext.vf4 v25, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i8_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vzext.vf4 v25, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i8_nxv2f64( %va) { +; RV32-LABEL: vsitofp_nxv2i8_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsext.vf8 v26, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i8_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsext.vf8 v26, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i8_nxv2f64( %va) { +; RV32-LABEL: vuitofp_nxv2i8_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vzext.vf8 v26, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i8_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vzext.vf8 v26, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i8_nxv4f16( %va) { +; RV32-LABEL: vsitofp_nxv4i8_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i8_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i8_nxv4f16( %va) { +; RV32-LABEL: vuitofp_nxv4i8_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i8_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i8_nxv4f32( %va) { +; RV32-LABEL: vsitofp_nxv4i8_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vsext.vf4 v26, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i8_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vsext.vf4 v26, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i8_nxv4f32( %va) { +; RV32-LABEL: vuitofp_nxv4i8_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vzext.vf4 v26, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i8_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vzext.vf4 v26, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i8_nxv4f64( %va) { +; RV32-LABEL: vsitofp_nxv4i8_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vsext.vf8 v28, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i8_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vsext.vf8 v28, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i8_nxv4f64( %va) { +; RV32-LABEL: vuitofp_nxv4i8_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vzext.vf8 v28, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i8_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vzext.vf8 v28, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i8_nxv8f16( %va) { +; RV32-LABEL: vsitofp_nxv8i8_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i8_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i8_nxv8f16( %va) { +; RV32-LABEL: vuitofp_nxv8i8_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i8_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m1,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i8_nxv8f32( %va) { +; RV32-LABEL: vsitofp_nxv8i8_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vsext.vf4 v28, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i8_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vsext.vf4 v28, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i8_nxv8f32( %va) { +; RV32-LABEL: vuitofp_nxv8i8_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vzext.vf4 v28, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i8_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vzext.vf4 v28, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i8_nxv8f64( %va) { +; RV32-LABEL: vsitofp_nxv8i8_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vsext.vf8 v16, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i8_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vsext.vf8 v16, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v16 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i8_nxv8f64( %va) { +; RV32-LABEL: vuitofp_nxv8i8_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vzext.vf8 v16, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i8_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vzext.vf8 v16, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v16 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv16i8_nxv16f16( %va) { +; RV32-LABEL: vsitofp_nxv16i8_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv16i8_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv16i8_nxv16f16( %va) { +; RV32-LABEL: vuitofp_nxv16i8_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv16i8_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m2,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv16i8_nxv16f32( %va) { +; RV32-LABEL: vsitofp_nxv16i8_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV32-NEXT: vsext.vf4 v16, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv16i8_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV64-NEXT: vsext.vf4 v16, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v16 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv16i8_nxv16f32( %va) { +; RV32-LABEL: vuitofp_nxv16i8_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV32-NEXT: vzext.vf4 v16, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv16i8_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV64-NEXT: vzext.vf4 v16, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v16 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv32i8_nxv32f16( %va) { +; RV32-LABEL: vsitofp_nxv32i8_nxv32f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv32i8_nxv32f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv32i8_nxv32f16( %va) { +; RV32-LABEL: vuitofp_nxv32i8_nxv32f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv32i8_nxv32f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e8,m4,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i16_nxv1f16( %va) { +; RV32-LABEL: vsitofp_nxv1i16_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i16_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i16_nxv1f16( %va) { +; RV32-LABEL: vuitofp_nxv1i16_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i16_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i16_nxv1f32( %va) { +; RV32-LABEL: vsitofp_nxv1i16_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i16_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i16_nxv1f32( %va) { +; RV32-LABEL: vuitofp_nxv1i16_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i16_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i16_nxv1f64( %va) { +; RV32-LABEL: vsitofp_nxv1i16_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vsext.vf4 v25, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i16_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vsext.vf4 v25, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i16_nxv1f64( %va) { +; RV32-LABEL: vuitofp_nxv1i16_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vzext.vf4 v25, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i16_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vzext.vf4 v25, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i16_nxv2f16( %va) { +; RV32-LABEL: vsitofp_nxv2i16_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i16_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i16_nxv2f16( %va) { +; RV32-LABEL: vuitofp_nxv2i16_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i16_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i16_nxv2f32( %va) { +; RV32-LABEL: vsitofp_nxv2i16_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i16_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i16_nxv2f32( %va) { +; RV32-LABEL: vuitofp_nxv2i16_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i16_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i16_nxv2f64( %va) { +; RV32-LABEL: vsitofp_nxv2i16_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vsext.vf4 v26, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i16_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vsext.vf4 v26, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i16_nxv2f64( %va) { +; RV32-LABEL: vuitofp_nxv2i16_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vzext.vf4 v26, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i16_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vzext.vf4 v26, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i16_nxv4f16( %va) { +; RV32-LABEL: vsitofp_nxv4i16_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i16_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i16_nxv4f16( %va) { +; RV32-LABEL: vuitofp_nxv4i16_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i16_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i16_nxv4f32( %va) { +; RV32-LABEL: vsitofp_nxv4i16_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i16_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i16_nxv4f32( %va) { +; RV32-LABEL: vuitofp_nxv4i16_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i16_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i16_nxv4f64( %va) { +; RV32-LABEL: vsitofp_nxv4i16_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vsext.vf4 v28, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i16_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vsext.vf4 v28, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i16_nxv4f64( %va) { +; RV32-LABEL: vuitofp_nxv4i16_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vzext.vf4 v28, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i16_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vzext.vf4 v28, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i16_nxv8f16( %va) { +; RV32-LABEL: vsitofp_nxv8i16_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i16_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i16_nxv8f16( %va) { +; RV32-LABEL: vuitofp_nxv8i16_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i16_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i16_nxv8f32( %va) { +; RV32-LABEL: vsitofp_nxv8i16_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i16_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i16_nxv8f32( %va) { +; RV32-LABEL: vuitofp_nxv8i16_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i16_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i16_nxv8f64( %va) { +; RV32-LABEL: vsitofp_nxv8i16_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vsext.vf4 v16, v8 +; RV32-NEXT: vfcvt.f.x.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i16_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vsext.vf4 v16, v8 +; RV64-NEXT: vfcvt.f.x.v v8, v16 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i16_nxv8f64( %va) { +; RV32-LABEL: vuitofp_nxv8i16_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vzext.vf4 v16, v8 +; RV32-NEXT: vfcvt.f.xu.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i16_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vzext.vf4 v16, v8 +; RV64-NEXT: vfcvt.f.xu.v v8, v16 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv16i16_nxv16f16( %va) { +; RV32-LABEL: vsitofp_nxv16i16_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv16i16_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv16i16_nxv16f16( %va) { +; RV32-LABEL: vuitofp_nxv16i16_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv16i16_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv16i16_nxv16f32( %va) { +; RV32-LABEL: vsitofp_nxv16i16_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv16i16_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv16i16_nxv16f32( %va) { +; RV32-LABEL: vuitofp_nxv16i16_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv16i16_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv32i16_nxv32f16( %va) { +; RV32-LABEL: vsitofp_nxv32i16_nxv32f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv32i16_nxv32f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv32i16_nxv32f16( %va) { +; RV32-LABEL: vuitofp_nxv32i16_nxv32f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv32i16_nxv32f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m8,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i32_nxv1f16( %va) { +; RV32-LABEL: vsitofp_nxv1i32_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i32_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i32_nxv1f16( %va) { +; RV32-LABEL: vuitofp_nxv1i32_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i32_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i32_nxv1f32( %va) { +; RV32-LABEL: vsitofp_nxv1i32_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i32_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i32_nxv1f32( %va) { +; RV32-LABEL: vuitofp_nxv1i32_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i32_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i32_nxv1f64( %va) { +; RV32-LABEL: vsitofp_nxv1i32_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i32_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i32_nxv1f64( %va) { +; RV32-LABEL: vuitofp_nxv1i32_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i32_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i32_nxv2f16( %va) { +; RV32-LABEL: vsitofp_nxv2i32_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i32_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i32_nxv2f16( %va) { +; RV32-LABEL: vuitofp_nxv2i32_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i32_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i32_nxv2f32( %va) { +; RV32-LABEL: vsitofp_nxv2i32_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i32_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i32_nxv2f32( %va) { +; RV32-LABEL: vuitofp_nxv2i32_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i32_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i32_nxv2f64( %va) { +; RV32-LABEL: vsitofp_nxv2i32_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i32_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i32_nxv2f64( %va) { +; RV32-LABEL: vuitofp_nxv2i32_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i32_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i32_nxv4f16( %va) { +; RV32-LABEL: vsitofp_nxv4i32_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i32_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i32_nxv4f16( %va) { +; RV32-LABEL: vuitofp_nxv4i32_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i32_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i32_nxv4f32( %va) { +; RV32-LABEL: vsitofp_nxv4i32_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i32_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i32_nxv4f32( %va) { +; RV32-LABEL: vuitofp_nxv4i32_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i32_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i32_nxv4f64( %va) { +; RV32-LABEL: vsitofp_nxv4i32_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i32_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i32_nxv4f64( %va) { +; RV32-LABEL: vuitofp_nxv4i32_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i32_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i32_nxv8f16( %va) { +; RV32-LABEL: vsitofp_nxv8i32_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.f.x.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i32_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.f.x.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i32_nxv8f16( %va) { +; RV32-LABEL: vuitofp_nxv8i32_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i32_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i32_nxv8f32( %va) { +; RV32-LABEL: vsitofp_nxv8i32_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i32_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i32_nxv8f32( %va) { +; RV32-LABEL: vuitofp_nxv8i32_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i32_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i32_nxv8f64( %va) { +; RV32-LABEL: vsitofp_nxv8i32_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.f.x.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i32_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.f.x.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i32_nxv8f64( %va) { +; RV32-LABEL: vuitofp_nxv8i32_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfwcvt.f.xu.v v16, v8 +; RV32-NEXT: vmv8r.v v8, v16 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i32_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfwcvt.f.xu.v v16, v8 +; RV64-NEXT: vmv8r.v v8, v16 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv16i32_nxv16f16( %va) { +; RV32-LABEL: vsitofp_nxv16i32_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.f.x.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv16i32_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.f.x.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv16i32_nxv16f16( %va) { +; RV32-LABEL: vuitofp_nxv16i32_nxv16f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv16i32_nxv16f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e16,m4,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv16i32_nxv16f32( %va) { +; RV32-LABEL: vsitofp_nxv16i32_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv16i32_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv16i32_nxv16f32( %va) { +; RV32-LABEL: vuitofp_nxv16i32_nxv16f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv16i32_nxv16f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m8,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i64_nxv1f16( %va) { +; RV32-LABEL: vsitofp_nxv1i64_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i64_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i64_nxv1f16( %va) { +; RV32-LABEL: vuitofp_nxv1i64_nxv1f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i64_nxv1f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf4,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i64_nxv1f32( %va) { +; RV32-LABEL: vsitofp_nxv1i64_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i64_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i64_nxv1f32( %va) { +; RV32-LABEL: vuitofp_nxv1i64_nxv1f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i64_nxv1f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,mf2,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv1i64_nxv1f64( %va) { +; RV32-LABEL: vsitofp_nxv1i64_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv1i64_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv1i64_nxv1f64( %va) { +; RV32-LABEL: vuitofp_nxv1i64_nxv1f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv1i64_nxv1f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m1,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i64_nxv2f16( %va) { +; RV32-LABEL: vsitofp_nxv2i64_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i64_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i64_nxv2f16( %va) { +; RV32-LABEL: vuitofp_nxv2i64_nxv2f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i64_nxv2f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vsetvli a0, zero, e16,mf2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i64_nxv2f32( %va) { +; RV32-LABEL: vsitofp_nxv2i64_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.f.x.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i64_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.f.x.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i64_nxv2f32( %va) { +; RV32-LABEL: vuitofp_nxv2i64_nxv2f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v25, v8 +; RV32-NEXT: vmv1r.v v8, v25 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i64_nxv2f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m1,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v25, v8 +; RV64-NEXT: vmv1r.v v8, v25 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv2i64_nxv2f64( %va) { +; RV32-LABEL: vsitofp_nxv2i64_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv2i64_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv2i64_nxv2f64( %va) { +; RV32-LABEL: vuitofp_nxv2i64_nxv2f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv2i64_nxv2f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m2,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i64_nxv4f16( %va) { +; RV32-LABEL: vsitofp_nxv4i64_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.f.x.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i64_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.f.x.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i64_nxv4f16( %va) { +; RV32-LABEL: vuitofp_nxv4i64_nxv4f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v26, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i64_nxv4f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v26, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m1,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i64_nxv4f32( %va) { +; RV32-LABEL: vsitofp_nxv4i64_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.f.x.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i64_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.f.x.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i64_nxv4f32( %va) { +; RV32-LABEL: vuitofp_nxv4i64_nxv4f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v26, v8 +; RV32-NEXT: vmv2r.v v8, v26 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i64_nxv4f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m2,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v26, v8 +; RV64-NEXT: vmv2r.v v8, v26 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv4i64_nxv4f64( %va) { +; RV32-LABEL: vsitofp_nxv4i64_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv4i64_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv4i64_nxv4f64( %va) { +; RV32-LABEL: vuitofp_nxv4i64_nxv4f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv4i64_nxv4f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m4,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i64_nxv8f16( %va) { +; RV32-LABEL: vsitofp_nxv8i64_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.f.x.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i64_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.f.x.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i64_nxv8f16( %va) { +; RV32-LABEL: vuitofp_nxv8i64_nxv8f16: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v28, v8 +; RV32-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV32-NEXT: vfncvt.f.f.w v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i64_nxv8f16: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v28, v8 +; RV64-NEXT: vsetvli a0, zero, e16,m2,ta,mu +; RV64-NEXT: vfncvt.f.f.w v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i64_nxv8f32( %va) { +; RV32-LABEL: vsitofp_nxv8i64_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.f.x.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i64_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.f.x.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i64_nxv8f32( %va) { +; RV32-LABEL: vuitofp_nxv8i64_nxv8f32: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV32-NEXT: vfncvt.f.xu.w v28, v8 +; RV32-NEXT: vmv4r.v v8, v28 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i64_nxv8f32: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e32,m4,ta,mu +; RV64-NEXT: vfncvt.f.xu.w v28, v8 +; RV64-NEXT: vmv4r.v v8, v28 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} + +define @vsitofp_nxv8i64_nxv8f64( %va) { +; RV32-LABEL: vsitofp_nxv8i64_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vfcvt.f.x.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vsitofp_nxv8i64_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vfcvt.f.x.v v8, v8 +; RV64-NEXT: ret + %evec = sitofp %va to + ret %evec +} + +define @vuitofp_nxv8i64_nxv8f64( %va) { +; RV32-LABEL: vuitofp_nxv8i64_nxv8f64: +; RV32: # %bb.0: +; RV32-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV32-NEXT: vfcvt.f.xu.v v8, v8 +; RV32-NEXT: ret +; +; RV64-LABEL: vuitofp_nxv8i64_nxv8f64: +; RV64: # %bb.0: +; RV64-NEXT: vsetvli a0, zero, e64,m8,ta,mu +; RV64-NEXT: vfcvt.f.xu.v v8, v8 +; RV64-NEXT: ret + %evec = uitofp %va to + ret %evec +} +