Matriz multiplicada por escalar en Python
Publicado por Felipe (1 intervención) el 03/10/2018 05:51:04
Este es el ejercicio:
# 2) Se debe solicitar al usuario que complete los valores para dos matrices de 4x3 y luego crear una nueva matriz que será el resultado de la matriz inicial multiplicada por el escalar. Mostrar el resultado.
De más esta aclarar que soy nuevo en esto.
Bueno, esto es lo que pude hacer, pero obvio, no funciona, si alguien me puede explicar como sería lo agradecería, saludos!
# 2) Se debe solicitar al usuario que complete los valores para dos matrices de 4x3 y luego crear una nueva matriz que será el resultado de la matriz inicial multiplicada por el escalar. Mostrar el resultado.
1
2
3
4
5
6
7
8
9
10
11
12
13
matriz=[]
#Ingresar de forma estáticas las F y las C.
f=4
c=3
#Crear un for que recorra F y C para luego agregar valores que ingrese el usuario.
for i in range (f):
matriz.append([])
for j in range (c):
matriz[i].append(input("Ingrese un valor: "))
n=int(input("Por favor, ingrese un escalar: "))
De más esta aclarar que soy nuevo en esto.
Bueno, esto es lo que pude hacer, pero obvio, no funciona, si alguien me puede explicar como sería lo agradecería, saludos!
Valora esta pregunta
0