domingo, 30 de mayo de 2021

La hipótesis de investigación

 ¿QUÉ ES HIPÓTESIS?

Las hipótesis indican lo que tratamos de probar y se definen como explicaciones tentativas del fenómeno investigado. Se derivan de la teoría existente y deben formularse a manera de proposiciones. De hecho, son respuestas provisionales a las preguntas de investigación.
Las hipótesis se definen dependiendo del alcance de la investigación donde tenemos los siguientes alcances:

Exploratorio: No se formulan hipótesis.
Descriptivo: Sólo se formulan hipótesis cuando se pronostica un hecho o dato.
Correlacional: Se formulan hipótesis correlacionales.
Explicativo: Se formulan hipótesis causales.


CARACTERÍSTICAS DE LAS HIPÓTESIS


Ø  La hipótesis debe referirse a una situación “real”.
Ø  Las variables o términos de la hipótesis deben ser comprensibles, precisos y lo más concretos que sea posible.
Ø  La relación entre variables propuesta por una hipótesis debe ser clara y verosímil (lógica).
Ø  Los términos o variables de la hipótesis deben ser observables y medibles, así como la relación planteada entre ellos, o sea, tener referentes en la realidad.
Ø  Las hipótesis deben estar relacionadas con técnicas disponibles para probarlas.
Ø  Las hipótesis no necesariamente son verdaderas, pueden o no serlo, y pueden o no comprobarse con datos.
Ø  Pueden ser más o menos generales o precisas, y abarcar dos o más variables; pero en cualquier caso son sólo afirmaciones sujetas a comprobación empírica, es decir, a verificación en la realidad.
Ø  Las hipótesis surjan del planteamiento del problema y del marco teórico, por lo que se dice que la relación es muy estrecha entre el planteamiento del problema, la revisión de la literatura y las hipótesis.


TIPOS DE HIPÓTESIS

Según el libro de referencia “Metodología de la investigación” por lo autores Hernández, Fernández & Baptista, se concentran en los siguientes tipos:


Hipótesis de investigación:
 Se definen como proposiciones tentativas acerca de las posibles relaciones entre dos o más variables. Se les suele simbolizar como Hi o H1, H2, H3, etc. (cuando son varias), y también se les denomina “hipótesis de trabajo”.

Las hipótesis de investigación pueden ser:

a)      Descriptivas de un valor o dato pronosticado, se utilizan  para intentar predecir dato o valor en una o más variables que se van a medir u observar. Pero cabe comentar que no en todas las investigaciones descriptivas se formulan hipótesis de esta clase.

b)      Correlacionales, especifican las relaciones entre dos o más variables y corresponden a los estudios correlacionales, no sólo pueden establecer que dos o más variables se encuentran vinculadas, sino también cómo están asociadas. Alcanzan el nivel predictivo y parcialmente explicativo.

c)       de diferencia de grupos, se formulan en investigaciones cuya finalidad es comparar grupos.


d)      Causales, no solamente afirma la o las relaciones entre dos o más variables y la manera en que se manifiestan, sino que además propone un “sentido de entendimiento” de las relaciones. Tal sentido puede ser más o menos completo, esto depende del número de variables que se incluyan, pero todas estas hipótesis establecen relaciones de causa-efecto.

Hipótesis nulas: Proposiciones acerca de la relación entre variables, sólo que sirven para refutar o negar lo que afirma la hipótesis de investigación.

Hipótesis alternativas: Son posibilidades alternas de las hipótesis de investigación y nula, ofrecen una descripción o explicación distinta de las que proporcionan éstas.
Cada una constituye una descripción distinta de las que proporcionan las hipótesis de investigación y nula.
Las hipótesis alternativas se simbolizan como Ha y sólo pueden formularse cuando efectivamente hay otras posibilidades, además de las hipótesis de investigación y nula. De no ser así, no deben establecerse.

Hipótesis estadísticas: Estas pueden ser de estimación, de correlación y de diferencia de medias.




Recolección de datos

 Recolectar los datos implica elaborar un plan detallado de procedimientos que nos conduzcan a reunir datos con un propósito específico. Este plan incluye determinar:


a) ¿Cuáles son las fuentes de las que se obtendrán los datos? Es decir, los datos van a ser proporcionados por personas, se producirán de observaciones y registros o se encuentran en documentos, archivos, bases de datos, etcétera.

b) ¿En dónde se localizan tales fuentes? Regularmente en la muestra seleccionada, pero es indispensable definir con precisión.

c) ¿A través de qué medio o método vamos a recolectar los datos? Esta fase implica elegir uno varios medios y definir los procedimientos que utilizaremos en la recolección de los datos. Método o métodos deben ser confiables, válidos y “objetivos”.

d) Una vez recolectados, ¿de qué forma vamos a prepararlos para que puedan analizarse y respondamos al planteamiento del problema?


El plan se nutre de diversos elementos, como:

1. Las variables, conceptos o atributos a medir (contenidos en el planteamiento e hipótesis o directrices del estudio).
2. Las definiciones operacionales. La manera como hemos operacionalizado las variables es crucial para determinar el método para medirlas, lo cual a su vez, resulta fundamental para realizar las inferencias de los datos.
3. La muestra.
4. Los recursos disponibles (de tiempo, apoyo institucional, económicos, etcétera).



Algunos conceptos para la recolección de datos son:


Medir: Proceso que vincula conceptos abstractos con indicadores empíricos.


Instrumento de medición: Recurso que utiliza el investigador para registrar información o datos sobre las variables que tiene en mente. Un instrumento de medición adecuado es aquel que registra datos observables que representan verdaderamente los conceptos o las variables que el investigador tiene en mente. En términos cuantitativos: capturo verdaderamente la “realidad” que deseo capturar.


¿QUÉ REQUISITOS DEBE CUBRIR UN INSTRUMENTO DE MEDICIÓN?


Toda medición o instrumento de recolección de datos debe reunir tres requisitos esenciales: confiabilidad, validez y objetividad. Las cuales se definen a su vez como:

Confiabilidad: La confiabilidad de un instrumento de medición se refiere al grado en que su aplicación repetida al mismo individuo u objeto produce resultados iguales. Grado en que un instrumento produce resultados consistentes y coherentes.


Validez: Se refiere al grado en que un instrumento mide realmente la variable que pretende medir.
La validez es un concepto del cual pueden tenerse diferentes tipos de evidencia, las cuales pueden ser:

1)      evidencia relacionada con el contenido: Se refiere al grado en que un instrumento refleja un dominio específico de contenido de lo que se mide. Es el grado en el que la medición representa al concepto o variable medida. El dominio de contenido de una variable normalmente está definido o establecido por la literatura (teorías y antecedentes).

2)       evidencia relacionada con el criterioSe establece al correlacionar las puntuaciones resultantes de aplicar el instrumento con las puntuaciones obtenidas de otro criterio externo que pretende medir lo mismo.


3)      evidencia relacionada con el constructo: Es probablemente la más importante, sobre todo desde una perspectiva científica, y debe explicar cómo las mediciones del concepto o variable se vinculan de manera congruente con las mediciones de otros conceptos correlacionados teóricamente.

Nota: La validez y la confiabilidad no se deben de asumir, se prueban.


Objetividad: En un instrumento de medición, la objetividad se refiere al grado en que éste es o no permeable a la influencia de los sesgos y tendencias del investigador o investigadores que lo administran, califican e interpretan.



“La validez, la confiabilidad y la objetividad no deben tratarse de forma separada. Sin alguna de las tres, el instrumento no es útil para llevar a cabo un estudio.”

Cuestionario: Consiste en un conjunto de preguntas respecto de una o más variables a medir, debe ser congruente con el planteamiento del problema e hipótesis, esta debe ser congruente con el planteamiento del problema e hipótesis.


Análisis de contenido: Es una técnica para estudiar cualquier tipo de comunicación de una manera “objetiva” y sistemática,  que cuantifica los mensajes o contenidos en categorías y subcategorías, y los somete a análisis estadístico, sus usos son muy variados.

Aprendizaje REDA 2

 






















sábado, 22 de mayo de 2021

Matriz de riesgos

 


Norma Nch-ISO 27001

 La NCH ISO 27001 es una norma chilena que ha sido elaborada y difundida por el Instituto Nacional de Normalización (INN, la cual permite garantizar la confidencialidad e integración de la información que manipulan las organizaciones.

para leer más sobre la Norma Nch-ISO 27001 clic aquí.

Vulnerabilidades del Software

Las vulnerabilidad del Software puede deberse a:
  • Una mala configuración del software por parte del administrador y/o usuario.
  • Una incorrecta programación durante el proceso de desarrollo o actualización del Software.
  • Hoy en día, se deben más a: bastante documentación de usuario para configurar el Software.
  • Desconocimiento de seguridad informática en la mayoría de programadores.
  • Empresarios que fuerzan los ciclo de desarrollo del Software para terminar antes los productos.
  • Las auditorias de seguridad de código fuente apenas se practican.

Destacamos las siguientes vulnerabilidades:


Cross Site Scripting (XSS) de forma directa e indirecta

XSS es un ataque de inyección de código malicioso para su posterior ejecución que puede realizarse a sitios web, aplicaciones locales e incluso al propio navegador.
Sucede cuando un usuario mal intencionado envía código malicioso a la aplicación web y se coloca en forma de un hipervínculo para conducir al usuario a otro sitio web, mensajería instantánea o un correo electrónico. Así mismo, puede provocar una negación de servicio (DDos).

Directo: Consiste en invadir código HTML mediante la inclusión de etiquetas <script> y <frame> en sitios que lo permiten.

Indirecto; Funciona modificando valores que la aplicación web pasa de una página a otra, sin emplear sesiones. Sucede cuando se envía un mensaje o ruta en una URL, una cookie o en la cabecera HTTP (pudiendo extenderse al DOM del navegador).

Desbordamiento del Buffer

Se lleva a cabo cuando un programa informático excede el uso de cantidad de memoria asignado por el sistema operativo, escribiendo en el bloque de memoria contiguo. Estos fallos son utilizados por ciberdelincuentes para lograr ejecutar código arbitrario en un equipo, de manera que en muchos casos logran tomar control del equipo víctima o ejecutar un ataque de Denegación de Servicios (DoS).Inyección SQL

Es una petición de algún tipo de acción sobre una base de datos. La más habitual es la petición de un nombre de usuario y una contraseña en una página web. Dado que muchos sitios web solo supervisan la introducción de nombres de usuario y contraseñas, un hacker puede utilizar los cuadros de introducción de datos para enviar sus propias peticiones, es decir, inyectar SQL en la base de datos. De esta forma, los hackers pueden crear, leer, actualizar, modificar o eliminar los datos guardados en la base de datos back-end, normalmente para acceder a información confidencial, como los números de la seguridad social, los datos de las tarjetas de crédito u otra información financiera.

Árboles de ataque

Son una herramienta gráfica para analizar y presentar qué puede pasar y cómo lo prevenimos. Capturan de alguna forma el razonamiento del atacante y permiten anticiparse a lo que pudiera ocurrir. Aunque es difícil construir árboles exhaustivos en el primer intento, sí son un buen soporte para ir incorporando la experiencia acumulada y recopilar en cada momento el mejor conocimiento del que se dispone.

Los árboles de ataque constituyen una documentación extremadamente valiosa para un atacante, especialmente cuando incorporan el estado actual de salvaguardas, pues facilitan en extremo su trabajo.
Son un documento clasificado y deben tomarse todas las medidas de seguridad necesarias para garantizar su confidencialidad.

Resumen de los pasos que abarca un Árbol de Ataque:
La construcción del árbol es compleja y laboriosa además de un gran conocimiento del objeto de protección, de sus vulnerabilidades, de las amenazas a las que esta expuesto, de las capacidades de los atacantes potenciales, así como de las características y efectividad de las medidas de seguridad o salvaguardas aplicables.

  1. Marcar el objetivo final requiere un gran conocimiento de dónde está el valor en la Organización y cual puede ser el objetivo del atacante respecto del mismo. 38 Construcción del árbol
  2. El enriquecimiento del árbol de ataque en forma de ramas debería ser exhaustivo; pero está limitado por la imaginación del analista; si el atacante es “más listo” tiene una oportunidad para utilizar una vía imprevista.
  3. La experiencia permite ir enriqueciendo el árbol con nuevos ataques realmente perpetrados o simplemente detectados en el perímetro con un buen sistema de monitorización.
  • Fase 1: Obtención de Información.
  • Fase 2: Determinación del objetivo estratégico .
  • Fase 3: Asignación de recursos .
  • Fase 4: Determinar los objetivos tácticos.
  • Fase 5: Elaboración de los planes tácticos.
  • Fase 6: Ejecución del ataque.
  • Fase 7: Análisis del resultado del ataque.

Metodología OCTAVE



OCTAVE se centra en el estudio de riesgos organizacionales, principalmente en los aspectos relacionados con el día a día de las empresas. La evaluación inicia a partir de la identificación de los activos relacionados con la información, definiendo este concepto con los elementos de TI que representan valor para la empresa (sistemas de información, software, archivos físicos o magnéticos, personas).

De esta forma, OCTAVE estudia la infraestructura de información y, más importante aún, la manera como dicha infraestructura se usa. Se considera que, con el fin de que una organización pueda cumplir su misión, los empleados de todos los niveles necesitan entender qué activos relacionados con la información son importantes y
cómo deben protegerlos.

El proceso de evaluación contemplado por OCTAVE se divide en tres fases:
  1. Construcción de perfiles de amenazas basadas en activos.
  2. Identificación de vulnerabilidades en la infraestructura.
  3. Desarrollo de estrategias y planes de seguridad.


El principal problema al que se está expuesto al hacer una evaluación de este tipo es que no se identifiquen oportunamente riesgos importantes, a los que eventualmente las organizaciones son vulnerables, por ello metodologías como OCTAVE minimizan este problema. Es importante que en el análisis se resalte lo valiosa que es la información, debido a que gran parte de los riesgos provienen de “costumbres” internas de las organizaciones.


Metodologías para análisis de riesgos




Las Metodologías para análisis de riesgos se ven reflejadas en la información tratada en cada organización, debemos rescatar que algunas como OCTAVE, MEHARI, MAGERIT, CRAMM, EBIOS y NIST SP 800-30. Nos han permitido asegurar los sistemas de información de las organizaciones.

Así como otras Metodologías enfocadas a las ISO 9001:
  1. Identificar los riesgos: generalmente inicia con una sesión de lluvia de ideas, en las que participan personas de todas las áreas, que tienen un profundo conocimiento del funcionamiento del negocio. Se enumeran todos los agentes externos o internos que pueden, eventualmente, generar un riesgo por absurdo que parezca, o una nueva oportunidad.

  2. Determinar la criticidad de cada riesgo: los riesgos se evalúan comparándolos con un conjunto de factores y clasificándolos en una escala de acuerdo con su capacidad para impactar a la organización. Entre los factores que utilizamos para determinar que tan crítico es un riesgo, tenemos la probabilidad de ocurrencia y la facilidad o no para detectarlos.

  3. Clasificación de los riesgos: algunos riesgos resultan tolerables o aceptables para la organización, debido a su baja incidencia, su impacto leve o su escasa probabilidad de ocurrencia. Este tipo de riesgos, generalmente, no requieren emprender ninguna acción sobre ellos. Otros, por el contrario, deben ser eliminados o mitigados en su impacto. Algunos más pueden ser compartidos o tratados, de acuerdo con las acciones que describimos en el paso No.

  4. Determinar las acciones a seguir: finalmente, una vez la organización tiene una visión global de los riesgos a los que está expuesta, su capacidad de impacto y su probabilidad de ocurrencia, tiene todos los elementos necesarios para diseñar las acciones para el tratamiento de esos riesgos.

Análisis de Riesgos

 El activo más importante que se posee es la información y, por lo tanto, deben existir técnicas que la aseguren, más allá de la seguridad física que se establezca sobre los equipos en los cuales se almacena. Estas técnicas las brinda la seguridad lógica que consiste en la aplicación de barreras y procedimientos que resguardan el acceso a los datos y sólo permiten acceder a ellos a las personas autorizadas para hacerlo.


Los medios para conseguirlo:
  • Restringir el acceso (de personas de la organización y de las que no lo son) a los programas y archivos.
  • Asegurar que los operadores puedan trabajar pero que no puedan modificar los programas ni los archivos que no correspondan (sin una supervisión minuciosa).
  • Asegurar que se utilicen los datos, archivos y programas correctos en/y/por el procedimiento elegido.
  • Asegurar que la información transmitida sea la misma que reciba el destinatario al cual se ha enviado y que no le llegue a otro.
  • Asegurar que existan sistemas y pasos de emergencia alternativos de transmisión entre diferentes puntos.
  • Organizar a cada uno de los empleados por jerarquía informática, con claves distintas y permisos bien establecidos, en todos y cada uno de los sistemas o aplicaciones empleadas.
  • Actualizar constantemente las contraseñas de accesos a los sistemas de cómputo.

Elementos de un análisis de riesgo

Cuando se pretende diseñar una técnica para implementar un análisis de riesgo informático se pueden tomar los siguientes puntos como referencia a seguir:
  1. Construir un perfil de las amenazas que esté basado en los activos de la organización.
  2. Identificación de los activos de la organización.
  3. Identificar las amenazas de cada uno de los activos listados.
  4. Conocer las prácticas actuales de seguridad
  5. Identificar las vulnerabilidades de la organización.
  6. Identificar los requerimientos de seguridad de la organización.
  7. Identificación de las vulnerabilidades dentro de la infraestructura tecnológica.
  8. Detección de los componentes claves
  9. Desarrollar planes y estrategias de seguridad que contengan los siguientes puntos:
    • Riesgo para los activos críticos
    • Medidas de riesgos
    • Estrategias de protección
    • Planes para reducir los riesgos.

Norma NTC-ISO 27005

La norma ISO 27005 contiene diferentes recomendaciones y directrices generales para la gestión de riesgo en Sistemas de Gestión de Seguridad de la Información. Puedes conocer más sobre la norma ISO 27005 en el siguiente post ISO/IEC 27005. Gestión de riesgos de la Seguridad la Información.

Es compatible con los conceptos generales especificados en la norma ISO 27001 y se encuentra diseñada como soporte para aplicar de forma satisfactoria un SGSI basado en el enfoque de gestión de riesgo.

La norma ISO 27005 reemplaza a la norma ISO 13335-2 “Gestión de Seguridad de la Información y la tecnología de las comunicaciones”. La norma fue publicada por primera vez en junio de 2008, aunque existe una versión mejorada del año 2011.

Para ver la ISO en formato pdf y completo dar clic aquí.

Amenazas a la seguridad informática

 Tipos de amenazas

Existen infinidad de modos de clasificar un ataque y cada ataque puede recibir más de una clasificación. Por ejemplo, un caso de phishing puede llegar a robar la contraseña de un usuario de una red social y con ella realizar una suplantación de la identidad para un posterior acoso, o el robo de la contraseña puede usarse simplemente para cambiar la foto del perfil y dejarlo todo en una broma.

Amenazas por el origen

El hecho de conectar un sistema a un entorno externo nos da la posibilidad de que algún atacante pueda entrar en ella y hurtar información o alterar el funcionamiento de la red. Sin embargo el hecho de que la red no esté conectada a un entorno externo, como Internet, no nos garantiza la seguridad de la misma. De acuerdo con el Computer Security Institute (CSI) de San Francisco, aproximadamente entre el 60 y 80 por ciento de los incidentes de red son causados desde dentro de la misma. Basado en el origen del ataque podemos decir que existen dos tipos de amenazas:

  • Amenazas internas: generalmente estas amenazas pueden ser más serias que las externas, por varias razones como:
  • Si es por usuarios o personal técnico, conocen la red y saben cómo es su funcionamiento, ubicación de la información, datos de interés, etc. Además tienen algún nivel de acceso a la red por las mismas necesidades de su trabajo, lo que les permite mínimos movimientos.
  • Los sistemas de prevención de intrusos o IPS, y firewalls son mecanismos no efectivos en amenazas internas por no estar, habitualmente, orientados al tráfico interno. Que el ataque sea interno no tiene que ser exclusivamente por personas ajenas a la red, podría ser por vulnerabilidades que permiten acceder a la red directamente: rosetas accesibles, redes inalámbricas desprotegidas, equipos sin vigilancia, etc.
  • Amenazas externas: Son aquellas amenazas que se originan fuera de la red. Al no tener información certera de la red, un atacante tiene que realizar ciertos pasos para poder conocer qué es lo que hay en ella y buscar la manera de atacarla. La ventaja que se tiene en este caso es que el administrador de la red puede prevenir una buena parte de los ataques externos.

Amenazas por el efecto

El tipo de amenazas según el efecto que causan a quien recibe los ataques podría clasificarse en:

  • Robo de información.
  • Destrucción de información.
  • Anulación del funcionamiento de los sistemas o efectos que tiendan a ello.
  • Suplantación de la identidad, publicidad de datos personales o confidenciales, cambio de información, venta de datos personales, etc.
  • Robo de dinero, estafas.

Amenazas por el medio utilizado

Se pueden clasificar por el modus operandi del atacante, si bien el efecto puede ser distinto para un mismo tipo de ataque:

  • Virus informático: malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un computadora, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.
  • Phishing.
  • Ingeniería social.
  • Denegación de servicio.
  • Spoofing: de DNS, de IP, de DHCP.

Seguridad en informática

Solución a ejercicio interactivo “Seguridad en informática”




viernes, 21 de mayo de 2021

Asociación de escenario de aplicación de fundamentos, principios, tipos y niveles de pruebas

 

Los diferentes tipos de testing en el desarrollo de software

En este artículo vamos a ver qué tipos de testing existen con relación al desarrollo de software.

Vamos a aprender en qué consisten y en qué se diferencian tales tipos, como por ejemplo: unit testing, integration testing, functional testing, acceptance testing, y muchos más.

Existen muchos tipos de testing, o pruebas de software, que podemos usar para confirmar que nuestro software continúa funcionando correctamente tras introducir cambios nuevos sobre nuestro código fuente.

No todas las pruebas son iguales. Es por ello que en este artículo vamos a ver cómo difieren las principales pruebas de software.

Manual vs Testing automatizado

De manera general, lo primero que debemos tener en cuenta es que existen pruebas de software manuales y pruebas de software automatizadas.

Las pruebas manuales son llevadas a cabo por personas, quienes navegan e interactúan con el software (usando herramientas adecuadas para cada caso).

Estas pruebas resultan costosas, ya que se requiere contar con un profesional encargado de esta labor; para configurar un entorno y así mismo ejecutar las pruebas.

Como es de esperarse, estas pruebas están expuestas a errores humanos: por ejemplo, se pueden cometer errores tipográficos u omitir pasos durante la prueba.

Las pruebas automatizadas, por el contrario, son realizadas por máquinas, que ejecutan un "test script" que ya ha sido escrito previamente.

Estos tests (o pruebas) pueden variar mucho en cuanto a complejidad:

  • desde verificar que el método de una clase específica funcione correctamente,
  • hasta asegurar que una secuencia de acciones complejas en la UI se lleven acabo correctamente y devuelvan los resultados esperados.

Estas pruebas son más rápidas y confiables que las que se llevan a cabo manualmente – pero la calidad de estas pruebas automatizadas depende de qué tan bien escritos se encuentren los "tests scripts" (código que determina qué es lo que se hará en la prueba).

Los diferentes tipos de tests

Veamos los diferentes tipos de prueba que existen (hay más, pero éstas son las más importantes).

Pruebas Unitarias(Unit test)

Las pruebas unitarias son a bajo nivel (cercanas al código fuente de nuestra aplicación).

Este tipo de testing consiste en probar de forma individual las funciones y/o métodos (de las clases, componentes y/o módulos que son usados por nuestro software).

Pruebas de Integración (Integration tests)

Las pruebas de integración verifican que los diferentes módulos y/o servicios usados por nuestra aplicación funcionen en armonía cuando trabajan en conjunto.

Por ejemplo,

  • pueden probar la interacción con una o múltples bases de datos,
  • o asegurar que los microservicios operen como se espera.

Las pruebas de integración son típicamente el paso siguiente a las pruebas unitarias.

Pruebas Funcionales (Functional tests)

Las pruebas funcionales se centran en los requerimientos de negocio de una aplicación.

Estas pruebas verifican la salida (resultado) de una acción, sin prestar atención a los estados intermedios del sistema mientras se lleva a cabo la ejecución.

A veces existe cierta confusión entre "integration tests" y "functional tests", ya que ambos requieren que múltiples componentes interactúen entre sí.

Pruebas de regresión (Regression testing)

Las pruebas de regresión verifican un conjunto de escenarios que funcionaron correctamente en el pasado, para asegurar que continúen así.

Pruebas de humo (Smoke testing)

Las pruebas de humo son pruebas que verifican la funcionalidad básica de una aplicación.

  • Se pretende que sean pruebas rápidas de ejecutar,
  • y su objetivo es asegurar que las características más importantes del sistema funcionan como se espera.

Pruebas de aceptación (Acceptance testing)

Las pruebas de aceptación son pruebas formales, ejecutadas para verificar si un sistema satisface sus requerimientos de negocio.

Conclusión

Así como es importante verificar que nuestros usuarios pueden usar nuestra aplicación (pueden iniciar sesión, enviar mensajes, y/o actualizar datos), es igual de importante verificar que nuestro sistema siga funcionando adecuadamente cuando se ingresen datos incorrectos o se realicen acciones inesperadas.

Necesitamos anticipar qué ocurrirá cuando un usuario cometa un error

  • ingresando datos incoheretes,
  • intente guardar un formulario sin completar todos los campos,
  • o vaya de un paso a otro sin seguir una secuencia, con o sin malas intenciones.

Así mismo, necesitamos verificar si es posible para un usuario comprometer datos (es decir, tener acceso a recursos que no deben).

Presentación Testing en Seguridad de Aplicativos

  Buen día para todos, mi nombre es Franco Anel Ubalde Arenas, soy de Perú y estoy en Medellín buscando nuevas oportunidades para seguir creciendo, actualmente voy en el tercer semestre en la Institucional Universitaria Pascual Bravo gracias a una beca dada por Sapiencia, estoy muy feliz y motivado para poder terminar la carrera en Tecnología en Desarrollo de Software en modalidad Virtual.

Ya actualmente estoy cursando el 5to semestre, y hasta el momento me ha ido muy bien, estoy agradecido con los profesores que me han enseñado mucho, estudiar de manera virtual no es tan sencillo como parece, necesita mucha dedicación y responsabilidad, es más auto aprendizaje, donde uno mismo es como su profesor.

La educación virtual tiene sus pros y contras, entre sus pros esta que puedes estudiar desde la comodidad de tu cama y en el horario que gustes, te ahorra pasajes por si tienes que llegar a usar transporte publico para llegar a tu centro de estudios, tendrás tu cocina a tu alcance y poder comer lo que gustes, en especial es una ayuda para aquella personas que trabajan y carecen de tiempo. entre sus desventajas esta que la capacidad de percepción de contenido de información, no es lo mismo consultar tus dudas al docente personalmente como por un correo. y ellos no te estarán recordando sobre las tareas y sus fecha de entrega. es aquí donde uno se da cuenta de lo responsable que es, organizado y quienes resaltan son quienes de verdad quieren aprender y no lo ven imposible hacerlo por una modalidad un curso de modalidad virtual.

En este semestre estoy matriculado en la materia de Ingeniería de Testing en Seguridad de Aplicativos, y espero mucho de este para poder aumentar mis conocimientos y fortalecer mi gusto por la  programación y desarrollos de software en el área, y testeo de aplicaciones y software,.
Para todas aquellas personas como yo que estudian en modalidad virtual les deseo muchos éxitos y ánimos para seguir aprendiendo.

jueves, 20 de mayo de 2021

Principales diagramas de UML

 Se dividen en 2, diagramas estructurales y diagramas de comportamiento.

Diagramas estructurales:

  • Diagrama de clases.
  • Diagrama de componentes.
  • Diagrama de despliegue.
  • Diagrama de objetos.
  • Diagrama de paquetes.
  • Diagrama de perfiles.
  • Diagrama de estructura compuesta.

Diagramas de comportamiento:

  • Diagrama de actividades.
  • Diagrama de casos de usos.
  • Diagrama de secuencia.
  • Diagrama de comunicación.
  • Diagrama de tiempos.
  • Diagrama global de interacciones.

Reconociendo lo Aprendido UD1 - IoT

El Internet de las cosas (IoT) es el proceso que permite conectar elementos físicos cotidianos al Internet: desde objetos domésticos comunes...